dimanche, janvier 27, 2008

Les logiciels libres fuieraient-ils l'Europe à tire de (MySQ)aile ?!

Alors que beaucoup s'interrogent sur le récent coup d'éclat réussi par Sun Microsystems avec le rachat de l'éditeur Open Source MySQL pour près d'un milliard de dollars, nous constaterons, plus prosaïquement que voilà encore une émigration d'un projet libre européen vers les cieux étasuniens. La « stratégie de Lisbonne » adoptée dans l'aveuglement euphorique de la bulle Internet n'a pas fini de sombrer...

Naguère, en 2004, dans un ensemble touchant, les trois plus célèbres auteurs européens de logiciels libres lançaient un appel contre les brevets logiciels alors en discussion à Bruxelles. Linus Torvalds (Linux), Michael Widenius (MySQL) et Rasmus Lerdorf (PHP) exhortaient le Conseil de l'UE à ne pas ratifier une proposition de directive sur les brevets logiciels qu'ils considéraient « trompeuse, dangereuse et démocratiquement illégitime ». Las ! Nos choristes n'ont pas longtemps résisté aux sirènes d'outre-Atlantique et ont bien vite rejoint le pays des brevets logiciels. De là à imaginer que les dollars pourraient acheter une légitimité démocratique... Linus Torvalds a quitté sa Finlande natale pour la Silicon Valley (Transmeta) puis l'Oregon (Open Source Development Lab). Rasmus Lerdorf, danois natif du Groenland, travaille maintenant chez Yahoo!. Michael Widenius, né en Finlande et co-fondateur de MySQL en Suède, rejoint maintenant Sun. Marc Fleury, le français qui avait animé le projet JBoss l'a revendu à l'américain Red Hat en 2006. (Il a rejoint le mois dernier Appcelerator une startup qui travaille sur les développements dits RIA pour « Rich Internet Applications » à Atlanta.)

Et quel exemple donne-t-on à la génération actuelle des Talend, Nuxeo, DreamFace Interactive, XWiki, Mandriva, Wallix et tous les autres ! Ceux-là même qui vaillamment s'insurgent, récemment encore, contre l'incompréhensible communiqué de presse de l'AFDEL sur le rapport de la Commission Attali. Le rapport, dont nul n'ignore aujourd'hui qu'il vient avant-hier de libérer la croissance française a en effet l'audace d'écrire en cinquante-huitième (pro)position :

« Promouvoir la concurrence entre logiciels propriétaires et logiciels "libres".

Le patrimoine d’applications dites "libres" ou "open source", créées par une communauté active, représente l’équivalent de 131 000 années/hommes, dont pratiquement la moitié provient de programmeurs européens. Si le coût virtuel en est de 12 Md, le coût réel est de 1,2 Md et les communautés de logiciels libres s’engagent gracieusement à proposer en continu des améliorations et des applications. Le logiciel libre induit une économie moyenne de 36 % en recherche et développement pour les entreprises utilisatrices. Il permet de créer une concurrence pour les logiciels propriétaires, dont les avantages sont différents. Leur part de marché n’est aujourd’hui que de 2 % (avec une croissance annuelle de 40 %) contre 98 % pour les logiciels dits "propriétaires". Pour développer la concurrence, une série d’actions est nécessaire :

- Promouvoir la concurrence entre les logiciels propriétaires et les logiciels libres dans les appels d’offres, notamment publics. Un objectif de 20 % des applications nouvellement développées ou installées au profit du secteur public en open source pourrait être fixé à l’horizon 2012.

- Considérer fiscalement, comme aux États-Unis, les aides aux communautés des logiciels libres comme du mécénat de compétence. - Exiger, à un niveau européen dans le cadre de la politique de la concurrence entre solutions logicielles, la fixation de normes internationales garantissant l’interopérabilité entre logiciels libres et les logiciels propriétaires, en priorité. »

Ce passage a déclenché illico l'ire de l'AFDEL, l’Association française des éditeurs de logiciels, qui déclarait glacialement « la Commission tourne le dos à l'innovation ». En réponse le jour même, un communiqué cinglant était publié dans ces mêmes colonnes, signé des grands éditeurs français de logiciels libres.

Remettons le débat en perspective. Que penser de cette querelle lorsque les grands éditeurs américains, au premier chef desquels Microsoft, par exemple, ont depuis longtemps dépassé la stérilité de ce débat devant les progrès des idées issues de l'Open Source et tentent aujourd'hui de trouver des réponses stratégiques plus subtiles ? En mai dernier encore, Brad Smith, directeur juridique de Microsoft, déclarait que les logiciels libres et gratuits violaient plus de 230 des brevets détenus par la firme de Redmond. Ce même Microsoft, toujours en butte à la Commission européenne, signait en décembre dernier un accord avec la Protocol Freedom Information Foundation dans le but d’aider les éditeurs Open Source.

De même, à quelle vision stratégique rattacher le rachat de MySQL par Sun, dont les effets de bords nourrissent sur nos rives la vivacité du débat ? Les tenants de la théorie du complot rivalisent d'imagination : tout serait ourdi par le conspirateur Larry Ellison d'Oracle, trop occupé à digérer BEA tout en ayant l'oeil de la concupiscence peccamineuse pour son grand rival Open Source -- qu'il avait tenté de circonscrire en s'emparant de InnoDB et en livrant une version rapiécée de Red Hat Linux sous le nom évocateur de « Unbreakable Linux ». Ne pouvant s'emparer de ce morceau de choix, Oracle l'aurait « laissé en pâture » à un Sun dont il estimerait l'historique de succès dans l'intégration des acquisitions en logiciel particulièrement pathétique. Ne pouvant l'avaler, penserait-il le neutraliser en l'abandonnant à des mains qu'il juge ineptes !

Ou bien est-ce un Jonathan Schwartz en mal de stratégie destinée à redorer le blason du constructeur qui aurait suivi l'exemple d'un IBM, depuis longtemps contributeur de poids aux communautés Open Source ? Il faudra suivre les développements de cette méga-acquisition et les remous qu'elle provoque pour en savoir plus.

C'est désormais une habitude, on n'a de toute manière pas fini de se perdre en conjectures sur les dommages collatéraux sur le village européen du hasard des luttes stratégiques engagées par les très grands éditeurs américains de logiciels.

vendredi, janvier 11, 2008

L'Etat, les gazelles et le Grand méchant marché

La dernière note publiée par le Centre d'analyse stratégique le 7 janvier dernier s'interroge sur l'efficacité des incitations publiques françaises en faveur du capital-risque. Elle vise le cœur d'un débat qui agite depuis bien longtemps les sphères de l'investissement en capital privé en France et qui a, bien sur, pris une douloureuse ampleur depuis l'explosion de la bulle Internet. En effet, « pensée unique » ou non, la discussion semble s'enliser dans un dialogue de sourds qui voudrait que, d'une part, les investisseurs institutionnels ne souhaitent pas investir en « private equity » car ils jugent trop faible sa rentabilité financière et que, d'autre part, ce faisant, ils contribuent à l'évanouissement progressif de l'espèce en voie de disparition que constitue la PME innovante en croissance. Cette déplorable attrition entraîne, à son tour, l'atonie des marchés règlementés, historiquement de création récente et de taille bien modeste en France et en Europe continentale pour cette classe d'investissement, et un volume étique de transactions de fusions-acquisitions, fermant la boucle de la perception généralisée du manque de rentabilité de tels investissements. C'est ce dont la puissance publique, guère à cours de métaphores animales par contre, s’inquiétait naguère en constatant que bien peu de « gazelles » figuraient dans le cheptel hexagonal.

L'historique et les chiffres rappelés par la note confirment cette fable moderne de La Fontaine. En France, malgré des échecs successifs tous les gouvernements ont depuis 1983, date de création du Second marché, désespérément cherché à créer les conditions de liquidité et de taille favorables des marchés réglementés. Enviant l'insolent succès du Nasdaq américain (3.134 valeurs cotées pour 3.600 milliards de dollars de capitalisation fin 2007), plusieurs tentatives de créer de toutes pièces des marchés de valeurs de croissance ont eu lieu en Europe, dans la deuxième moitié des années 1990. D'abord dans une perspective nationale affirmée, ont vit apparaître autant de marchés que de pays : Nouveau marché en France, NeuerMarkt en Allemagne, Nuevo Mercato en Italie, et leurs équivalents en Espagne, en Belgique et aux Pays-Bas, sans compter Easdaq et l'AIM britannique. Rapidement amenés à se regrouper pour partager leurs moyens marketing, mais toujours pas interconnectés, ces marchés bourgeonnants du continent prennent alors de plein fouet la débâcle hivernale post-bulle Internet : la liquidité se tarit, les investisseurs fuient éperdument, les cours s'effondrent et les marchés ferment les uns après les autres sans avoir pu mûrir jusqu'à une taille critique. L'Easdaq, racheté par le Nasdaq qui entretenait à l'époque des vues hégémoniques sur l'Union européenne, fait le constat de son échec et ferme également mi-2003. Seul l'AIM résiste (1.684 valeurs cotées pour 143 milliards d'euros), alimenté par des investisseurs américains et anglais. Malgré ces déceptions, Euronext repart de l'avant et crée un nouveau marché des valeurs de croissance, Alternext, en 2005, avec l'ambition d'accueillir toutes les PME de la zone euro. À fin 2007, force est de constater qu'il reste cependant embryonnaire : une centaine de sociétés y sont (laborieusement) cotées pour 5 milliards d'euros de capitalisation totale. Et le coup de grisou de la crise du « subprime mortgage » s'annonce malheureusement comme durable : « Ils ne mouraient pas tous, mais tous étaient frappés », La Fontaine encore.

Concomitamment les dispositifs incitatifs à la levée de fonds décrétés par les gouvernements successifs français proliféraient et, en particulier, les mesures dirigées vers le grand public se multipliaient notablement depuis la fin des années 1990. Définition du statut fiscal des sociétés de capital-risque en 1985, définition des FCPR, les fonds communs de placements à risque, et de leurs dérivés grand public, les FCPI, fonds communs de placement dans l'innovation, assortis de leur « carotte fiscale », renforcement de l'Agence nationale de valorisation de la recherche (ANVAR) puis, à marche forcée, son rapprochement avec la BDPME et la SOFARIS, culminant avec le phagocytage récent de l'Agence de l'innovation industrielle, énième avatar colbertiste inventé par les « grands groupes industriels nationaux » - rappelez-vous les « noyaux durs » du capitalisme à la française -, la lyrique Société Unipersonnelle d'Investissement Providentiel inventée en 2002 et passée dans la loi de Finance 2004 sous le nom de Société Unipersonnelle d'Investissement à Risque - appel masqué au retour prodigue des nomades fiscaux et autres « réfugiés ISF » - qui réglemente le statut de « business angel », l'aménagement durable lui-même qui vole au secours de la PME méritante avec les FIP, Fonds d'investissement de proximité, dont la définition byzantine réinvente à proprement parler la géographie régionale, Caisse des dépôts et consignation, enfin, truchement de l'Etat investisseur et actionnaire, garant de la solvabilité, Statue du Commandeur investisseur de dernier recours et réassureur général du private equity en France : l'Etat est encore et toujours partout présent pour se substituer à un fonctionnement majoritairement privé comme celui qui prévaut aux Etats-Unis et au Royaume-Uni. Mais là on se heurte sans doute à une première résistance structurelle (ou culturelle) dans un pays où domine encore l'idée d'un « grand méchant marché » (pour reprendre le titre à peine ironique de l'essai de Thesmar et Landier) qui fait de la « mondialisation » et de la « libéralisation » deux gros mots intolérables.

Cette polarisation autour du rôle prépondérant de l'Etat et, en conséquence, sur le soutien essentiellement public à l'entrée (mesures fiscales pour le grand public) et à la sortie (création et réglementation de marchés) caractérise le paysage de l'accompagnement financier actuel en France. Entre l'entrée et la sortie il y a un vide qui ne cesse de s'accroître et qui met en péril toute la construction, en limitant considérablement l'impact et l'efficacité de ces soutiens envahissants de la puissance publique.

Premier déséquilibre : l'interventionnisme public sensible dans la levée des fonds destinés à l'innovation est redoutablement efficace. Le ciblage des incitations fiscales (FCPI, FIP, FCPR, SCR, suppression partielle de l'impôt de Bourse, exonération « Madelin » sur Alternext, amendement ISF de la dernière Loi de Finances) fonctionne à plein rendement : les ménages français contribuent à plus de 15% des levées de fonds du capital-investissement tous fonds confondus, à comparer aux 6% américains et 5% anglais ! En revanche, suivant le principe des vases communicants, l'engagement des investisseurs institutionnels français reste faible en comparaison des acteurs américains et anglais. Il est peut-être utile de rappeler que l'emballement de la débâcle boursière Internet du début de siècle aux Etats-Unis est aussi partiellement du à l'engouement massif d'un public de boursicoteurs américains pour ces valeurs soigneusement entretenu par la communauté financière et les intérêts politiques du pays. Les incitations publiques ont alors un rôle plus qu'ambigu puisqu'elles tendent à exposer à un risque élevé des investisseurs particuliers moins informés et précisément les plus vulnérables au risque de perte.

Second déséquilibre : comme la part des investisseurs institutionnels est en Frnace comparativement plus faible qu'ailleurs, les levées de fonds sont principalement assurées par des fonds de pension d'origine étrangère, souvent américaine. Sofinnova, le « fleuron du capital-risque français » avait défrayé la chronique il y a quelques mois, lorsque son président publiait un éditorial virulent dans la presse quotidienne déplorant que le fonds qu'il venait de lever pour investir en France et en Europe n'avait été souscrit pratiquement que par des institutionnels anglais et américains. (Déplorer le succès d'une levée de fonds, nous qui, modestes et obscurs soutiers, rencontrons les plus grandes difficultés à lever nos propres fonds d'investissement, me fait l'effet d'un luxe incompréhensible ou du comble de l'audace de la politique de communication ! Mais passons...) La France se distingue également par le faible poids des fonds de fonds, notamment privés, qui sont des structures de mutualisation de participations dans plusieurs fonds de capital-investissement, dits alors primaires.

Troisième déséquilibre : la faiblesse du capital-risque et le petit nombre de PME de hautes technologies en croissance s'auto-entretiennent certainement. Dans les secteurs du logiciel et des télécommunications aux Etats-Unis, par exemple, ces PME sont très actives dans le rachat des startups à peine plus jeunes qu'elles, y trouvant souvent là des relais de croissance. C'est aussi comme ça que des Microsoft, Cisco, Yahoo!, Oracle et Google ont su grandir rapidement. Hélas, en France, ces profils d'entreprise sont rares et celles qui en partagent l'esprit encore plus rares. C'est un deuxième obstacle structurel de taille dans l'écosystème français, d'autant plus difficile à franchir qu'il résulte d'un désintérêt pour ces entreprises cumulé depuis des années.

La France utiliserait la Caisse des dépôts et consignations (CDC) pour protéger ses entreprises et défendre ses « intérêts économiques primordiaux », déclarait le président de la République. Résurgence ou non du « patriotisme économique » et des fameux onze secteurs protégés qui faisaient couler naguère beaucoup d'encre, quel peut-être le rôle de la CDC, encore embourbée dans la pantalonnade tragique du rachat des actions EADS, face aux colosses des fonds souverains qui s'éveillent au Moyen et à l'Extrême-Orient ? Il semble là que l'on veuille donner raison à Jean Peyrelevade qui, dans Le Capitalisme Total, écrit : « La mondialisation nie l'Etat-Nation et n'accepte spontanément le politique que dans la mesure où celui-ci l'aide à s'étendre. Ce complice supposé est-il encore capable de faire valoir sa prééminence et de contester au capitalisme total son rôle nouveau d'organisateur de la société ? Le combat vaut d'être mené pour essayer de rendre le désir légitime d'enrichissement des actionnaires mieux accordé aux nécessités d'un développement plus respectueux de l'avenir et de l'équilibre social. ». Mais peut-on y parvenir, comme pour la cigarette et les OGM, par voie de décret et de réglementation unilatérale ?

De la faiblesse du capital-risque et de la difficulté à faire émerger un marché des valeurs de croissance, laquelle est la cause et laquelle est la conséquence s'interroge le Centre d'analyse stratégique. Il faudra bien pourtant sortir de cette circularité si l'on veut garder présent à l'esprit l'admonition de l'économiste Daniel Cohen dans ses Trois leçons sur la société post-industrielle : « l'Occident ne gardera pas longtemps le monopole de la prospérité ».

lundi, décembre 31, 2007

Les voeux de Microsoft pour 2008 : meilleurs succès à Steve Jobs et à Eric Schmidt !

Avec un cours de son titre à pratiquement $200 (NASDAQ:AAPL, une capitalisation de près de $175bn !), Apple tire indubitablement les dividendes d'une stratégie industrielle unique par son audace, exécutée par le maître ès-communication Steve Jobs. Et que dire d'un Google, dont un titre (NASDAQ:GOOG) à plus de $700 valorise la société à 220 milliards de dollars ? L'année 2007 fut certainement particulièrement faste aux deux géants de l'informatique et des réseaux. Mais qui donc pourrait en 2008, s'approprier finalement les bénéfices de cet engouement parallèle pour l'iPhone et pour les applications Google ? Et pourquoi pas Microsoft...

Bill Gates est en train de réussir le mouvement périlleux du passage de témoin de fondateur et architecte des technologies du géant de Redmond à une équipe, au premier rang de laquelle Ray Ozzie et Scott Guthrie incarnent une vision bien différente de celle des origines de la firme. (Un voyage que Steve Jobs, considéré plutôt comme le sauveur messianique « en série » de la société qu'il avait fondée il y a plus de trente ans, n'a pas encore entamé, alors que Bill Gates se consacrera dès mi-2008 entièrement à sa fondation caritative.) Ray Ozzie, on s'en souvient, après avoir travaillé pendant quelque temps avec Dan Bricklin sur Visicalc, puis avec Mitch Kapor sur Lotus Symphony, est l'inventeur de Lotus Notes. Il est ensuite fondateur de Groove Networks, ou sa vision du logiciel comme amplificateur de coopération et de collaboration prenait soudain l'ampleur de l'Internet naissant. Microsoft rachetait Groove, dans laquelle il détenait déjà une participation minoritaire, en 2005 et adoubait Ozzie Chief Software Architect l'année suivante. Son « discours inaugural » fin 2005 lançait le concept de « Software plus Services » pour rallier les forces vives de Microsoft à sa propre vision du développement de l'informatique, fomentant ainsi une révolution interne d'ampleur comparable à celle de 1995 lorsque, dix ans auparavant, le trublion Netscape éveillait le géant endormi de Redmond au phénomène du Web. Scott Guthrie est quant à lui l'inventeur de la nouvelle architecture ASP.NET des produits serveur de Microsoft avec Mark Anders : il est, depuis 1997, à l'origine de la Common Runtime Library, et d'ASP.NET ainsi que des développements des outils et des serveurs d'applications Web de Microsoft ; autant dire au cœur de la stratégie de développement et de déploiement des produits phares la compagnie.

C'est dans le contexte de cette transition que cette révolution interne appelée des vœux de la nouvelle équipe manquait de capoter. Qui se souvient de HailStorm, annoncé en 2001, « un ensemble de services en ligne d'infrastructure, moteur du développement de .NET, pour permettre aux programmeurs de créer de nouveaux services XML pour les consommateurs et les utilisateurs en entreprise avec un niveau de personnalisation et de portabilité d'un terminal à un autre encore jamais atteint » ? Erreur de casting : c'est bien plutôt Google qui semble aujourd'hui près de réaliser cette ambitieuse profession de foi ! Quant à l'iPhone d'Apple, un million d'appareils vendu en 3 mois, ne s'annonce-t-il pas comme la revanche du Tablet PC, un million vendus aussi mais en trois ans (2002-2005) ? Google et Apple démontrent ainsi brillamment la validité de la stratégie incarnée par l'école des « modernes » de Microsoft emmenée par Ozzie et Guthrie.

Entre-temps, Microsoft a mis au point Silverlight, une bibliothèque runtime quasiment universelle fonctionnant sur pratiquement tous les terminaux connectés et connectables au Web, une architecture ASP.NET de serveur fusionnant Web et serveurs d'entreprise, une nouvelle génération d'outils de développement ultrasophistiquée pour instrumenter des développeurs entretenus dans l'avidité de « features » par un marketing sans faille, et s'est équipée de datacenters colossaux, du débit et de la bande passante, ainsi que de capacité de stockage dont la combinaison abolit complètement la distinction entre service distant et service local, exécution de l'application localement (dans le navigateur ou sur le desktop) et exécution distante. Lorsque ces frontières, qui, à la réflexion, ont depuis l'origine de la micro-informatique encadré son usage, deviennent invisibles à l'utilisateur final, ce modèle d'architecture informatique virtuelle ne peut plus être arrêté dans son élan. Quel utilisateur se soucie de savoir si c'est Flash ou Silverlight qui fait tourner son application favorite ? Quel utilisateur s'interroge plus d'une seconde sur la localisation exacte de l'exécution de son application « on-demand » préférée, vite devenue indispensable ?

Malgré les débats actuels sur les temps de latence et le haut débit, qui seront n'en doutons pas transitoires - le Minitel, disait-on naguère, grand frein de la progression du Web en France ! - l'iPhone en est déjà pratiquement à ce stade d'ubiquité. La nature en ligne et à la demande des interfaces utilisateur triomphe toujours, à la fin, des modèles fondés seulement sur l'accès. Le succès de l'iPhone engage par exemple Google à porter rapidement ses quasi-applications d'entreprise sur la nouvelle plateforme ; ce faisant Google renforce le bloc Safari/Firefox/Opera au détriment d'Internet Explorer, ce qui encourage les nombreux services Web comme Facebook à s'activer prioritairement à offrir des ports d'entrée au nouveau terminal d'Apple ; ce qui entraîne l'émergence progressive d'une fédération de services contrôlés par les utilisateurs eux-mêmes (e.g. OpenSocial de Google) qui constitue, au final, un contournement efficace du blocage éventuel des sites sociaux et des quasi-applications d'entreprise par l'informatique technique.

Ces mouvements déjà sensibles dans l'industrie sont des alliés puissants dans la confrontation entre les « anciens » et les « modernes » chez Microsoft. S'il reste incontestable que les revenus de Windows et d'Office alimentent toujours l'argumentaire de la ligne du parti, protéger à tout prix la forteresse Office, le temps joue néanmoins en faveur de la vision d'Ozzie et alia chez l'éditeur. Car enfin, si Office est devenue un tel point d'ancrage de Microsoft dans l'entreprise c'est bien aussi le résultat, partiellement au moins, d'une stratégie de contournement habilement concoctée dans les années 1990 contre des départements informatiques vétilleux devant l'envahissante micro. Windows 95, Windows for Workgroups et Office 97 ont joué le rôle d'un cheval de Troie pour les applications de productivité et les applications d'entreprises de Microsoft - celles-là même que la virtualisation Web à-tout-va place aujourd'hui devant le dilemme de se réinventer ou de disparaître. Par ailleurs, l'adoption par les entreprises du dernier né de Microsoft, Windows Vista, serait loin d'être un long fleuve tranquille. Certains décideurs auraient même décidé de remettre en cause leur programme initial de migration, selon une étude du cabinet Forrester Research parue en juin dernier. Ce qui réduit d'autant les chances de rééditer le même stratagème dix ans plus tard.

Dans le même temps, Microsoft s'essaye à de nouveaux services, au nez et à la barbe de Google : HealthVault, lancé en octobre, par exemple, est un nouveau site en version bêta destiné aux particuliers qui souhaiteraient gérer et stocker leur dossier médical personnel en ligne. Tandis que Google pré-lance en décembre une nouvelle interface dédiée à l'iPhone, il s'intéresse aussi aux autres plateformes mobiles avec Android qui inclut un système d’exploitation, une interface utilisateur et des applications. Toutes ces annonces, publiées à un rythme de plus en plus rapide, confortent plus encore la stratégie « Software plus Services ».

Contrairement à ce que laisse entendre le département de relations publiques de Google, il ne s'agit donc probablement pas d'un combat entre Microsoft et Google sur le terrain des applications d'entreprise et de productivité, un secteur où Google est loin d'avoir le succès financier escompté - son modèle reste bien, à ce stade, celui de revenus publicitaires en ligne alimentés par le moteur de recherches -, mais bien de l'ascendant d'une vision sur une autre à l'intérieur même de Microsoft. Et venant de l'acteur qui est déjà, depuis des années, dans une position dominante précisément sur ces secteurs on peut logiquement s'attendre à un retour en force de celui, en l'état actuel, qui est le mieux équipé pour rafler la mise.

mercredi, décembre 12, 2007

Pour un Grenelle de l'aménagement durable du Web

La présentation de Jason Calacanis, ce matin à la conférence Le Web 3 à Paris, fut volontairement polémique. La polémique, on le sait, ne fait pas peur à l'organisateur de cette conférence, Loïc Le Meur, qui, l'année dernière avait invité sans prévenir les candidats à l'élection présidentielle à cette même conférence, déclenchant aussitôt une tempête de critiques dans la blogosphère qui vit d'un très mauvais œil l'intrusion de la politique la plus « politicienne » dans leurs retranchements technobsessionels. (Je m'étonne qu'il n'ait pas profité de cette semaine déjà fertile en controverses pour y inviter le colonel Khadafi à plancher sur la liberté du Web en Lybie : succès assuré !)

Calacanis est un « serial entrepreneur » aux opinions tranchées. Au plus fort de la bulle Internet il avait lancé avec succès la newsletter Silicon Alley Reporter - qui devait disparaître en 2001 dans la débâcle Internet du début de siècle - avant de créer Weblogs, racheté en 2005 par AOL, puis de lancer il y a quelque mois Mahalo. Ce matin il ne faisait pas bon se trouver dans le collimateur de Jason Calacanis ! Car, dans son élocution inimitable où les phrases se précipitent hors de la bouche plus rapidement même qu'il ne faut pour les prononcer, il s'en prit violemment à ceux qui, dit-il, « polluent » le Web. « Nous sommes en train de détruire le Web !» prophétise-t-il en laissant subrepticement et parfois sournoisement le spam détourner et envahir les formidables outils de communication que le Web a permis de mettre en place.

Le premier exemple choisi pour illustrer son propos est usenet, un des premiers, si ce n'est le premier, forum de discussions apparu à la fin des années 70 sur ce qui devait devenir l'épine dorsale du réseau Internet dix ans plus tard. Ne servant pratiquement plus que du spam, dit Calcanis, et des messages racoleurs destinés à appâter l'éventuel internaute non encore averti des risques graves que le « phishing » et autres vols d'identité numérique font courir à ses cartes de crédit, usenet, tombé en désuétude, sombre sous le poids même du détournement des intérêts collectifs et sociaux qui présidèrent à sa conception à l'origine. Outre que la concurrence du Web depuis 2000 et plus récemment des moteurs de recherche, qui offrent tous des « groupes » à la fonctionnalité plus ou moins équivalente, des blogs et des wikis a certainement joué un rôle au moins aussi important dans l'obsolescence de usenet, la confiscation insidieuse d'une plate-forme numérique de communication, généraliste, ouverte et « libertaire » montre, en effet, l'autre face de ce qu'on appelle aujourd'hui dans la terminologie moderne, les réseaux sociaux ou le graphe social.

Poursuivant sa démonstration, vouant aux gémonies un certain nombre de sites comme PayPerPost.com - avec attaque ad hominem en règle contre son fondateur Ted Murphy, affiché pleine page sur la diapositive avec des qualificatifs assez imaginatifs - dont le modèle est de permettre aux marques de rémunérer des bloggers pour faire leur éloge dans leurs publications personnelles, Calacanis veut attirer notre attention critique sur la facilité avec laquelle ces détournements sont facilités, involontairement ou hélas ! volontairement, par les promoteurs mêmes de ces plateformes. Articles diffamatoires sur Wikipedia, spam ou contenu stipendié dans le résultat des moteurs de recherche, fausses identités sur Facebook, les exemples se multiplient avec le développement rapide des outils et des plateformes « communautaires ». Et, plus que le « freerider » qui dans le jargon de l'économiste désigne celui qui bénéficie du bien commun sans y contribuer - « l'externalité positive », si vous voulez briller dans les blogs - ceux que Calacanis vilipende sont ceux qui détournent l'intérêt collectif à leur profit individuel.

En revanche, la cure proposée par Calacanis est peut-être pire que le mal qu'elle prétend soigner. Selon lui, il faudrait diminuer, pour certaines plateformes ou certains services, le niveau d'anonymat et exercer un contrôle plus strict à l'inscription et au login des utilisateurs. À ce sujet il cite l'exemple de Angie's List, un site où les utilisateurs s'abonnent pour quelques dollars par mois afin de lire et de poster des revues et des opinions sur les commerces locaux. Le fait de payer un abonnement devrait, d'après lui, assurer que le risque de détournement est moindre. (Ceci dit, il me semble qu'à moins d'avoir d'inquiétants moyens de coercition le site ne pourrait empêcher le fournisseur de service mal intentionné de se créer un compte à titre individuel et de l'utiliser pour tresser les louanges de son propre commerce sous l'apparence du consommateur indépendant.)

Et que dire lorsque le détournement est mis en place volontairement pour servir les intérêts politiques d'un gouvernement, comme généralement on le pense de la Chine et de quelques autres pays ? Ou encore ceux d'une corporation particulière : on pense aux débats qui agitèrent la Commission Olivennes. (Dialogue qui a l'air de s'envenimer singulièrement : Olivier Bomsel, économiste de renom et membre de ce noble aréopage, s'est récemment emporté devant la vivacité des réactions déclenchées par ce rapport et traité publiquement l'UFC-Que choisir de « secte de charlatans » ! Ceci dit, c'est assez peu surprenant de la part de l'auteur de « La gratuité c'est le vol ! » chez Grasset.)

Quoiqu'il en soit, le « Greenpeace du Web » qui viserait à le dépolluer et inciter ceux qui publient à le faire dans le respect (« Vigilance et propreté » comme on le lit sur toutes les poubelles de Paris) de son écologie menacée, attend son Al Gore. Avis aux bonnes volontés...

dimanche, novembre 25, 2007

Rapport Olivennes : première pression à froid

Comme anticipé dès le moment même de la remise de la lettre de mission du Ministère de la Culture à Denis Olivennes, le rapport intitulé « Le développement et la protection des oeuvres culturelles sur les nouveaux réseaux », salué la semaine dernière avec des accents lyriques par le Président de la République, provoque un brouhaha de réactions. Les opinions se divisent évidemment en deux camps, déployant la rhétorique, le sarcasme et parfois l'invective :

- les pour, dans lesquels on trouvera sans surprise le Syndicat national de l'édition phonographique (SNEP), la Société civile des producteurs phonographiques (SCPP), la Société des auteurs et compositeurs dramatiques (SACD), l'Union des Producteurs phonographiques Français Indépendants (UPFI), les responsables à l'UMP des nouvelles technologies et de l'audiovisuel, ainsi que la Sacem ;

- les contre, parmi lesquels se sont manifestés l'Association pour la promotion et la recherche en informatique libre (APRIL), le Mouvement des jeunes socialistes, l'UFC-Que Choisir, et...deux députés apostats de l'UMP.

Clivage apparemment net, économique (producteur/consommateur) et politique (droite/gauche).

Cependant, la lecture du rapport Olivennes, si elle confirme qu'il y a amplement matière à exprimer de tels clivages – comme une évidence, partie émergée d'un iceberg dont la masse confuse et sombre est reléguée dans les renvois en bas de page, nombreux, et dans des annexes, jargonnantes – suscite aussi d'autres interrogations. Premier commentaire : DailyMotion, YouTube/Google pourtant auditionnés par la mission et Kewego, non consulté, ont approuvé mais n'ont pas, pour l'instant signé, ce rapport mettant en avant une contradiction avec le régime de responsabilité de l'hébergeur redéfini par la Directive européenne Commerce électronique et la Loi de confiance dans l'économique numérique (LCEN) de 2004.

La Nouvelle surveillance

Force est de constater que le rapport reprend à son compte une évolution graduelle vers ce que, dès 2004, Sonia Katyal de la Fordham School of Law appelait très justement les « nouveaux réseaux de surveillance ». Il s'agit d'instaurer progressivement un régime extrajudiciaire de contrôle et de sanction des infractions aux réglementations de la contrefaçon et du copyright, dont l'inspiration rappelle inévitablement la métaphore du Panopticon de Jeremy Bentham lumineusement employée par Michel Foucault dans « Surveiller et punir ». Reporters sans frontières avait également publié un rapport signalant l'avant garde de cette dérive en 2004 : « L'Internet sous surveillance ». Mais à l'époque on s'alarmait plutôt de ces tendances, depuis vivement exacerbées, chez les régimes autoritaires et dictatoriaux ou bien de la sournoise mise sous tutelle de l'Internet dans les démocraties bien installées et de tradition libérale au motif impeccable de la lutte contre le terrorisme.

En effet, le rapport fait d'abord le tour des arsenaux juridiques et technologiques existants et recommande leur emploi à des fins prophylactiques, « inciter l'offre légale » et « désinciter (sic) l'offre illégale ». Cet emploi relève de deux plans, à la Foucault : surveiller d'une part, par un filtrage des contenus qui peut être préventif ou répressif, et punir, d'autre part, par un dispositif « d'avertissement et de sanction ».

Pour mettre en oeuvre ce programme, le rapport constate d'abord que certains pays comme les Etats-Unis et le Royaume Uni ont mis en place un mécanisme d'avertissement et de sanction uniquement contractuel, qui ne repose que sur des acteurs privés et sur des obligations résultant des seuls contrats d'abonnement. L'exemple classique est celui de la RIAA aux Etats-Unis qui a, en 2002, contacté Verizon, un FAI américain, pour exiger les identités d'abonnés dont les sites hébergés par l’opérateur constituaient, de son point de vue, des noeuds de piratage et qui, devant le refus du FAI, l'a attaqué en justice – premier procès d'une longue suite déroulée depuis par les RIAA (Recording Industry Association of America) et MPAA (Motion Picture Association of America). Le rapport note avec justesse qu'une base uniquement contractuelle est difficilement envisageable en droit français : où serait la base juridique à une sanction prise par un FAI sans intervention d'un juge ou d'une autorité publique, ni imposition d'une obligation légale ?

En France, le Code de la propriété intellectuelle prévoit en effet que toute violation, comme la contrefaçon numérique, est un délit et relève du pénal. La clause de la loi DADVSI d'août 2006 qui prévoyait d'en exclure les téléchargements réalisés à des fins personnelles ou à des fins non commerciales (et de les reclasser en simples contraventions) a été, rappelons-le, censurée par le Conseil constitutionnel. Quant à la prévention de la mise à disposition de contenus illégaux sur des sites légaux (sous entendu hébergés par les FAI nationaux), la LCEN prévoit déjà des recours pour les ayants droits, qui doivent saisir l'autorité judiciaire qui prescrit ensuite aux FAI et opérateurs les mesures techniques propres à prévenir ou faire cesser le dommage, en clair résilier d'autorité l'abonnement de l'indélicat. Cette prescription d'autorité fait néanmoins encore débat, en particulier sur la possibilité pour les sociétés de perception et de répartition des droits d'auteur de mettre en place des dispositifs de recherches, les « radars » de la Nouvelle surveillance : le Conseil d'Etat durcit le ton, qui vient d'annuler, par exemple, une décision d'octobre 2005 de la CNIL qui estimait que le contrôle que les sociétés d'auteurs (la SACEM, la SCPP, la SDRM, et la SPPF en l’occurrence) entendaient mettre en place était disproportionné aux objectifs poursuivis.

L’Autorité publique de la Nouvelle Surveillance : Résiliator !

La solution est donc d'une désarmante simplicité suivant les préconisations du rapport Olivennes : reprendre et améliorer l'arsenal technique du mécanisme d'avertissement et de sanction, mais pour préserver les bonnes consciences le confier non pas aux seuls acteurs privés mais à une Autorité administrative publique. Tout au plus fera-t-on le subtil distinguo entre une Autorité qui avertirait le titulaire de l'abonnement Internet et déciderait elle-même de la sanction en cas de répétition des mêmes actes et une Autorité qui assurerait l'avertissement mais se contenterait d'une médiation obligatoire en amont de l'intervention d'un juge, qui déciderait, au final, de la sanction.

Dans un cas comme dans l'autre l'Autorité prendrait une sanction administrative distincte de la sanction pénale que le titulaire continuerait à encourir. Le vocabulaire employé dans le rapport a ici son importance : la sanction administrative de l'Autorité vise « le défaut de sécurisation du poste » et la sanction pénale vise « l'acte de contrefaçon », considérés comme violations de deux règles différentes du Code de la propriété intellectuelle.

Cette Autorité dont la mise en place pourrait se faire dans l'année 2008 se profile donc dans la ligne directe de l'institutionnalisation de la Nouvelle surveillance. Au-delà des réactions que le rapport commence à susciter, il sera intéressant de suivre, dans la période qui s'ouvre, avec quelle vitesse le dispositif législatif sera adopté. La célérité, déjà promise par Mme Albanel, laisse à penser que les dés sont jetés. Et pourtant pour que cette Autorité que le rapport appelle de ses voeux puisse fonctionner, il faut quand même s'accommoder de quelques entorses au droit :

- le suivi de la procédure d'avertissement et la prise de sanction requièrent d'une façon ou d'une autre le rapprochement entre une adresse IP et un nom de titulaire d'un abonnement. Aujourd'hui ce rapprochement n'est possible que par le recours à l'intervention d'un juge, ce que le Conseil constitutionnel a précisé à propos de la LCEN en 2004. Il faudrait donc modifier le Code des postes et communications électroniques pour autoriser l'Autorité à effectuer ce rapprochement sans recours judiciaire. (Le rapport juge cette modification « acceptable » compte tenu « des garanties d'indépendance et d'impartialité présentées par une autorité réunissant des agents dotés de prérogatives de puissance publique » – on appréciera.)

- le suivi et la sanction nécessitent l'établissement de fichiers des contrevenants, puisque la répétition déclenche la sanction, ce qui doit être, aux termes du droit, être expressément autorisé par la CNIL.

- l'autorisation de la CNIL est également indispensable pour conserver pour une durée définie les données de connexion. C'est un sujet très délicat : Google avait cédé en juin dernier aux pressions de la Commission européenne, acceptant de rendre anonymes les traces de connexions que le moteur de recherche conserve et archive, au bout de 18 mois plutôt qu’à la fin des 24 mois auxquels il s'était vaguement engagé.

L’éternelle absente : la question des moyens

Plus généralement, se pose aussi la question, éludée dans le rapport, des moyens donnés à une telle Autorité. Sentant poindre l'éventuel bât blessant, le rapport suggère d'ailleurs d'étendre le périmètre de la toute nouvelle Autorité de régulation des mesures techniques (ARMT), prévue par la loi DADVSI d'août 2006 et intronisée en avril dernier, plutôt que de créer une nouvelle Autorité de toutes pièces. Les moyens de l'Autorité décideront en effet immédiatement de la volumétrie que peut atteindre le Nouveau réseau de surveillance : face à des FAI nombreux et, pour certains, financièrement armés, il conviendrait que cet opérateur d'un nouveau genre, le CAI (Coupeur d'accès Internet) ne soit pas démuni !

Le filtrage préventif pour empêcher l'infraction est bien sûr trop cher. Le déploiement à large échelle des technologies de filtrage implique d'une part nécessairement les FAI - mais qui paye ? - et d'autre part des solutions techniques diverses, récentes et, note le rapport, « relativement performantes mais encore perfectibles ». D'autant plus que, ne s'agissant exclusivement que de contenus et de productions français sous l'autorité républicaine du CAI hexagonal, les prestataires techniques ne sauraient être que nationaux, ce qui en réduit forcément le nombre ! De fait, tous les prestataires de solutions techniques auditionnés sont d'origine française : AdVestigo, LTU Technologies, I-Tracing, Qosmos, Thomson - derrière lesquels les paranoïaques qui ont survécu reconnaîtront l'INRIA, le LIP6 de l'Université Pierre-et-Marie-Curie, le CEA/LETI, la DGA, Cyber Networks et curieusement JASTEC le géant japonais de l'électronique et des services - l'INA, qui a développé son système d'empreinte numérique, Signature, repris pas Canal + et par DailyMotion, mais également les beaucoup plus insaisissables et voilés de mystère Communications SA (tatouage numérique) et CoPeerRight Agency (peut-être une émanation sulfureuse du SELL, qui s'était illustrée en 2005 avec l'autorisation de la CNIL par l'envoi d'avertissements menaçants aux internautes repérés sur des réseaux P2P). Seule exception l'américain Audible Magic qui, il est vrai, fournit le fingerprinting pour DailyMotion initialement prévu comme signataire du rapport.

Le filtrage répressif, quant à lui, soulève évidemment des questions sur la protection des correspondances et de la vie privée. L'aspect légal de ces questions est du ressort de la CNIL en France. Mais plus indirectement, ce que pourrait également craindre le gouvernement serait que le renforcement du filtrage répressif - contrairement à ce qui se passe pour la sécurité routière - entraîne une généralisation puis une banalisation de l'usage de la cryptographie dans les échanges. Et là, danger ! On rentre sur le terrain miné de l'intérêt national, de l'intelligence et du patriotisme économique et ses 11 secteurs stratégiques protégés ! (128 bits or not 128 bits, that is the question?) Il ne s'agirait pas que l'on ne puisse plus se faire contrôler. Tiens ! On ne parle plus beaucoup des hackers rouges qui défrayaient encore la chronique il y a quelques semaines : des réseaux directement liés au service de l’Etat français avaient été visés selon le secrétaire général de la Défense nationale. Pensez donc, même le portail Internet du Ministère de la Défense avait ainsi fait l’objet de plusieurs intrusions…

Il y a quelques semaines encore, par exemple, Bruce Schneier, expert mondialement reconnu en sécurité informatique, s'étonnait de constater que parmi les trois algorithmes de génération de nombres aléatoires, indispensables en cryptographie, retenus officiellement par le NIST (le National Institute of Standards and Technology, l'agence américaine de réglementation dépendant du Ministère du Commerce), celui proposé par la NSA (National Security Agency) était bizarrement le plus lent à l'exécution. De là à penser qu'il contient une « backdoor » qui rendrait toutes les implémentations commerciales, du coup obligatoires pour obtenir l'approbation du NIST, vulnérables aux vérifications du gouvernement américain...ou d'autres, le sang se glace d’effroi !

Ne doutons pas qu'en France aussi, ces questions agitent bien d'autres cercles que ceux des seuls Ministère de la Culture et de la mission Olivennes.

Une foi inébranlable en la technologie

La question des moyens financiers touche rapidement celle de l'équilibre entre protection des données de la vie privée et intérêt public, entre contrefaçon et copie (unique) pour usage privé, entre système judiciaire et autorité administrative extrajudiciaire. Mais avant tout, le rapport, semble professer une foi inébranlable en la technologie et en la mise en place d’un arsenal technique et automatisé se présentant alors comme solution à un vaste problème de comportements et de système économique.

Pas un instant ne sont évoqués un monde virtuel de communications électroniques, courrier électronique, messagerie instantanée, IRC, réseaux P2P, VoIP où la cryptographie individuelle se serait banalisée au point de devenir la règle et non plus l'exception, la réglementation hâtant de provoquer ce qu'elle cherchait à éviter.

Pas un instant n'évoque-t-on les usages inattendus et, comment dit-on ? « inappropriés », qui pourraient être faits d'un fichier centralisé des contrevenants : nos amis britanniques, grands promoteurs de la Nouvelle surveillance par exemple, ont laissé s'évanouir dans la nature des données confidentielles concernant quelque 25 millions de personnes, a reconnu mardi dernier devant le Parlement le ministre des Finances Alistair Darling.

Laissons aussi à votre imagination les usages créatifs d'un fichier centralisé des empreintes numériques des contenus que devraient utiliser les « radars » du Nouveau réseau de surveillance. Le rapport suggère d’ailleurs une sorte de portail coopératif des sociétés d’auteurs et de productions où seraient publiés des tableaux de bord statistiques sur la décroissance inéluctable de la piraterie après ces mesures et qui centraliserait ces empreintes. À ce sujet je propose le nom de domaine www.exceptionculturelle.fr qui est inexplicablement encore libre ! (Gracenote, pour les CD, et Kaleidescape pour les DVD, deux startups américaines, ont ainsi construit des fichiers centralisés leur permettant de reconnaître à distance les contenus audio et vidéo joués sur vos lecteurs de salon connectés au Web, sans parler du couple par qui le scandale est arrivé iPod/iTunes - pourrait-on « planter » d'autorité votre iPod ou votre iPhone s'il venait à contenir des morceaux considérés comme piratés ?). Où est passé l'autre P2P : le Principe de précaution ?

Et que penser du curieux dévoiement qui, en miroir de ce qui se passe aux Etats-Unis où le contournement des mesures de protection installées par des acteurs et des opérateurs privés est illégal, verrait ici rendre illégal l’absence de sécurisation du poste de l’abonné ? L’affaire récente du DRM que BCG-Sony avait installé sans avertissement sur certains de ses supports qui, basés sur un rootkit rapidement exploité indûment par des hackers pas très bien intentionnés, détruisaient alors efficacement le PC sur lequel d’aventure l’utilisateur avait choisi de les écouter, n’a pas porté apparemment.

Et quid des contenus non identifiés par l'Autorité comme produits français : l'identification pose question en soi. C'est le Conseil d'Etat qui a dû confirmer que le film « Un long dimanche de fiançailles », super production de Jeunet, était un film...américain !

Pour édulcorer le message, le rapport préconise un inventaire de mesures « politiquement correctes » et difficilement critiquables : ramener la fenêtre VOD de disponibilité des films de 7 mois à 4 mois après la sortie en salle, abandonner au nom de l'interopérabilité, droit qui deviendra bientôt constitutionnel n'en doutons pas, les mesures de protection (DRM) - Apple fait décidément bien de l'ombre à certains rentiers assoupis !-, subordonner les aides à la production du CNC à l'engagement de la mise en disponibilité des films en VOD - le nerf de la guerre, vous dis-je !-, généraliser le taux de TVA réduit aux produits et services culturels - invoquer l'Europe -, regrouper les ayants droits en une agence unique - l'union fait la force, mais les querelles de chapelles s'y opposent -, et si l'on obtient la baisse de la TVA, élargir l'assiette des abonnements triple play soumis à ce taux réduit en contrepartie d'une nouvelle taxe alimentant des fonds de financement de la création et de la diversité musicales (bien oubliée dans tout le discours juridico-technologique) - un jeu à somme nulle pour les FAI.

Alors pistes sincères et originales pour débroussailler un sujet qui se complexifie avec le temps et ne peut se satisfaire de jugements à l’emporte-pièce ou bien agit-prop médiatique et opération de communication savamment orchestrée pour une inclinaison politique déjà prédéfinie ?

mercredi, novembre 14, 2007

Open Social contre Facebook : où sont les données ?

En 1995 - une éternité dans notre ère informatique - un mot d'ordre ralliait tous les constructeurs, en dépit de leur concurrence commerciale acharnée : la migration vers les « open systems », les systèmes ouverts. Se succédaient jadis les communiqués de presse de tous bords annonçant le soutien à Posix, première étape vers un standard Unix ouvert. Les analystes de l'époque accueillaient ces manifestations parfois grandiloquentes avec caution. Quelle sincérité pouvait-on accorder à ces déclarations apparemment contradictoires avec les positions propriétaires sur lesquelles ces mêmes constructeurs campaient par ailleurs ? Ou bien, s'interrogeaient certains, ne s'agissait-il pas des prémices d'un intérêt réel pour le marché, alors à peine bourgeonnant, du client-serveur ?

Douze ans passent et le Web !

Début novembre, Google annonçait « Open Social », une nouvelle plateforme de réseau social en ligne généralement perçue comme une réponse au phénomène Facebook. Pratiquant d'ailleurs ce que cette plateforme prêche, Open Social est une alliance, aujourd'hui constituée des réseaux sociaux Orkut, lancé en 2004 par Google, Xing, Friendster, Hi5, LinkedIn, Plaxo, Newsgator et Ning, autour de la promesse d'API communes et ouvertes.

Il s'agit d'une manoeuvre d'escalade significative dans une guerre qui ne dit pas encore son nom autour des publicités et des widgets. D'une part, Google attaque Facebook au coeur de sa stratégie propriétaire volontairement affichée. La livraison publique des API permettant à des tiers de développer des applications pour Facebook avait provoqué l'accélération phénoménale de la croissance du site social en mai dernier. Ces applications, qui ont proliféré à un rythme inouï depuis, sont en revanche enfermées sur le site Facebook et ne fonctionnent pas sur d'autres sites sociaux. D'autre part, Google a réussi à entraîner dans Open Social des acteurs d'horizons plus larges que celui des seuls sites communautaires, comme Newsgator, spécialiste des flux RSS, Plaxo, au départ partage de contacts, Ning, développement de communautés en ligne, mais également des éditeurs de widgets pour Facebook, déjà reconnus, comme iLike, Flixster, RockYou et Slide intéressés par le portage de leurs développements vers d'autres plateformes.

L'escarmouche brutale de la semaine dernière au cours de laquelle Facebook annonçait l'ouverture du site aux publicités ciblées a donc certainement laissé des traces chez Google. Baptisées « Social Ads », les publicités ciblées de Facebook apparaissent à côté de l'affichage des activités des « buddies » Facebook de votre compte sur le site social : vous recevez donc des publicités pour le produit, la musique, la vidéo que vos relations Facebook ont publiés sur leurs propres pages du site. Social Ads met la recommandation au service de la diffusion de publicité, une pierre dans le jardin de Google.

Le succès de Google repose, entre autres, sur le délicat équilibre entre intrusion et information des publicités que le site diffuse et qui sont au coeur de son business model (NASDAQ:GOOG plus de 200 milliards de dollars de capitalisation). Pas assez ciblées, les publicités apparaissent vite comme intrusives, trop visiblement destinées à faire acheter ce dont on n'a ni besoin, ni parfois même idée. Très ciblées et pertinentes au contraire, leur caractère de réclame s'efface progressivement et les publicités s'apparentent alors à de l'information. Google, comme Amazon dont le système pionnier de recommandation engendre aujourd’hui une part non négligeable des revenus (20% à 30%), déploie donc de considérables efforts pour que sa régie développe le meilleur rendement de transformation de publicité en information. Or le système de recommandation par affinités sur lequel est basé Facebook est intrinsèquement producteur de ciblage affiné et de pertinence, ce qui justifie la menace qu'il fait porter sur les autres géants de la publicité en ligne.

Cependant le modèle actuel des API de Facebook, catalyseur efficace de son hypertrophie récente, a probablement des limites aussi. Ces API, en effet, sont conçues de façon à inciter les développeurs tiers de widgets Facebook à conserver leurs données dans leurs propres bases. La widget Flixster ignore la widget iLike, quand bien même toutes deux sont réunies sur la page personnelle d'un utilisateur Facebook, chacune conserve ses propres données sans partage (ou très limité). Mais alors les données les plus probablement intéressantes pour servir les publicités de Social Ads sont elles mêmes enfermées dans les widgets Facebook, hors d'atteinte des autres widgets et de Facebook lui-même ! La fermeture des API bornerait ainsi le niveau de finesse de la plateforme de recommandation Social Ads et, corrélativement, augmenterait la valeur des widgets individuelles.

Google l'a semble-t-il bien vu qui essaye aujourd'hui d'attirer ces éditeurs de widgets Facebook vers son propre réseau Open Social. D'ailleurs on pourrait s'attendre à ce que Google et Facebook se disputent rapidement le rachat des éditeurs de widgets Facebook indépendants les plus en vue, de façon à préempter tactiquement leurs déploiements réciproques de plateformes publicitaires en ligne. Ce qui, pour l'instant, nous laisse dans l'expectative sur la régie de Microsoft/MSN et sur la nouvelle plateforme Panama de Yahoo!. Par contraste, ont rejoint rapidement Open Social des compagnies comme Engage.com, Hyves, imeem, Six Apart, Tianji, Viadeo et le poids lourd, MySpace (News Corp).

Mais est ce vraiment suffisant au plan stratégique ? Tim O'Reilly l'a probablement le premier noté, Open Social simplifie la vie du développeur inquiet de la portabilité de ses widgets d'un réseau social à l'autre. Que fait-il réellement pour l'utilisateur ? Open Social ne permet pas vraiment d'exploiter les mines des données rassemblées isolément par chacune des widgets. Au-delà de se contenter de widgets portables d'un réseau à l'autre, il faudrait des widgets capables d'utiliser les données disponibles dans tous ces réseaux. Open Social n'y est pas encore mais la philosophie qui y prévaut est la bonne : l'emploi de technologies et d'API ouvertes.

Cette remarque redirige alors l'attention vers d'autres acteurs qui, pour certains encore sous le radar, travaillent à ouvrir ces widgets-silos de données. SixApart, d'après la rumeur tout entier à la préparation d'une prochaine IPO après son acquisition de LiveJournal, commence à laisser filtrer les signaux adéquats montrant qu'il s'intéresse de près au problème, en insistant sur OpenId et OAuth des protocoles ouverts de gestion des identités et d'authentification. DreamFace Interactive, qui vient de livrer la seconde version d'un framework Open Source de développement et publication de mashups, propose une approche originale (une « DataWidget » pour combiner les données et vue interactive) déjà employée, par exemple, pour des widgets Facebook ouvertes comme 360Gadget. Netvibes, bien sûr, partenaire Open Social, tente de promouvoir son UWA (Universal Widget API) et ClearSpring son système de publication universel, LaunchPad. Sous les auspices favorables de l'annonce d'Open Social, c'est peut-être de ces jeunes pousses et autres innovateurs qu'il faut attendre la prochaine étape de la mutation incessante des applications Web.

En tout cas, dans un contre-pied parfaitement minuté, Kleiner Perkins, la plus célèbre firme de capital-risque de Californie qui vient de recruter le récent Nobel Al Gore – quelle firme française de capital risque oserait recruter Albert Fert ! – , vient d'annoncer qu'ils ne financeront plus de sociétés Web 2.0, point final. À bon entendeur...

jeudi, novembre 01, 2007

L'algorithmique à l'honneur

Le vieil homme longiligne déplie lentement sa haute silhouette du fauteuil où il était assis et se dirige d'un pas vif vers l'estrade. Petit à petit le silence se fait dans la chapelle de la Sainte Famille à Talence, alors que géant à l'oeil pétillant se dresse dans la lueur des vitraux. Le petit groupe de communiants réuni dans la nef, en plein recueillement, s'apprête à recevoir la parole d'un des pères fondateurs de leur art. Car il s'agit non pas d'une religion ni d'une secte mais bien d'un art : « The Art of Computer Programming ». Et l'orateur qui commence à parler d'une voix forte n'est autre que Donald E. Knuth, l'auteur de cette véritable encyclopédie de la programmation.

Exceptionnellement de passage en France, pour recevoir un doctorat honoris causa de l'Université de Bordeaux 1 mardi dernier, c'est bien Don Knuth, généralement considéré comme l'inventeur et le théoricien de génie de la science mystérieuse de l'algorithmique, qui nous fait l'honneur de nous faire part de ses nouvelles excursions combinatoires. Voilà que le septuagénaire passionné nous embarque avec lui dans un voyage au coeur de structures de données imprévues et inédites : diagrammes binaires de décision « maigres » dont l'énumération le conduit aux « dérangements de Genocchi », aux permutations de Dellac, puis aux « pistolets de Dumont » irréductibles pour finir par cheminer dans les « parcours de Seidel ». Une occasion unique de suivre aux côtés d'un grand maître les sentiers moins fréquentés de la recherche informatique moderne.

Don Knuth est, en effet, une figure célèbre et reconnue de l'industrie informatique. Un inspirateur ! Les trois volumes de son Art of Computer Programming, rédigés au début des années 1970, sont la référence encyclopédique de tous les informaticiens du monde. Knuth a attaché son nom à une variété incroyable d'algorithmes fondamentaux (Knuth-Bendix en théorie des groupes, Knuth-Morris-Pratt pour le « pattern matching », Trabb Pardo-Knuth, Knuth-Schönhage pour le PGCD de polynômes, Robinson-Schensted-Knuth en combinatoire, etc.) maintenant omniprésents dans nos applications informatiques quotidiennes, des traitements de texte jusqu'aux moteurs de recherche. Il a également développé quasiment seul le système de typographie, d'écriture et de publication d'articles scientifiques TEX et METAFONT à une époque où les interfaces graphiques n'étaient encore qu'un vague projet de recherche au Xerox PARC. Ce système, repris et développé par une suite grandissante d'enthousiastes, est employé par la communauté scientifique dans le monde entier depuis plus de 25 ans pour la rédaction de tous les travaux destinés aux publications techniques. Son évolution récente, CWEB, toujours pilotée par Don Knuth vise à donner aux programmes le statut d'oeuvres littéraires (« literate programming »), mêlant ingénieusement code, commentaires et démonstrations mathématiques. À la retraite (industrieuse) depuis quelques années, Don Knuth s'est remis à la rédaction des quatre prochains volumes annoncés du The Art of Computer Programming, dont les fascicules du quatrième volume circulent depuis quelques temps sur le Web.

Ayant rendu dans sa présentation un discret et délicat hommage à de nombreux mathématiciens français Don Knuth devait assister ensuite à un véritable colloque organisé en son honneur au cours duquel la fine fleur des laboratoires français de recherche en combinatoire et en algorithmique vint présenter des développements modernes des idées originales de ce père fondateur. On discuta savamment de comment compter, en temps et espace limités, les mots différents dans de très grands volumes de texte avec application directe aux résultats des requêtes des moteurs de recherche ou à la détection d'intrusion et d'attaques par déni de service dans les réseaux informatiques. On disserta doctement sur comment trouver rapidement le plus grand commun diviseur des nombres immenses et inimaginables utiles à la cryptographie et à la sécurité des données. On s'interrogea sur comment déterminer la performance d'un algorithme sur un corpus de données particulier, comment trouver rapidement l'intersection de listes très longues et comment compresser des forts volumes de texte avec application à la gestion des bases de données biogénétiques et à la recherche médicale. Un programme fascinant où les sujets en apparence simples, comment dénombrer ? comment reconnaître ? loin d'être épuisés sont au contraire sources inépuisables de renouvellement d'idées trouvant immédiatement ancrage dans les secteurs contemporains les plus avancés : grands volumes de données, génétique, simulation à grande échelle, physique, etc. Au fur et à mesure du déroulement des exposés, un large sourire s'affichait sur le visage de Don Knuth, visiblement à la fête !

Large sourire également pour Giorgio Parisi, reçu, quelques semaines auparavant, sous les lambris impressionnants de l'Académie des Sciences, quai Conti. Le physicien, spécialiste de mécanique statistique, était le récipiendaire du prix Microsoft pour la Science en Europe décerné par Microsoft joint pour cette récompense aux deux académies prestigieuses, la Royal Society de Londres (1660) et l'Académie des Sciences de Paris (1666), représentées respectivement par Jean-Philippe Courtois, président de Microsoft International, Martin Taylor, Professeur de mathématiques, et Edouard Brézin, cheville ouvrière du CEA, ancien président du CRNS et physicien émérite. Mais je ne sais pas ce qui était le plus impressionnant : les marbres augustes des Cauchy, Monge, Liouville, Lagrange surplombant la salle tricentenaire où se sont déroulés tant de débats scientifiques ou bien d'être assis, voisinant avec Michel Talagrand, Jacques Friedel, Olivier Faugeras et même Anatole Abragam - nonagénaire en pleine forme ! - dont les noms révérés émaillaient nos livres de cours en prépas scientifiques !

Parisi était couronné par Microsoft Research pour ses travaux sur le parallélisme dont on sait maintenant, depuis que Craig Mundie, passé plusieurs fois en Europe, à Bruxelles et Paris cette année, s'en est publiquement ouvert, que c'est un des sujets importants pour le géant de Redmond. Ce sont des travaux que Giorgio Parisi avait en fait réalisé comme en passant pour s'attaquer à des problèmes de physique des particules, de verres de spin et de physique quantique. La machine parallèle APE (Array Processor Expansible) qu'il avait mise au point pour des calculs de chromodynamique quantique reste à ce jour une des plus rapide au monde.

Ainsi les profils exceptionnels de Parisi et de Knuth, réunis par les circonstances à si peu de temps d'intervalle dans les honneurs rendus par une plus jeune génération scientifique et technique française, font immanquablement penser dans ce mélange du théoricien et de l'expérimentateur de génie à celui de Robert Hooke, membre, fondateur quant à lui, de la Royal Society en 1660, élève de Robert Boyle, rival de Newton, et arpenteur-reconstructeur de Londres avec Wren après l'incendie qui détruisit la ville en 1666. Et finalement, on se dit que malgré ses déboires la recherche européenne, et française, a peut-être encore son mot à dire !

ShareThis