dimanche, novembre 25, 2007

Rapport Olivennes : première pression à froid

Comme anticipé dès le moment même de la remise de la lettre de mission du Ministère de la Culture à Denis Olivennes, le rapport intitulé « Le développement et la protection des oeuvres culturelles sur les nouveaux réseaux », salué la semaine dernière avec des accents lyriques par le Président de la République, provoque un brouhaha de réactions. Les opinions se divisent évidemment en deux camps, déployant la rhétorique, le sarcasme et parfois l'invective :

- les pour, dans lesquels on trouvera sans surprise le Syndicat national de l'édition phonographique (SNEP), la Société civile des producteurs phonographiques (SCPP), la Société des auteurs et compositeurs dramatiques (SACD), l'Union des Producteurs phonographiques Français Indépendants (UPFI), les responsables à l'UMP des nouvelles technologies et de l'audiovisuel, ainsi que la Sacem ;

- les contre, parmi lesquels se sont manifestés l'Association pour la promotion et la recherche en informatique libre (APRIL), le Mouvement des jeunes socialistes, l'UFC-Que Choisir, et...deux députés apostats de l'UMP.

Clivage apparemment net, économique (producteur/consommateur) et politique (droite/gauche).

Cependant, la lecture du rapport Olivennes, si elle confirme qu'il y a amplement matière à exprimer de tels clivages – comme une évidence, partie émergée d'un iceberg dont la masse confuse et sombre est reléguée dans les renvois en bas de page, nombreux, et dans des annexes, jargonnantes – suscite aussi d'autres interrogations. Premier commentaire : DailyMotion, YouTube/Google pourtant auditionnés par la mission et Kewego, non consulté, ont approuvé mais n'ont pas, pour l'instant signé, ce rapport mettant en avant une contradiction avec le régime de responsabilité de l'hébergeur redéfini par la Directive européenne Commerce électronique et la Loi de confiance dans l'économique numérique (LCEN) de 2004.

La Nouvelle surveillance

Force est de constater que le rapport reprend à son compte une évolution graduelle vers ce que, dès 2004, Sonia Katyal de la Fordham School of Law appelait très justement les « nouveaux réseaux de surveillance ». Il s'agit d'instaurer progressivement un régime extrajudiciaire de contrôle et de sanction des infractions aux réglementations de la contrefaçon et du copyright, dont l'inspiration rappelle inévitablement la métaphore du Panopticon de Jeremy Bentham lumineusement employée par Michel Foucault dans « Surveiller et punir ». Reporters sans frontières avait également publié un rapport signalant l'avant garde de cette dérive en 2004 : « L'Internet sous surveillance ». Mais à l'époque on s'alarmait plutôt de ces tendances, depuis vivement exacerbées, chez les régimes autoritaires et dictatoriaux ou bien de la sournoise mise sous tutelle de l'Internet dans les démocraties bien installées et de tradition libérale au motif impeccable de la lutte contre le terrorisme.

En effet, le rapport fait d'abord le tour des arsenaux juridiques et technologiques existants et recommande leur emploi à des fins prophylactiques, « inciter l'offre légale » et « désinciter (sic) l'offre illégale ». Cet emploi relève de deux plans, à la Foucault : surveiller d'une part, par un filtrage des contenus qui peut être préventif ou répressif, et punir, d'autre part, par un dispositif « d'avertissement et de sanction ».

Pour mettre en oeuvre ce programme, le rapport constate d'abord que certains pays comme les Etats-Unis et le Royaume Uni ont mis en place un mécanisme d'avertissement et de sanction uniquement contractuel, qui ne repose que sur des acteurs privés et sur des obligations résultant des seuls contrats d'abonnement. L'exemple classique est celui de la RIAA aux Etats-Unis qui a, en 2002, contacté Verizon, un FAI américain, pour exiger les identités d'abonnés dont les sites hébergés par l’opérateur constituaient, de son point de vue, des noeuds de piratage et qui, devant le refus du FAI, l'a attaqué en justice – premier procès d'une longue suite déroulée depuis par les RIAA (Recording Industry Association of America) et MPAA (Motion Picture Association of America). Le rapport note avec justesse qu'une base uniquement contractuelle est difficilement envisageable en droit français : où serait la base juridique à une sanction prise par un FAI sans intervention d'un juge ou d'une autorité publique, ni imposition d'une obligation légale ?

En France, le Code de la propriété intellectuelle prévoit en effet que toute violation, comme la contrefaçon numérique, est un délit et relève du pénal. La clause de la loi DADVSI d'août 2006 qui prévoyait d'en exclure les téléchargements réalisés à des fins personnelles ou à des fins non commerciales (et de les reclasser en simples contraventions) a été, rappelons-le, censurée par le Conseil constitutionnel. Quant à la prévention de la mise à disposition de contenus illégaux sur des sites légaux (sous entendu hébergés par les FAI nationaux), la LCEN prévoit déjà des recours pour les ayants droits, qui doivent saisir l'autorité judiciaire qui prescrit ensuite aux FAI et opérateurs les mesures techniques propres à prévenir ou faire cesser le dommage, en clair résilier d'autorité l'abonnement de l'indélicat. Cette prescription d'autorité fait néanmoins encore débat, en particulier sur la possibilité pour les sociétés de perception et de répartition des droits d'auteur de mettre en place des dispositifs de recherches, les « radars » de la Nouvelle surveillance : le Conseil d'Etat durcit le ton, qui vient d'annuler, par exemple, une décision d'octobre 2005 de la CNIL qui estimait que le contrôle que les sociétés d'auteurs (la SACEM, la SCPP, la SDRM, et la SPPF en l’occurrence) entendaient mettre en place était disproportionné aux objectifs poursuivis.

L’Autorité publique de la Nouvelle Surveillance : Résiliator !

La solution est donc d'une désarmante simplicité suivant les préconisations du rapport Olivennes : reprendre et améliorer l'arsenal technique du mécanisme d'avertissement et de sanction, mais pour préserver les bonnes consciences le confier non pas aux seuls acteurs privés mais à une Autorité administrative publique. Tout au plus fera-t-on le subtil distinguo entre une Autorité qui avertirait le titulaire de l'abonnement Internet et déciderait elle-même de la sanction en cas de répétition des mêmes actes et une Autorité qui assurerait l'avertissement mais se contenterait d'une médiation obligatoire en amont de l'intervention d'un juge, qui déciderait, au final, de la sanction.

Dans un cas comme dans l'autre l'Autorité prendrait une sanction administrative distincte de la sanction pénale que le titulaire continuerait à encourir. Le vocabulaire employé dans le rapport a ici son importance : la sanction administrative de l'Autorité vise « le défaut de sécurisation du poste » et la sanction pénale vise « l'acte de contrefaçon », considérés comme violations de deux règles différentes du Code de la propriété intellectuelle.

Cette Autorité dont la mise en place pourrait se faire dans l'année 2008 se profile donc dans la ligne directe de l'institutionnalisation de la Nouvelle surveillance. Au-delà des réactions que le rapport commence à susciter, il sera intéressant de suivre, dans la période qui s'ouvre, avec quelle vitesse le dispositif législatif sera adopté. La célérité, déjà promise par Mme Albanel, laisse à penser que les dés sont jetés. Et pourtant pour que cette Autorité que le rapport appelle de ses voeux puisse fonctionner, il faut quand même s'accommoder de quelques entorses au droit :

- le suivi de la procédure d'avertissement et la prise de sanction requièrent d'une façon ou d'une autre le rapprochement entre une adresse IP et un nom de titulaire d'un abonnement. Aujourd'hui ce rapprochement n'est possible que par le recours à l'intervention d'un juge, ce que le Conseil constitutionnel a précisé à propos de la LCEN en 2004. Il faudrait donc modifier le Code des postes et communications électroniques pour autoriser l'Autorité à effectuer ce rapprochement sans recours judiciaire. (Le rapport juge cette modification « acceptable » compte tenu « des garanties d'indépendance et d'impartialité présentées par une autorité réunissant des agents dotés de prérogatives de puissance publique » – on appréciera.)

- le suivi et la sanction nécessitent l'établissement de fichiers des contrevenants, puisque la répétition déclenche la sanction, ce qui doit être, aux termes du droit, être expressément autorisé par la CNIL.

- l'autorisation de la CNIL est également indispensable pour conserver pour une durée définie les données de connexion. C'est un sujet très délicat : Google avait cédé en juin dernier aux pressions de la Commission européenne, acceptant de rendre anonymes les traces de connexions que le moteur de recherche conserve et archive, au bout de 18 mois plutôt qu’à la fin des 24 mois auxquels il s'était vaguement engagé.

L’éternelle absente : la question des moyens

Plus généralement, se pose aussi la question, éludée dans le rapport, des moyens donnés à une telle Autorité. Sentant poindre l'éventuel bât blessant, le rapport suggère d'ailleurs d'étendre le périmètre de la toute nouvelle Autorité de régulation des mesures techniques (ARMT), prévue par la loi DADVSI d'août 2006 et intronisée en avril dernier, plutôt que de créer une nouvelle Autorité de toutes pièces. Les moyens de l'Autorité décideront en effet immédiatement de la volumétrie que peut atteindre le Nouveau réseau de surveillance : face à des FAI nombreux et, pour certains, financièrement armés, il conviendrait que cet opérateur d'un nouveau genre, le CAI (Coupeur d'accès Internet) ne soit pas démuni !

Le filtrage préventif pour empêcher l'infraction est bien sûr trop cher. Le déploiement à large échelle des technologies de filtrage implique d'une part nécessairement les FAI - mais qui paye ? - et d'autre part des solutions techniques diverses, récentes et, note le rapport, « relativement performantes mais encore perfectibles ». D'autant plus que, ne s'agissant exclusivement que de contenus et de productions français sous l'autorité républicaine du CAI hexagonal, les prestataires techniques ne sauraient être que nationaux, ce qui en réduit forcément le nombre ! De fait, tous les prestataires de solutions techniques auditionnés sont d'origine française : AdVestigo, LTU Technologies, I-Tracing, Qosmos, Thomson - derrière lesquels les paranoïaques qui ont survécu reconnaîtront l'INRIA, le LIP6 de l'Université Pierre-et-Marie-Curie, le CEA/LETI, la DGA, Cyber Networks et curieusement JASTEC le géant japonais de l'électronique et des services - l'INA, qui a développé son système d'empreinte numérique, Signature, repris pas Canal + et par DailyMotion, mais également les beaucoup plus insaisissables et voilés de mystère Communications SA (tatouage numérique) et CoPeerRight Agency (peut-être une émanation sulfureuse du SELL, qui s'était illustrée en 2005 avec l'autorisation de la CNIL par l'envoi d'avertissements menaçants aux internautes repérés sur des réseaux P2P). Seule exception l'américain Audible Magic qui, il est vrai, fournit le fingerprinting pour DailyMotion initialement prévu comme signataire du rapport.

Le filtrage répressif, quant à lui, soulève évidemment des questions sur la protection des correspondances et de la vie privée. L'aspect légal de ces questions est du ressort de la CNIL en France. Mais plus indirectement, ce que pourrait également craindre le gouvernement serait que le renforcement du filtrage répressif - contrairement à ce qui se passe pour la sécurité routière - entraîne une généralisation puis une banalisation de l'usage de la cryptographie dans les échanges. Et là, danger ! On rentre sur le terrain miné de l'intérêt national, de l'intelligence et du patriotisme économique et ses 11 secteurs stratégiques protégés ! (128 bits or not 128 bits, that is the question?) Il ne s'agirait pas que l'on ne puisse plus se faire contrôler. Tiens ! On ne parle plus beaucoup des hackers rouges qui défrayaient encore la chronique il y a quelques semaines : des réseaux directement liés au service de l’Etat français avaient été visés selon le secrétaire général de la Défense nationale. Pensez donc, même le portail Internet du Ministère de la Défense avait ainsi fait l’objet de plusieurs intrusions…

Il y a quelques semaines encore, par exemple, Bruce Schneier, expert mondialement reconnu en sécurité informatique, s'étonnait de constater que parmi les trois algorithmes de génération de nombres aléatoires, indispensables en cryptographie, retenus officiellement par le NIST (le National Institute of Standards and Technology, l'agence américaine de réglementation dépendant du Ministère du Commerce), celui proposé par la NSA (National Security Agency) était bizarrement le plus lent à l'exécution. De là à penser qu'il contient une « backdoor » qui rendrait toutes les implémentations commerciales, du coup obligatoires pour obtenir l'approbation du NIST, vulnérables aux vérifications du gouvernement américain...ou d'autres, le sang se glace d’effroi !

Ne doutons pas qu'en France aussi, ces questions agitent bien d'autres cercles que ceux des seuls Ministère de la Culture et de la mission Olivennes.

Une foi inébranlable en la technologie

La question des moyens financiers touche rapidement celle de l'équilibre entre protection des données de la vie privée et intérêt public, entre contrefaçon et copie (unique) pour usage privé, entre système judiciaire et autorité administrative extrajudiciaire. Mais avant tout, le rapport, semble professer une foi inébranlable en la technologie et en la mise en place d’un arsenal technique et automatisé se présentant alors comme solution à un vaste problème de comportements et de système économique.

Pas un instant ne sont évoqués un monde virtuel de communications électroniques, courrier électronique, messagerie instantanée, IRC, réseaux P2P, VoIP où la cryptographie individuelle se serait banalisée au point de devenir la règle et non plus l'exception, la réglementation hâtant de provoquer ce qu'elle cherchait à éviter.

Pas un instant n'évoque-t-on les usages inattendus et, comment dit-on ? « inappropriés », qui pourraient être faits d'un fichier centralisé des contrevenants : nos amis britanniques, grands promoteurs de la Nouvelle surveillance par exemple, ont laissé s'évanouir dans la nature des données confidentielles concernant quelque 25 millions de personnes, a reconnu mardi dernier devant le Parlement le ministre des Finances Alistair Darling.

Laissons aussi à votre imagination les usages créatifs d'un fichier centralisé des empreintes numériques des contenus que devraient utiliser les « radars » du Nouveau réseau de surveillance. Le rapport suggère d’ailleurs une sorte de portail coopératif des sociétés d’auteurs et de productions où seraient publiés des tableaux de bord statistiques sur la décroissance inéluctable de la piraterie après ces mesures et qui centraliserait ces empreintes. À ce sujet je propose le nom de domaine www.exceptionculturelle.fr qui est inexplicablement encore libre ! (Gracenote, pour les CD, et Kaleidescape pour les DVD, deux startups américaines, ont ainsi construit des fichiers centralisés leur permettant de reconnaître à distance les contenus audio et vidéo joués sur vos lecteurs de salon connectés au Web, sans parler du couple par qui le scandale est arrivé iPod/iTunes - pourrait-on « planter » d'autorité votre iPod ou votre iPhone s'il venait à contenir des morceaux considérés comme piratés ?). Où est passé l'autre P2P : le Principe de précaution ?

Et que penser du curieux dévoiement qui, en miroir de ce qui se passe aux Etats-Unis où le contournement des mesures de protection installées par des acteurs et des opérateurs privés est illégal, verrait ici rendre illégal l’absence de sécurisation du poste de l’abonné ? L’affaire récente du DRM que BCG-Sony avait installé sans avertissement sur certains de ses supports qui, basés sur un rootkit rapidement exploité indûment par des hackers pas très bien intentionnés, détruisaient alors efficacement le PC sur lequel d’aventure l’utilisateur avait choisi de les écouter, n’a pas porté apparemment.

Et quid des contenus non identifiés par l'Autorité comme produits français : l'identification pose question en soi. C'est le Conseil d'Etat qui a dû confirmer que le film « Un long dimanche de fiançailles », super production de Jeunet, était un film...américain !

Pour édulcorer le message, le rapport préconise un inventaire de mesures « politiquement correctes » et difficilement critiquables : ramener la fenêtre VOD de disponibilité des films de 7 mois à 4 mois après la sortie en salle, abandonner au nom de l'interopérabilité, droit qui deviendra bientôt constitutionnel n'en doutons pas, les mesures de protection (DRM) - Apple fait décidément bien de l'ombre à certains rentiers assoupis !-, subordonner les aides à la production du CNC à l'engagement de la mise en disponibilité des films en VOD - le nerf de la guerre, vous dis-je !-, généraliser le taux de TVA réduit aux produits et services culturels - invoquer l'Europe -, regrouper les ayants droits en une agence unique - l'union fait la force, mais les querelles de chapelles s'y opposent -, et si l'on obtient la baisse de la TVA, élargir l'assiette des abonnements triple play soumis à ce taux réduit en contrepartie d'une nouvelle taxe alimentant des fonds de financement de la création et de la diversité musicales (bien oubliée dans tout le discours juridico-technologique) - un jeu à somme nulle pour les FAI.

Alors pistes sincères et originales pour débroussailler un sujet qui se complexifie avec le temps et ne peut se satisfaire de jugements à l’emporte-pièce ou bien agit-prop médiatique et opération de communication savamment orchestrée pour une inclinaison politique déjà prédéfinie ?

mercredi, novembre 14, 2007

Open Social contre Facebook : où sont les données ?

En 1995 - une éternité dans notre ère informatique - un mot d'ordre ralliait tous les constructeurs, en dépit de leur concurrence commerciale acharnée : la migration vers les « open systems », les systèmes ouverts. Se succédaient jadis les communiqués de presse de tous bords annonçant le soutien à Posix, première étape vers un standard Unix ouvert. Les analystes de l'époque accueillaient ces manifestations parfois grandiloquentes avec caution. Quelle sincérité pouvait-on accorder à ces déclarations apparemment contradictoires avec les positions propriétaires sur lesquelles ces mêmes constructeurs campaient par ailleurs ? Ou bien, s'interrogeaient certains, ne s'agissait-il pas des prémices d'un intérêt réel pour le marché, alors à peine bourgeonnant, du client-serveur ?

Douze ans passent et le Web !

Début novembre, Google annonçait « Open Social », une nouvelle plateforme de réseau social en ligne généralement perçue comme une réponse au phénomène Facebook. Pratiquant d'ailleurs ce que cette plateforme prêche, Open Social est une alliance, aujourd'hui constituée des réseaux sociaux Orkut, lancé en 2004 par Google, Xing, Friendster, Hi5, LinkedIn, Plaxo, Newsgator et Ning, autour de la promesse d'API communes et ouvertes.

Il s'agit d'une manoeuvre d'escalade significative dans une guerre qui ne dit pas encore son nom autour des publicités et des widgets. D'une part, Google attaque Facebook au coeur de sa stratégie propriétaire volontairement affichée. La livraison publique des API permettant à des tiers de développer des applications pour Facebook avait provoqué l'accélération phénoménale de la croissance du site social en mai dernier. Ces applications, qui ont proliféré à un rythme inouï depuis, sont en revanche enfermées sur le site Facebook et ne fonctionnent pas sur d'autres sites sociaux. D'autre part, Google a réussi à entraîner dans Open Social des acteurs d'horizons plus larges que celui des seuls sites communautaires, comme Newsgator, spécialiste des flux RSS, Plaxo, au départ partage de contacts, Ning, développement de communautés en ligne, mais également des éditeurs de widgets pour Facebook, déjà reconnus, comme iLike, Flixster, RockYou et Slide intéressés par le portage de leurs développements vers d'autres plateformes.

L'escarmouche brutale de la semaine dernière au cours de laquelle Facebook annonçait l'ouverture du site aux publicités ciblées a donc certainement laissé des traces chez Google. Baptisées « Social Ads », les publicités ciblées de Facebook apparaissent à côté de l'affichage des activités des « buddies » Facebook de votre compte sur le site social : vous recevez donc des publicités pour le produit, la musique, la vidéo que vos relations Facebook ont publiés sur leurs propres pages du site. Social Ads met la recommandation au service de la diffusion de publicité, une pierre dans le jardin de Google.

Le succès de Google repose, entre autres, sur le délicat équilibre entre intrusion et information des publicités que le site diffuse et qui sont au coeur de son business model (NASDAQ:GOOG plus de 200 milliards de dollars de capitalisation). Pas assez ciblées, les publicités apparaissent vite comme intrusives, trop visiblement destinées à faire acheter ce dont on n'a ni besoin, ni parfois même idée. Très ciblées et pertinentes au contraire, leur caractère de réclame s'efface progressivement et les publicités s'apparentent alors à de l'information. Google, comme Amazon dont le système pionnier de recommandation engendre aujourd’hui une part non négligeable des revenus (20% à 30%), déploie donc de considérables efforts pour que sa régie développe le meilleur rendement de transformation de publicité en information. Or le système de recommandation par affinités sur lequel est basé Facebook est intrinsèquement producteur de ciblage affiné et de pertinence, ce qui justifie la menace qu'il fait porter sur les autres géants de la publicité en ligne.

Cependant le modèle actuel des API de Facebook, catalyseur efficace de son hypertrophie récente, a probablement des limites aussi. Ces API, en effet, sont conçues de façon à inciter les développeurs tiers de widgets Facebook à conserver leurs données dans leurs propres bases. La widget Flixster ignore la widget iLike, quand bien même toutes deux sont réunies sur la page personnelle d'un utilisateur Facebook, chacune conserve ses propres données sans partage (ou très limité). Mais alors les données les plus probablement intéressantes pour servir les publicités de Social Ads sont elles mêmes enfermées dans les widgets Facebook, hors d'atteinte des autres widgets et de Facebook lui-même ! La fermeture des API bornerait ainsi le niveau de finesse de la plateforme de recommandation Social Ads et, corrélativement, augmenterait la valeur des widgets individuelles.

Google l'a semble-t-il bien vu qui essaye aujourd'hui d'attirer ces éditeurs de widgets Facebook vers son propre réseau Open Social. D'ailleurs on pourrait s'attendre à ce que Google et Facebook se disputent rapidement le rachat des éditeurs de widgets Facebook indépendants les plus en vue, de façon à préempter tactiquement leurs déploiements réciproques de plateformes publicitaires en ligne. Ce qui, pour l'instant, nous laisse dans l'expectative sur la régie de Microsoft/MSN et sur la nouvelle plateforme Panama de Yahoo!. Par contraste, ont rejoint rapidement Open Social des compagnies comme Engage.com, Hyves, imeem, Six Apart, Tianji, Viadeo et le poids lourd, MySpace (News Corp).

Mais est ce vraiment suffisant au plan stratégique ? Tim O'Reilly l'a probablement le premier noté, Open Social simplifie la vie du développeur inquiet de la portabilité de ses widgets d'un réseau social à l'autre. Que fait-il réellement pour l'utilisateur ? Open Social ne permet pas vraiment d'exploiter les mines des données rassemblées isolément par chacune des widgets. Au-delà de se contenter de widgets portables d'un réseau à l'autre, il faudrait des widgets capables d'utiliser les données disponibles dans tous ces réseaux. Open Social n'y est pas encore mais la philosophie qui y prévaut est la bonne : l'emploi de technologies et d'API ouvertes.

Cette remarque redirige alors l'attention vers d'autres acteurs qui, pour certains encore sous le radar, travaillent à ouvrir ces widgets-silos de données. SixApart, d'après la rumeur tout entier à la préparation d'une prochaine IPO après son acquisition de LiveJournal, commence à laisser filtrer les signaux adéquats montrant qu'il s'intéresse de près au problème, en insistant sur OpenId et OAuth des protocoles ouverts de gestion des identités et d'authentification. DreamFace Interactive, qui vient de livrer la seconde version d'un framework Open Source de développement et publication de mashups, propose une approche originale (une « DataWidget » pour combiner les données et vue interactive) déjà employée, par exemple, pour des widgets Facebook ouvertes comme 360Gadget. Netvibes, bien sûr, partenaire Open Social, tente de promouvoir son UWA (Universal Widget API) et ClearSpring son système de publication universel, LaunchPad. Sous les auspices favorables de l'annonce d'Open Social, c'est peut-être de ces jeunes pousses et autres innovateurs qu'il faut attendre la prochaine étape de la mutation incessante des applications Web.

En tout cas, dans un contre-pied parfaitement minuté, Kleiner Perkins, la plus célèbre firme de capital-risque de Californie qui vient de recruter le récent Nobel Al Gore – quelle firme française de capital risque oserait recruter Albert Fert ! – , vient d'annoncer qu'ils ne financeront plus de sociétés Web 2.0, point final. À bon entendeur...

jeudi, novembre 01, 2007

L'algorithmique à l'honneur

Le vieil homme longiligne déplie lentement sa haute silhouette du fauteuil où il était assis et se dirige d'un pas vif vers l'estrade. Petit à petit le silence se fait dans la chapelle de la Sainte Famille à Talence, alors que géant à l'oeil pétillant se dresse dans la lueur des vitraux. Le petit groupe de communiants réuni dans la nef, en plein recueillement, s'apprête à recevoir la parole d'un des pères fondateurs de leur art. Car il s'agit non pas d'une religion ni d'une secte mais bien d'un art : « The Art of Computer Programming ». Et l'orateur qui commence à parler d'une voix forte n'est autre que Donald E. Knuth, l'auteur de cette véritable encyclopédie de la programmation.

Exceptionnellement de passage en France, pour recevoir un doctorat honoris causa de l'Université de Bordeaux 1 mardi dernier, c'est bien Don Knuth, généralement considéré comme l'inventeur et le théoricien de génie de la science mystérieuse de l'algorithmique, qui nous fait l'honneur de nous faire part de ses nouvelles excursions combinatoires. Voilà que le septuagénaire passionné nous embarque avec lui dans un voyage au coeur de structures de données imprévues et inédites : diagrammes binaires de décision « maigres » dont l'énumération le conduit aux « dérangements de Genocchi », aux permutations de Dellac, puis aux « pistolets de Dumont » irréductibles pour finir par cheminer dans les « parcours de Seidel ». Une occasion unique de suivre aux côtés d'un grand maître les sentiers moins fréquentés de la recherche informatique moderne.

Don Knuth est, en effet, une figure célèbre et reconnue de l'industrie informatique. Un inspirateur ! Les trois volumes de son Art of Computer Programming, rédigés au début des années 1970, sont la référence encyclopédique de tous les informaticiens du monde. Knuth a attaché son nom à une variété incroyable d'algorithmes fondamentaux (Knuth-Bendix en théorie des groupes, Knuth-Morris-Pratt pour le « pattern matching », Trabb Pardo-Knuth, Knuth-Schönhage pour le PGCD de polynômes, Robinson-Schensted-Knuth en combinatoire, etc.) maintenant omniprésents dans nos applications informatiques quotidiennes, des traitements de texte jusqu'aux moteurs de recherche. Il a également développé quasiment seul le système de typographie, d'écriture et de publication d'articles scientifiques TEX et METAFONT à une époque où les interfaces graphiques n'étaient encore qu'un vague projet de recherche au Xerox PARC. Ce système, repris et développé par une suite grandissante d'enthousiastes, est employé par la communauté scientifique dans le monde entier depuis plus de 25 ans pour la rédaction de tous les travaux destinés aux publications techniques. Son évolution récente, CWEB, toujours pilotée par Don Knuth vise à donner aux programmes le statut d'oeuvres littéraires (« literate programming »), mêlant ingénieusement code, commentaires et démonstrations mathématiques. À la retraite (industrieuse) depuis quelques années, Don Knuth s'est remis à la rédaction des quatre prochains volumes annoncés du The Art of Computer Programming, dont les fascicules du quatrième volume circulent depuis quelques temps sur le Web.

Ayant rendu dans sa présentation un discret et délicat hommage à de nombreux mathématiciens français Don Knuth devait assister ensuite à un véritable colloque organisé en son honneur au cours duquel la fine fleur des laboratoires français de recherche en combinatoire et en algorithmique vint présenter des développements modernes des idées originales de ce père fondateur. On discuta savamment de comment compter, en temps et espace limités, les mots différents dans de très grands volumes de texte avec application directe aux résultats des requêtes des moteurs de recherche ou à la détection d'intrusion et d'attaques par déni de service dans les réseaux informatiques. On disserta doctement sur comment trouver rapidement le plus grand commun diviseur des nombres immenses et inimaginables utiles à la cryptographie et à la sécurité des données. On s'interrogea sur comment déterminer la performance d'un algorithme sur un corpus de données particulier, comment trouver rapidement l'intersection de listes très longues et comment compresser des forts volumes de texte avec application à la gestion des bases de données biogénétiques et à la recherche médicale. Un programme fascinant où les sujets en apparence simples, comment dénombrer ? comment reconnaître ? loin d'être épuisés sont au contraire sources inépuisables de renouvellement d'idées trouvant immédiatement ancrage dans les secteurs contemporains les plus avancés : grands volumes de données, génétique, simulation à grande échelle, physique, etc. Au fur et à mesure du déroulement des exposés, un large sourire s'affichait sur le visage de Don Knuth, visiblement à la fête !

Large sourire également pour Giorgio Parisi, reçu, quelques semaines auparavant, sous les lambris impressionnants de l'Académie des Sciences, quai Conti. Le physicien, spécialiste de mécanique statistique, était le récipiendaire du prix Microsoft pour la Science en Europe décerné par Microsoft joint pour cette récompense aux deux académies prestigieuses, la Royal Society de Londres (1660) et l'Académie des Sciences de Paris (1666), représentées respectivement par Jean-Philippe Courtois, président de Microsoft International, Martin Taylor, Professeur de mathématiques, et Edouard Brézin, cheville ouvrière du CEA, ancien président du CRNS et physicien émérite. Mais je ne sais pas ce qui était le plus impressionnant : les marbres augustes des Cauchy, Monge, Liouville, Lagrange surplombant la salle tricentenaire où se sont déroulés tant de débats scientifiques ou bien d'être assis, voisinant avec Michel Talagrand, Jacques Friedel, Olivier Faugeras et même Anatole Abragam - nonagénaire en pleine forme ! - dont les noms révérés émaillaient nos livres de cours en prépas scientifiques !

Parisi était couronné par Microsoft Research pour ses travaux sur le parallélisme dont on sait maintenant, depuis que Craig Mundie, passé plusieurs fois en Europe, à Bruxelles et Paris cette année, s'en est publiquement ouvert, que c'est un des sujets importants pour le géant de Redmond. Ce sont des travaux que Giorgio Parisi avait en fait réalisé comme en passant pour s'attaquer à des problèmes de physique des particules, de verres de spin et de physique quantique. La machine parallèle APE (Array Processor Expansible) qu'il avait mise au point pour des calculs de chromodynamique quantique reste à ce jour une des plus rapide au monde.

Ainsi les profils exceptionnels de Parisi et de Knuth, réunis par les circonstances à si peu de temps d'intervalle dans les honneurs rendus par une plus jeune génération scientifique et technique française, font immanquablement penser dans ce mélange du théoricien et de l'expérimentateur de génie à celui de Robert Hooke, membre, fondateur quant à lui, de la Royal Society en 1660, élève de Robert Boyle, rival de Newton, et arpenteur-reconstructeur de Londres avec Wren après l'incendie qui détruisit la ville en 1666. Et finalement, on se dit que malgré ses déboires la recherche européenne, et française, a peut-être encore son mot à dire !

ShareThis