mardi, août 26, 2008

Le retour triomphal du RPC

IBM qui n'a évidemment pas l'intention de laisser à d'autres, même prétendus pionniers, le monopole de l'idée du « cloud computing », vient d'annoncer haut et fort, juste avant les Jeux Olympiques, son intention d'investir $360m dans un datacenter neuf et rutilant en Caroline du Nord destiné à compléter le réseau qu'il met énergiquement en place.

Google Maps m'indique bien volontiers qu'en suivant la I-40W pendant environ trois heures je pourrais rejoindre, si la curiosité archéologique de visiter ces pyramides modernes me tournait soudain la tête, la charmante bourgade de Lenoir, North Carolina (« All America City 2008 » !) depuis le site d'IBM dans le Research Triangle Park. C'est en effet à Lenoir, NC, par ailleurs inconnu, que Google avait quant à lui annoncé en 2007 un investissement massif de $600m pour un nouveau datacenter de son crû, venant compléter son propre réseau de mégalithes calculatoires.

(La polémique avait à l'époque tourné autour des avantages fiscaux promis à Google par le comté de Caldwell pour favoriser son installation à proximité de la centrale hydro-électrique de Rhodiss — on le sait, ces bunkers informatiques ont un besoin dévorant d'eau et d'énergie. Il y a là une idée à creuser pour les centres anémiés de la recherche française dont on persiste à nous dire que le monde entier nous les envie malgré les dégringolades annuelles dans le classement de Shanghaï. Qu'attend-on pour proposer à Google notre excellent site de Bollène, tombé quelque peu en désaffection depuis certains « dysfonctionnements » de la centrale du Tricastin en juillet dernier ?)

Microsoft qui avait annoncé début 2007, juste avant Google, lui aussi un nouveau datacenter de compétition à San Antonio au Texas, (un investissement de $550m, médaille d'argent au podium des dépenses BTP des géants de l'Internet), vient de publier sa propre vision du « cloud computing » qui sera officiellement dévoilée en octobre prochain, à l'occasion de sa Professional Developers Conference (amateurs s'abstenir !). Tel un moderne Carl Linnaeus — mais non, pas Linux ! Carl von Linné, voyons ! naturaliste suédois fondateur de la systématique — David Chappell, l'auteur du papier, propose une taxonomie qui a le mérite de clarifier les initiatives techniques pour le moins proliférantes de l'éditeur de Redmond :

  • Red Dog annoncé par Ray Ozzie en avril dernier et généralement perçu comme une réponse immédiate à AppEngine de Google lancé à la même époque ; et plus généralement comme un contrepoids au grand-père fondateur reconnu de tous les services de « cloud computing », EC2 (Elastic Compute Cloud) d'Amazon.
  • BizTalk Services, le terme générique désignant les technologies liées au processus métier (business processes) et leur interconnexion — SOAP dopé au workflow amphétaminé maison (Windows Workflow Foundation).
  • Zurich un mystérieux projet de plateforme de cloud computing pour les ISV, voilé derrière les sous-entendus d'un Ray Ozzie et d'un Bill Gates qui n'en finit pas d'être sur le départ.
  • SQL Server Data Services (SSDS) du stockage distant « à la demande », composant indispensable d'une architecture distribuée. (Là-aussi l'antériorité d'Amazon avec S3 (Simple Storage Services) et SimpleDB vient assez vite à l'esprit.)
  • Microsoft Dynamics CRM Live clairement opposé à Salesforce.com avec Force.com et Apex.

La classification périodique proposée par notre Mendéleïev du jour — au moins le chimiste russe ne provoquera pas de confusion politiquement incorrecte à propos de Microsoft entre un naturaliste suédois et un programmeur finlandais ! — distingue trois catégories de services cloud :

  • Software as a service (SAAS), recyclage obligatoire de l'acronyme en vogue dont le succès est indubitablement, malgré qu'il en coûte de certainement à Chappell de l'admettre, à mettre au compte de l'insolent Salesforce.com ;
  • Les services joints (Attached Services) qui, distants, viennent compléter une application métier tournant localement, l'exemple de Exchange Hosted Services étant mis en avant ;
  • Les plateformes cloud, probablement les plus innovantes qui, rendues possibles par le développement récent des techniques de virtualisation et de services Web, sont aujourd'hui en concurrence pour s'attirer les faveurs des développeurs.

Ceux dont l'âge approche ou dépasse 110000 ans trouveront sans doute que cette classification rappelle de loin, mais mis à l'échelle du Web, Corba et la subdivision proposée à l'origine par l'Object Management Group de l'univers en objets métiers (Domain Specifications), objets techniques (Corbaservices) et middleware (Object Request Broker). D'ailleurs, il y a exactement dix ans, David Chappell, l'auteur même de ce position paper de Microsoft se dévoilait fort critique de l'OMG et de Corba.

Il y aurait certainement beaucoup à commenter autour de ces premières idées de mise en ordre de l'architecture distribuée des applications d’informatique d'entreprise — sans parler des enjeux économiques et d'organisation. À ce stade, il est peut-être simplement intéressant de souligner à quel point la résilience de certaines techniques, dont la pratique plutôt que la théorie a présidé au choix par le passé, reste visible dans ces concepts que l'on nous (re)présente comme nouveaux, innovants, voire bouleversants et prioritaires.

En l’occurrence, on pourrait lire dans le cloud computing le retour triomphal du RPC.

Alors que le vétéran fruste des débuts balbutiants d'une informatique naissante semblait à tous infréquentable, au dernier stade du Parkinson, et relégué à une disparition silencieuse et bienvenue dans l'oubli poussiéreux des salles de musées logiciel, il fait un retour à la scène inattendu en meilleure forme que jamais ! (Le RPC est, après tout, bien plus jeune que Madonna.)

Prenons Google à nouveau : Protocol Buffers, nous dit-on, forment une méthode de codage des donnés structurées très efficace et cependant facile à enrichir ; « Google utilise Protocol Buffers pour pratiquement tous ses formats internes de fichiers et de protocoles RPC ». (Et GWT RPC alors ?) Du côté du navigateur client maintenant, JSON est « un format léger d'échange de données » adapté à Javascript et complément fréquent de l'architecture Ajax. Mais ce n'est pas tout : Facebook, le réseau social que l'on ne présente plus, a fait donation à la Fondation Apache de Thrift, « un environnement de sérialisation et de RPC indépendant des langages de programmation », qui est utilisé en interne sur le réseau social. Yahoo!, quant à lui, avait donné Hadoop à la même fondation, un RPC survitaminé destiné à des applications cloud computing : Yahoo! a même poussé l'effronterie jusqu'à y implémenter un algorithme que l'on ne peut évoquer sans stupeur ni tremblement, MapReduce, l'arme absolue mise au point par Google pour la distribution de ses applications dans ses propres datacenters ! Même Cisco annonce son RPC propriétaire, Etch.

Pourquoi un tel retour en grâce du RPC ? D'abord, ne pas négliger les mouvements de mode (toujours d'actualité en informatique comme ailleurs) : les réseaux sociaux sont cools donc le RPC, qu'ils mettent en œuvre, est cool ! Sinon qu'est ce qui pousserait Microsoft à acheter 1,6 % de Facebook pour $240m ? Ou Cisco à acheter Tribe.net après Five Across ? Sans parler de Google et YouTube et autres transactions qui défraient la chronique (et effraient le chroniqueur).

Ensuite il y a l'effet de fatigue SOAP. Mis au point il y a dix ans en s'appuyant sur les technologies les plus cools du moment, XML et HTTP, SOAP a été présenté par les obsédés de l'interopérabilité, craignant à juste titre il est vrai la domination impérialiste d'un certain éditeur, comme le protocole définitif d'échange de données à l'heure du Web. Esprit de « coopétition » oblige, les groupes de travail réunissant les ennemis d'hier ont proliféré, les manifestations de bonnes intentions standardisatrices se sont multipliées ainsi que les spécifications, sous-spécifications et leurs variantes au W3C, à l'IETF et à l'OASIS (15 recommandations au W3C et 10 groupes de travail, 12 comités techniques à l'OASIS et une quarantaine de spécifications), sans parler des subtiles variations entre les implémentations commerciales de telle ou telle spécification.

Protocole réputé lourd, SOAP est donc souvent invoqué comme exutoire par les promoteurs de ces nouveaux RPC qui se réclament, par contraste, de l'architecture REST. (Si l'on en croit la blogosphère, le débat « SOAP ou REST » est largement tranché.) En fait, beaucoup de ces RPC réinventés sont livrés en Open Source et pour le programmeur pragmatique, du moment que c'est gratuit et que l'implémentation fait raisonnablement le travail qu'on attend d'elle, pourquoi creuser plus loin ? Il serait pourtant salutaire de relire à la lueur des annonces actuelles la note prémonitoire (1994 !) de Jim Waldo, Distinguished Engineer du projet Darkstar chez Sun Microsystems, une plateforme de cloud computing pour les mondes virtuels, les jeux en ligne et les résaux sociaux « massifs ». Dans ce monde post-SOAP, le RPC n'est plus un protocole c'est plutôt l'absence de protocole...

Voilà qui promet bien des maux de tête pour nos naturalistes systématiciens et nos urbanistes des systèmes d'information !

lundi, août 18, 2008

Harmonie au pays des scripts

Dans un monde informatique qui nous avait habitué à voir les organismes de standardisation se transformer en arènes de combats commerciaux, l'irénisme du Comité technique n°39 de l'ECMA, réuni en Norvège la semaine dernière, fait plaisir à entendre ! Ces nouveaux accords d'Oslo scellent un apaisement entre deux factions dont les désaccords menaçaient rien moins que le bon fonctionnement de nos indispensables navigateurs Web.

Vous l'aurez certainement compris : il s'agit ici du sujet pressant de la standardisation de l'évolution de Javascript, le langage de script qui s'est glissé, sous des dialectes variés, au cœur de nos navigateurs. Javascript, maintenant banalisé, est pourtant né dans la douleur. Baptisé à l'origine LiveScript, le langage est apparu en 1995 avec la première version du navigateur Netscape qui acceptait les applets Java — la grande nouveauté de l'époque. Conçu par Brendan Eich, il visait à simplifier les interactions entre pages Web et applets pour les non-Javaïstes, la majorité des développeurs en ces temps protohistoriques du Web. Soumis à un feu nourri de critiques acerbes visant tout à la fois la monumentale erreur (de jeunesse) de marketing dans le choix de « Javascript » comme nouvelle dénomination — déclenchant une confusion durable entre Java et Javascript pendant les premières années —, les innombrables failles de sécurité du système de scripts, l'absence d'environnement de développement et de debugging, les incompatibilités flagrantes entre navigateurs, Javascript acquit cependant une vie et un développement autonome loin des applets Java initiales, atteignant peut-être au succès précisément en raison de ces faiblesses. D'accès apparemment facile, pratique, interprété et donc moins contraignant pour certains que les langages à compiler, rapidement réutilisé d'une page Web à l'autre, c'est l'apogée de la technique du « copier-coller » à l'heure de l'Internet.

Les choses devinrent plus sérieuses quand Microsoft donnait non pas une mais deux versions d'un langage de script pour le Web : VBScript originellement limité aux plates-formes Windows, et JScript, en 1996, son propre portage de Javascript pour Internet Explorer. Les incompatibilités importantes entre ces différents dialectes valurent alors à Javascript la réputation pas totalement usurpée d'écueil dans la mer de standards et de protocoles ouverts du Web. L'irruption d'un Microsoft affichant sa stratégie « embrace and extend » de 1996 alors qu'il devait trébucher dans le méga-procès anti-trust dont les scories sont toujours sensibles aujourd'hui, poussèrent aussi Netscape et Sun Microsystems à chercher une réponse tactique, en proposant de standardiser rapidement le langage en le confiant à l'ECMA — un choix d'organisme de standardisation européen qui surprit à l'époque — qui l'adopta mi-1997, ainsi que l'ISO, un an plus tard. La dernière révision de ECMAScript, puisque tel est le troisième patronyme du langage, date de 1999 (ECMA 262, 3e édition).

Depuis quelques années une très ambitieuse version 4.0 du langage était en cours de spécification, également connue sous le surnom de « Javascript 2 », touchant aux sujets délicats de l'adjonction (ou non !) de véritables classes avec héritage, de fonctions génériques, de réflexion, de systèmes de types sophistiqués, bref de l'appareillage moderne d'un langage de programmation orienté objet ultra-complet. Avec, une fois de plus dans son histoire mouvementée, la menace d'incompatibilités majeures entre les éditions n°3 et n°4 d'ECMAScript. (Au moment même où, dans l'industrie qui décidément avance sans nécessairement se soucier de la discipline des standards, Javascript joue un rôle devenu primordial avec le succès de facto d'Ajax et la banalisation d'une version light des services Web.)

Cette question cristallisait depuis un an l'antagonisme entre deux courants de l'ECMA : les suppôts de l'édition n°4 dans toute sa gloire, principalement Opera, Mozilla, Adobe/Macromedia et Google — rien que le standard mais tout le standard ! — et les partisans d'une amélioration incrémentale de l'édition n°3, une version 3.1 qui aplanirait les principales difficulté et coûterait moins à implémenter, et dont les champions sont plutôt Yahoo! et Microsoft. (Tiens ! Microsoft est en pleine phase Beta d'Internet Explorer 8.0 et a lancé sans succès, il y a peu, une OPA sur Yahoo!)

À Oslo, les tractations de la semaine dernière ont abouti à un « recentrage sur la simplicité et sur les extensions pragmatiques » comme il est politiquement correct de l'exprimer. D'ailleurs pour témoigner des épanchements soudains de bons sentiments entre factions naguère irréductibles, il a été convenu de rebaptiser le projet ECMAScript Harmony !

L'harmonie est donc revenue au pays des scripts. La version 3.1 d'ECMAScript s'inscrit bien sûr dans le contexte plus vaste des spécifications putatives de l'édition n°4, reprenant certaines notions (comme une version édulcorée des classes) mais en laissant d'autres de côté, en particulier celles relatives aux visions grandioses de nouvelles syntaxe et sémantique du langage.

Doug Crockford, inventeur de JSON et Senior Javascript Architect de Yahoo!, s'empresse de se féliciter de cette sage décision dans son blog ; Mike Chambers d'Adobe, quant à lui, se veut rassurant : ActionScript 3, qui était basé sur l'édition n°4, « n'est absolument pas affecté par la décision d'Oslo », tout est donc pour le mieux. (Mozilla avait parrainé et adopté le projet Open Source Tamarin d'interpréteur ActionScript 3/Javascript 2, sur lequel travaillait Adobe sur la base de ECMAScript n°4, l'enjeu est donc de taille.)

Mettant un point final à la discussion, Brendan Eich, dans un courrier électronique récent, loue l'œcuménisme et la sérénité retrouvée du groupe de travail.

Tous harmonisés, il n'en reste pas moins, me semble-t-il, que chacun reste finalement sur ses positions : Microsoft peut continuer à livrer trois implémentations différentes d'un langage de script (Windows Scripting Host JScript, JScript.NET, et JScript pour DLR dans Silverlight, dont il n'est pas très clair que les VM partagent effectivement du code) ; Adobe continuer à promettre des innovations dans ActionScript 3 et éventuellement proposer une version de Javascript conforme aux spécifications plus modestes de l'édition 3.1, ce qui sera encore plus facile quand Mozilla livrera de série dans Firefox un front-end Javascript à Tamarin.

Il nous restera à voir, pauvres utilisateurs désarçonnés, si les implémentations promises incessamment seront aussi harmonieuses qu'annoncées...

mardi, août 12, 2008

La vie artificielle dans tous ses états


Quelle est donc cette secrète congrégation qui, dès l'aurore, bat le pavé de Winchester, cité médiévale glorieusement nichée dans un repli pluvieux mais verdoyant des collines du Hampshire ? Quels signes occultes de reconnaissance rassemblent cette file de silhouettes recourbées sous les parapluies qui serpente matinalement dans le cimetière de West Hill depuis quelques jours ? Dans quel dialecte, inconnu même d'Harry Potter, sont exprimées leurs exhortations, qu'un vent humide emporte aussitôt proférées, incompréhensibles tant aux sorciers qu'aux moldus : « automate cellulaire ! » s'écrie l'un d'entre eux ; « réseaux booléens aléatoires ! » lui répond-on plus loin ; « chimie des essaims ! » assène l'un des pèlerins ; « evo-devo ! », reprend soudain un chœur improvisé.

Nul conclave de sorciers conspirateurs égarés dans ce coin ombragé de countryside anglais, nulle table ronde d'une confrérie de chevaliers médiévaux égarés à l'âge de l'Eurostar, on l'aura peut-être deviné, sont exceptionnellement réunis là, venus de tous les continents, les auditeurs de la onzième édition de la conférence Artificial Life (Vie Artificielle, ou encore A-Life). Tous passionnés par l'idée de créer une ou plusieurs formes de vie artificielle — rien moins !

Dans cet univers, qui au fond n'est pas très éloigné de l'école des sorciers imaginée par J.K. Rowling, l'objet des recherches est donc de construire des systèmes — à base de logiciels, mais pas uniquement, chimie moléculaire et robots autonomes sont aussi à l'honneur ici — exhibant certaines des caractéristiques que l'on attribue plutôt exclusivement aux organismes vivants. Comme chacune de ces caractéristiques — et les grands mots sont rapidement invoqués : causalité, émergence, autopoïèse, finalité, on imagine les débats ! — est évidemment sujette à de nombreuses controverses, que ce soit dans sa définition, sa mesure, voire même sa pertinence, la conférence devint prestement le lieu de polémiques animées...

L'A-Life est au confluent, en perpétuel mouvement, de nombreuses disciplines techniques et scientifiques. Que l'on en juge seulement par les thèmes retenus pour les sessions qui se déroulent en parallèle dans les bâtiments flambant neufs de l'Université de Winchester — rénovés et couverts de WiFi mais quand même dans le campus du Roi Alfred, à deux pas de l'imposante cathédrale (Xe siècle) où Guillaume le Conquérant vint s'emparer de la couronne d'Angleterre ! Dans cette merveilleuse collision d'époques, la liste des sortilèges étudiés à cette conférence pourrait moins surprendre :

  • Théorie(s) de l'évolution en 4 dimensions
  • Méthodologies de modélisation en écologie
  • Culture et évolution sociale
  • Système neuronaux
  • L'intelligence des essaims et l'optimisation des colonies de fourmis
  • Développement durable et homéostasie
  • Les marchés, coalition d'agents et centralité
  • De la communication au langage
  • Modèles de la théorie de Gaia
  • Robotique amorphe et soft-robotique
  • Evolution ouverte
  • Développement et morphogénèse artificielle
  • Automates cellulaires
  • Robots danseurs
  • Biologie synthétique
  • Chimies artificielles et cellules minimales
  • Entropie, transfert d'information et flèche de la complexité
  • Conscience artificielle et vie mentale d'agents autonomes
  • etc.

où l'on voit que de solides connaissances en neurologie, mathématiques, physique de la matière (condensée), chimie, médecine, robotique et automatisme paraissent évidemment indispensables pour pénétrer les mystères de ce nouvel Eleusis des côtes britanniques.

Et pourtant c'est tout à fait l'inverse qui se produit lorsque le professeur Sayama, de la State University de New York, montre le film de ses simulations de vols d'oiseaux en formation. À partir de règles individuelles de comportement simplistes pour chaque oiseau simulé, le vol groupé d'un groupe d'oiseaux artificiels ressemble à s'y méprendre aux formations qui traversent parfois nos cieux : vols en « V » des canards et des oies sauvages, succès incontesté des documentaires animaliers, envol groupé et rapide des moineaux ou des hirondelles tel qu'on le voit dans les champs sous les orages d'été ; tout semble incroyablement naturel. La perception du comportement de l'ensemble est immédiate, transcendant complètement la simplicité individuelle que l'on sait pourtant de l'automatisme mis en œuvre dans la simulation.

C'est le premier résultat et peut-être l'effet le plus démonstratif des recherches en vie artificielle : faire émerger de composants individuels simples, homogènes ou hétérogènes, tous mis en relation, de façon simple ou compliquée suivant les modèles, un comportement global, persistant, que nous percevons immédiatement comme causal, animé, téléologique ou vivant.

À partir de ce constat tous les questionnements qu'on imagine se mettent à rayonner et ces interrogations font l'objet d'intenses débats dans cette communauté de chercheurs. Quelques thèmes abordés ici, par exemple : la pression sélective de l'évolution peut-elle s'exercer sur autre chose que sur les organismes et ne peut-elle s'exprimer qu'au moyen des gènes et de l'hérédité ? Y a-t-il des caractéristiques non subjectives qui nous font attribuer à un système le caractère vivant ou non ? De quelle chimie ou biochimie minimale a-ton besoin pour construire une cellule ? L'A-Life peut-elle nous aider à comprendre l'intelligence humaine ? Peut-elle instruire ou guider des politiques écologiques, environnementales et de développement durable ? Autour donc de simulations qui tournent à peu près toutes sur le PC que vous utilisez en ce moment, on voit que ça vole tout de suite assez haut !

Depuis la première édition de la conférence, à l'époque proto-Internet de 1987, sous les auspices du Santa Fe Institute aux Etats-Unis, les praticiens de l'A-Life ont cherché à construire des systèmes artificiels — le plus souvent sous forme de simulations d'univers dynamiques sur ordinateur — reproduisant certaines des caractéristiques des organismes ou des systèmes naturels. Le fameux « jeu de la vie » (Life) de Conway est l'archétype de ces travaux. Depuis Conway, les automates cellulaires ont acquis, au-delà de leur aspect ludique — parfois hypnotique —, une richesse insoupçonnée : Stephen Wolfram a montré que certains automates cellulaires aux règles très simples peuvent afficher des comportements très complexes mais organisés qui sont analogues à ceux de systèmes naturels. Les réseaux booléens aléatoires mis au point par Stuart Kauffman offrent un degré supplémentaire dans la richesse de ces modèles ; aujourd'hui les « essaims » (ou les « colonies de fourmis » artificielles) y ajoutent la notion d'espace et la possibilité pour ces automates, aussi appelés agents, de s'y déplacer et d'interagir entre eux.

Le bestiaire artificiel s'est donc singulièrement enrichi, plus de vingt ans après, et l'on s'intéresse aujourd'hui à la modélisation de l'évolution (darwinienne) de ces monstres artificiels, avec des algorithmes dits génétiques. On théorise leurs interactions — des modèles ou règnent jeux, tournois, marchés, prédation, socialisation comme métaphores des relations entre agents. On leur insuffle enfin de véritables métabolismes ; on se préoccupe de leurs développement et de leur morphogénèse — cf. les travaux de René Doursat, de l'Institut des systèmes complexes.

Les « matheux » de l'A-Life sont fascinés par la similarité parfaite des propriétés des graphes qui représentent des systèmes aussi éloignés que la régulation de l'expression des gènes, la croissance du réseau de transport aérien, la croissance du Web, les flux d'impulsions des neurones des régions du cortex préfontal, le développement des sous-réseaux sociaux sur Facebook. La croissance du Web, en particulier, comme parfaite illustration du développement « vivant » d'un graphe de pages et de liens (hypertexte) a redonné un coup de fouet, il y a quelques années, à la théorie des graphes — quelque peu assoupie, disons le, depuis les résultats pourtant superbes de Renyi et Erdos sur les graphes aléatoires — un outil immédiatement adopté par tout A-Lifer qui se respecte. À la conférence, on croisait communément des graphes small-world, qui sont presque aléatoires mais où tous les noeuds sont quand même proches les uns des autres, voire des graphes scale-free, qui présentent le même aspect quelque soit le grain auquel ils sont examinés, objets d'études et de modélisations innombrables.

D'autres chercheurs s'inspirent directement de la nature et travaillent volontairement hors du domaine de la simulation par logiciel à construire des systèmes moléculaires, biologiques ou physiques, qui soient autonomes, capables de se reproduire et d'évoluer. Des chimères surprenantes hantèrent une matinée les couloirs de l'Université de Winchester : toute la chimie de la transcription et de la polymérisation du RNA réinjectée dans une émulsion de gouttes d'eau dans l'huile, circuits logiques des semi-conducteurs simulés in vivo par des brins de DNA... Avec une approche intéressante à bien des titres : à une époque où l'on se précipite vers les nanotechnologies et l'on envisage, sans blêmir, des systèmes dans lesquels sont lâchés 10^24 nano-molécules censées accomplir ensemble une fonction particulière — et dont la programmation centralisée dépasse évidemment non seulement les capacités de calcul mais remet carrément en question nos méthodologies mêmes de programmation, inadaptées à un parallélisme si massif — il est urgent d'affiner notre compréhension du développement « par évolution » de tels systèmes !

Enfin cette édition de la conférence a également permis de remettre ces travaux en perspective. La principale question, que nous apprennent ces systèmes artificiels sur la vie et la nature elles-mêmes ? est évidemment ouverte et le restera. Peut-on déduire de l'émergence de comportements apparemment intelligents de modèles (artificiels) placés dans des environnements à la complexité contrôlée, que l'évolution naturelle a suivi et suit les mêmes routes ?

La présentation salutaire d'Eva Jablonka rappelait par exemple l'incroyable variété des mécanismes naturels d'évolution épigénétique, c'est-à-dire des dispositifs de transmission de caractères d'une génération à l'autre sans recours aux gènes. De même, plusieurs débats étaient consacrés au lien aujourd'hui controversé entre évolution naturelle et complexité. La pression sélective favorise-t-elle toujours les organismes plus complexes ? Intuitivement la réponse nous semble évidente : bien sûr, votre organisme, cher lecteur, résultat de la longue chaîne évolutive qui nous rattache à nos ancêtres eucaryotes, est certainement plus complexe que celui de la bactérie, du moins je l'espère. Mais, en fait, il n'y a pas de mesure universelle de la complexité pour le vivant et le parallélisme intuitif entre la flèche de l'évolution et celle de la complexité ne va pas de soi. (Par exemple, si l'on se contente de compter le nombre de gènes, les résultats du Human Genome Project, menés entre autres par Craig Venter, ont montré qu'à cette aune la complexité de l'homme est à peine supérieure à celle de la souris — ce qui laisse à penser...) Des philosophes, invités à débattre ici avec les biologistes et les informaticiens, s'interrogeaient encore sur quel urgence nous pousse à considérer la distinction entre vivant et non vivant comme aussi primordiale, et en même temps nous fait attribuer, sans sourciller, perception, raison ou volonté à des objets quotidiens tout à fait inanimés.

Il faut bien conclure, provisoirement, que l'on aurait besoin de bien plus qu'une seule vie (naturelle) pour comprendre et dominer les arcanes de la vie artificielle.

ShareThis