mardi, août 12, 2008

La vie artificielle dans tous ses états


Quelle est donc cette secrète congrégation qui, dès l'aurore, bat le pavé de Winchester, cité médiévale glorieusement nichée dans un repli pluvieux mais verdoyant des collines du Hampshire ? Quels signes occultes de reconnaissance rassemblent cette file de silhouettes recourbées sous les parapluies qui serpente matinalement dans le cimetière de West Hill depuis quelques jours ? Dans quel dialecte, inconnu même d'Harry Potter, sont exprimées leurs exhortations, qu'un vent humide emporte aussitôt proférées, incompréhensibles tant aux sorciers qu'aux moldus : « automate cellulaire ! » s'écrie l'un d'entre eux ; « réseaux booléens aléatoires ! » lui répond-on plus loin ; « chimie des essaims ! » assène l'un des pèlerins ; « evo-devo ! », reprend soudain un chœur improvisé.

Nul conclave de sorciers conspirateurs égarés dans ce coin ombragé de countryside anglais, nulle table ronde d'une confrérie de chevaliers médiévaux égarés à l'âge de l'Eurostar, on l'aura peut-être deviné, sont exceptionnellement réunis là, venus de tous les continents, les auditeurs de la onzième édition de la conférence Artificial Life (Vie Artificielle, ou encore A-Life). Tous passionnés par l'idée de créer une ou plusieurs formes de vie artificielle — rien moins !

Dans cet univers, qui au fond n'est pas très éloigné de l'école des sorciers imaginée par J.K. Rowling, l'objet des recherches est donc de construire des systèmes — à base de logiciels, mais pas uniquement, chimie moléculaire et robots autonomes sont aussi à l'honneur ici — exhibant certaines des caractéristiques que l'on attribue plutôt exclusivement aux organismes vivants. Comme chacune de ces caractéristiques — et les grands mots sont rapidement invoqués : causalité, émergence, autopoïèse, finalité, on imagine les débats ! — est évidemment sujette à de nombreuses controverses, que ce soit dans sa définition, sa mesure, voire même sa pertinence, la conférence devint prestement le lieu de polémiques animées...

L'A-Life est au confluent, en perpétuel mouvement, de nombreuses disciplines techniques et scientifiques. Que l'on en juge seulement par les thèmes retenus pour les sessions qui se déroulent en parallèle dans les bâtiments flambant neufs de l'Université de Winchester — rénovés et couverts de WiFi mais quand même dans le campus du Roi Alfred, à deux pas de l'imposante cathédrale (Xe siècle) où Guillaume le Conquérant vint s'emparer de la couronne d'Angleterre ! Dans cette merveilleuse collision d'époques, la liste des sortilèges étudiés à cette conférence pourrait moins surprendre :

  • Théorie(s) de l'évolution en 4 dimensions
  • Méthodologies de modélisation en écologie
  • Culture et évolution sociale
  • Système neuronaux
  • L'intelligence des essaims et l'optimisation des colonies de fourmis
  • Développement durable et homéostasie
  • Les marchés, coalition d'agents et centralité
  • De la communication au langage
  • Modèles de la théorie de Gaia
  • Robotique amorphe et soft-robotique
  • Evolution ouverte
  • Développement et morphogénèse artificielle
  • Automates cellulaires
  • Robots danseurs
  • Biologie synthétique
  • Chimies artificielles et cellules minimales
  • Entropie, transfert d'information et flèche de la complexité
  • Conscience artificielle et vie mentale d'agents autonomes
  • etc.

où l'on voit que de solides connaissances en neurologie, mathématiques, physique de la matière (condensée), chimie, médecine, robotique et automatisme paraissent évidemment indispensables pour pénétrer les mystères de ce nouvel Eleusis des côtes britanniques.

Et pourtant c'est tout à fait l'inverse qui se produit lorsque le professeur Sayama, de la State University de New York, montre le film de ses simulations de vols d'oiseaux en formation. À partir de règles individuelles de comportement simplistes pour chaque oiseau simulé, le vol groupé d'un groupe d'oiseaux artificiels ressemble à s'y méprendre aux formations qui traversent parfois nos cieux : vols en « V » des canards et des oies sauvages, succès incontesté des documentaires animaliers, envol groupé et rapide des moineaux ou des hirondelles tel qu'on le voit dans les champs sous les orages d'été ; tout semble incroyablement naturel. La perception du comportement de l'ensemble est immédiate, transcendant complètement la simplicité individuelle que l'on sait pourtant de l'automatisme mis en œuvre dans la simulation.

C'est le premier résultat et peut-être l'effet le plus démonstratif des recherches en vie artificielle : faire émerger de composants individuels simples, homogènes ou hétérogènes, tous mis en relation, de façon simple ou compliquée suivant les modèles, un comportement global, persistant, que nous percevons immédiatement comme causal, animé, téléologique ou vivant.

À partir de ce constat tous les questionnements qu'on imagine se mettent à rayonner et ces interrogations font l'objet d'intenses débats dans cette communauté de chercheurs. Quelques thèmes abordés ici, par exemple : la pression sélective de l'évolution peut-elle s'exercer sur autre chose que sur les organismes et ne peut-elle s'exprimer qu'au moyen des gènes et de l'hérédité ? Y a-t-il des caractéristiques non subjectives qui nous font attribuer à un système le caractère vivant ou non ? De quelle chimie ou biochimie minimale a-ton besoin pour construire une cellule ? L'A-Life peut-elle nous aider à comprendre l'intelligence humaine ? Peut-elle instruire ou guider des politiques écologiques, environnementales et de développement durable ? Autour donc de simulations qui tournent à peu près toutes sur le PC que vous utilisez en ce moment, on voit que ça vole tout de suite assez haut !

Depuis la première édition de la conférence, à l'époque proto-Internet de 1987, sous les auspices du Santa Fe Institute aux Etats-Unis, les praticiens de l'A-Life ont cherché à construire des systèmes artificiels — le plus souvent sous forme de simulations d'univers dynamiques sur ordinateur — reproduisant certaines des caractéristiques des organismes ou des systèmes naturels. Le fameux « jeu de la vie » (Life) de Conway est l'archétype de ces travaux. Depuis Conway, les automates cellulaires ont acquis, au-delà de leur aspect ludique — parfois hypnotique —, une richesse insoupçonnée : Stephen Wolfram a montré que certains automates cellulaires aux règles très simples peuvent afficher des comportements très complexes mais organisés qui sont analogues à ceux de systèmes naturels. Les réseaux booléens aléatoires mis au point par Stuart Kauffman offrent un degré supplémentaire dans la richesse de ces modèles ; aujourd'hui les « essaims » (ou les « colonies de fourmis » artificielles) y ajoutent la notion d'espace et la possibilité pour ces automates, aussi appelés agents, de s'y déplacer et d'interagir entre eux.

Le bestiaire artificiel s'est donc singulièrement enrichi, plus de vingt ans après, et l'on s'intéresse aujourd'hui à la modélisation de l'évolution (darwinienne) de ces monstres artificiels, avec des algorithmes dits génétiques. On théorise leurs interactions — des modèles ou règnent jeux, tournois, marchés, prédation, socialisation comme métaphores des relations entre agents. On leur insuffle enfin de véritables métabolismes ; on se préoccupe de leurs développement et de leur morphogénèse — cf. les travaux de René Doursat, de l'Institut des systèmes complexes.

Les « matheux » de l'A-Life sont fascinés par la similarité parfaite des propriétés des graphes qui représentent des systèmes aussi éloignés que la régulation de l'expression des gènes, la croissance du réseau de transport aérien, la croissance du Web, les flux d'impulsions des neurones des régions du cortex préfontal, le développement des sous-réseaux sociaux sur Facebook. La croissance du Web, en particulier, comme parfaite illustration du développement « vivant » d'un graphe de pages et de liens (hypertexte) a redonné un coup de fouet, il y a quelques années, à la théorie des graphes — quelque peu assoupie, disons le, depuis les résultats pourtant superbes de Renyi et Erdos sur les graphes aléatoires — un outil immédiatement adopté par tout A-Lifer qui se respecte. À la conférence, on croisait communément des graphes small-world, qui sont presque aléatoires mais où tous les noeuds sont quand même proches les uns des autres, voire des graphes scale-free, qui présentent le même aspect quelque soit le grain auquel ils sont examinés, objets d'études et de modélisations innombrables.

D'autres chercheurs s'inspirent directement de la nature et travaillent volontairement hors du domaine de la simulation par logiciel à construire des systèmes moléculaires, biologiques ou physiques, qui soient autonomes, capables de se reproduire et d'évoluer. Des chimères surprenantes hantèrent une matinée les couloirs de l'Université de Winchester : toute la chimie de la transcription et de la polymérisation du RNA réinjectée dans une émulsion de gouttes d'eau dans l'huile, circuits logiques des semi-conducteurs simulés in vivo par des brins de DNA... Avec une approche intéressante à bien des titres : à une époque où l'on se précipite vers les nanotechnologies et l'on envisage, sans blêmir, des systèmes dans lesquels sont lâchés 10^24 nano-molécules censées accomplir ensemble une fonction particulière — et dont la programmation centralisée dépasse évidemment non seulement les capacités de calcul mais remet carrément en question nos méthodologies mêmes de programmation, inadaptées à un parallélisme si massif — il est urgent d'affiner notre compréhension du développement « par évolution » de tels systèmes !

Enfin cette édition de la conférence a également permis de remettre ces travaux en perspective. La principale question, que nous apprennent ces systèmes artificiels sur la vie et la nature elles-mêmes ? est évidemment ouverte et le restera. Peut-on déduire de l'émergence de comportements apparemment intelligents de modèles (artificiels) placés dans des environnements à la complexité contrôlée, que l'évolution naturelle a suivi et suit les mêmes routes ?

La présentation salutaire d'Eva Jablonka rappelait par exemple l'incroyable variété des mécanismes naturels d'évolution épigénétique, c'est-à-dire des dispositifs de transmission de caractères d'une génération à l'autre sans recours aux gènes. De même, plusieurs débats étaient consacrés au lien aujourd'hui controversé entre évolution naturelle et complexité. La pression sélective favorise-t-elle toujours les organismes plus complexes ? Intuitivement la réponse nous semble évidente : bien sûr, votre organisme, cher lecteur, résultat de la longue chaîne évolutive qui nous rattache à nos ancêtres eucaryotes, est certainement plus complexe que celui de la bactérie, du moins je l'espère. Mais, en fait, il n'y a pas de mesure universelle de la complexité pour le vivant et le parallélisme intuitif entre la flèche de l'évolution et celle de la complexité ne va pas de soi. (Par exemple, si l'on se contente de compter le nombre de gènes, les résultats du Human Genome Project, menés entre autres par Craig Venter, ont montré qu'à cette aune la complexité de l'homme est à peine supérieure à celle de la souris — ce qui laisse à penser...) Des philosophes, invités à débattre ici avec les biologistes et les informaticiens, s'interrogeaient encore sur quel urgence nous pousse à considérer la distinction entre vivant et non vivant comme aussi primordiale, et en même temps nous fait attribuer, sans sourciller, perception, raison ou volonté à des objets quotidiens tout à fait inanimés.

Il faut bien conclure, provisoirement, que l'on aurait besoin de bien plus qu'une seule vie (naturelle) pour comprendre et dominer les arcanes de la vie artificielle.

ShareThis