vendredi 28 janvier 2022

Comment le cerveau absorbe-t-il des concepts "postclassiques"

Les poils du chat de Schrödinger vous donnent des démangeaisons ? La perspective d’un univers holographique vous met à plat ? L'explication de la double fente vous entre par une oreille et sort par l’autre (à moins que ce ne soit les deux) ? Pourquoi les concepts de la nouvelles physique nous sont ils aussi obscurs, alors que ceux de la mécanique newtonienne peuvent aisément se comprendre ?

Limitation intrinsèque de notre cerveau ou difficile transformation de notre culture ? Pour certains la messe est dite : l’être humain est un primate de la savane, et la compréhension de l’univers dans sa totalité lui est à jamais exclue. C’est l’opinion de l’astrophysicien Martin Rees, pour qui : « Peut-être certains aspects de la réalité sont-ils intrinsèquement au-delà de nos capacités d’analyse, leur compréhension nécessitant un intellect posthumain – tout comme l’appréhension de la géométrie euclidienne se situe au-delà des possibilités des primates non humains. Certains pourraient objecter qu’il n’existe pas de limite à ce qui est calculable. Mais il existe une différence entre ce qui est calculable et ce qui peut être connu conceptuellement. Quiconque a appris la géométrie cartésienne peut facilement visualiser une figure simple – une ligne ou un cercle, si on lui fournit l’équation correspondante. »

Pour lui pas de doute, une pleine compréhension des mécanismes de la réalité appartient à des posthumains.

Peut être. Mais dans l’attente, il est intéressant de comprendre pourquoi certains concepts ont du mal entrer dans notre tête. Une expérience réalisée à l'université Carnegie Mellon, originalement présentée dans NPJ Science of Learning, et rapportée par Discover Magazine ainsi que par Science Daily cherche précisément à comprendre cela, à l’aide de l’outil favori des neurosciences contemporaines, l’IRM fonctionnelle.


L’étude du fonctionnement du cerveau a déjà montré que lorsqu’on pense à un objet ou un concept, certains patterns neuronaux ont tendance à s’activer. Pour reprendre un exemple classique, si je pense à un marteau, les neurones correspondant à la préhension de l’objet, le mouvementent de frapper avec, se mettent en branle. La plupart des concepts de la physique classique sont en mesure d’être, de la même manière, représentés de façon perceptuelle ou liée à un mouvement. Ainsi, nous disent les auteurs : « Par exemple, alors qu'on ne peut voir directement une force, les physiciens peuvent imaginer "une flèche de force" possédant des taille et direction définies et agissant sur un objet matériel. De même, l'énergie contenue dans un système ne peut être visualisée directement, mais l'idée intuitive d'une quantité conservée mais changeant de forme peut être accessible à l'expérience perceptive humaine. »

Les choses changent lorsque des concepts plus abstraits sont invoqués par la nouvelle physique, comme la relativité de l’espace et du temps, la dualité onde-particule ou la matière noire. Car ils sont bien plus difficilement appréhendés par l’intuition (l’exemple de la matière noire est souvent utilisé dans le texte de Nature, alors que personnellement je ne vois pas trop la difficulté à concevoir cela intuitivement : c’est de la matière, qui est, bon, euh, noire, même si bien sûr cela recouvre quelque chose d'infiniment plus complexe!).


On a donc examiné le cerveau de physiciens, et on s’est rendu compte que ces derniers catégorisaient leurs concepts en fonction d’une série de critères ; comme ce qui est mesurable et ce qui ne l’est pas. Ou ce qui est périodique ou non. Ainsi, nous rappelle Science Daily, les ondes radio ont une périodicité, et le multivers n’en a pas. Ensuite, les neuroscientifiques sont parvenus à prédire à partir du système de catégorisation qu’ils avaient découvert dans le cerveau des physiciens comment tel ou tel concept abstrait allait se manifester chez ces derniers. Et chose importante, lorsqu’on a testé les cerveaux des physiciens soumis à l’expérience, les mêmes circuits s’activaient systématiquement, quelle que soit leur université d’origine, leur nationalité ou leur culture. Cela a des implications en matière d’éducation, comme l’a expliqué Robert Mason, le principal chercheur, dans Discovery : « Cela sonne comme de la science-fiction, mais nous pourrions être en mesure d'évaluer les connaissances des étudiants en comparant leur état cérébral à celui d’un expert exprimant les mêmes connaissances, puisque ces états sont mesurables et cohérents d'un expert à l'autre ? »

L’article de Discovery note aussi une possible corrélation entre notre acquisition de nouveaux concepts avancés et notre compréhension d’une histoire : « Les concepts postclassiques exigent souvent que ce qui est inconnu ou non observable soit mis en relation avec ce qui est déjà compris. Or, ce même processus est souvent nécessaire à la compréhension du déroulement d'un récit ; les régions du cerveau qui s'activaient lorsque les physiciens réfléchissaient à certains concepts postclassiques lors de cette étude s'activaient également lorsque des lecteurs jugeaient la cohérence d'un nouveau segment d'histoire selon une autre recherche. »

 

Que déduire de tout cela ? L'universalité des processus cérébraux mis en œuvre par les physiciens, indépendamment de leurs différences personnelles, tend à prouver que le cerveau humain possède les ressources pour traiter les nouveaux concepts de la même manière que les anciens. Pour résumer, je pense à l'espace-temps de la même manière que lorsque je pense à un marteau. D’ailleurs, l’article de Science Daily précise bien que « lorsque les physiciens traitent des informations sur l'oscillation, le système cérébral qui entre en jeu est celui qui traiterait normalement les événements rythmiques, tels que les mouvements de danse ou les ondulations dans un étang. »

Cela va dans le sens de quelque chose qu’on savait déjà (par exemple avec les neurones de la lecture chers à Stanislas Dehaene) : que les structures archaïques de notre cerveau sont capables de se réorganiser, s’adapter pour affronter des expériences inédites. Ce qu’on savait pour la lecture ne s’arrête pas à celle-ci : notre cerveau peut également s’entraîner à la compréhension des trous noirs, de l’intrication quantique, de l’espace courbe. Nous ne sommes définitivement pas limités à courir dans la savane.


mardi 25 janvier 2022

De nouvelles lettres pour l'alphabet du vivant


Ces dernières années, divers chercheurs se sont attachés à agrandir l’alphabet génétique, sur lequel repose la structure de l’ADN, en vue d’en tirer des applications technologiques, mais également (et peut-être surtout) pour comprendre la nature de la vie elle-même.

Le travail a commencé à aboutir en 2014, lorsque Floyd Romesberg (@Romesberglab) se montra en mesure de créer le premier organisme « semi-synthétique » dont l’ADN possède deux bases supplémentaires, surnommées X et Y. En 2017, il a perfectionné son exploit en créant une bactérie E.coli semi-synthétique utilisant ces nouvelles bases pour produire une protéine rendant l’organisme fluorescent, apportant ainsi la preuve qu’une action avait réellement eu lieu.

Perfectionner l’ADN


Un petit rappel de nos cours en biologie peut s’avérer nécessaire. Le code génétique repose sur un alphabet de 4 lettres, couramment notées A, G, C et T. Ces quatre bases s’assemblent en codons de trois lettres seulement : par exemple ACG ou GCT… Il ne peut exister en tout que 64 combinaisons possibles.
Chaque codon produit, de manière indirecte (via une autre molécule, l’ARN, et passage dans le ribosome), un acide aminé spécifique. Les êtres vivants sur terre ne disposent que de 20 acides aminés (certains organismes en produisent un peu plus, 21 ou 22). Les acides aminés sont les constituants de base de macromolécules, les protéines, qui sont les briques de base du vivant.

Ce qu’on appelle un gène est un ensemble de codons produisant ensemble une protéine. Comment l’ADN sait-il s’arrêter, stopper la production d’acides aminés au moment où la protéine est construite ? Il utilise pour cela des codons particuliers, nommés les codons STOP, qui arrêtent au bon endroit la production de ces molécules.

Mais finalement, un alphabet de quatre lettres, c’est très peu. Steven Benner, qui travaille depuis des années sur le sujet, n’est pas impressionné par la beauté de la « double hélice » de l’ADN, nous raconte le New Scientist : « Quand on observe l’ADN, ce qu’on remarque, c’est l’imperfection », explique-t-il. « Nous pensons pouvoir faire mieux ». Le travail de Romesberg, en ajoutant 2 bases X et Y, a permis de faire exploser le nombre de codons disponibles. On est passé de 64 à 216.

Steven Benner a été encore plus loin, puisqu’il a élaboré un alphabet de 12 lettres. Mais contrairement à Romesberg, son travail est plus théorique. Il n’a en effet pas encore placé ses nouvelles bases au sein d’une créature vivante.

De son côté, le magazine Quanta nous rappelle qu’il existe d’autres manières de modifier la structure du code génétique sans pour autant ajouter de nouvelles bases. George Church, par exemple, travaille sur les codons redondants (qui codent le même aminoacide) afin de rendre ces derniers capables de générer de nouvelles molécules, non standards. Jason Chin, un biochimiste britannique cherche lui à « fabriquer » un ribosome susceptible de lire des séquences de quatre lettres et non plus seulement trois.

Quel peut être l’intérêt de ces travaux sur l’ADN ? Les applications sont multiples et concernent surtout l’industrie et la médecine. En effet, cela peut nous permettre de coder de nouvelles protéines aux potentialités inédites. Par exemple, en chimie, on pourrait élaborer de nouveaux catalyseurs.

De son côté Romesberg créé sa propre compagnie, Synthorx qui travaille sur un médicament contre le cancer, nous apprend The Economist. La protéine concernée est l’interleukine 2, une molécule qui a la capacité d’attaquer les tumeurs, mais qui dans le même temps se révèle terriblement toxique pour l’organisme. L’interleukine 2 s’associe aux lymphocytes (les cellules du système immunitaire) par trois sites, nommés respectivement alpha, bêta et gamma. Problème, la liaison avec le site alpha est responsable de la toxicité du produit. Mais celle-ci peut être bloquée par des molécules de polyéthylène glycol (abrégé PEG). La question est : comment attirer ces molécules PEGS ? C’est ici qu’entrent en jeu les bases artificielles de Romesberg. Grâce à celles-ci les PEGS viennent s’attacher spontanément à l’interleukine 2, bloquant l’association avec le site alpha. Le nouveau produit a été testé avec succès sur des souris et The Economist précise que Synthorx a demandé l’autorisation de tester son nouveau produit sur les humains.


Pourquoi un alphabet si restreint ?


Mais l’intérêt de ces nouvelles versions de l’ADN n’est pas uniquement médical et technologique. Ce domaine est l’illustration d’un phénomène courant, mais qu’on a tendance à trop souvent oublier : l’interaction de la technologie et de la recherche fondamentale. En effet, ces prouesses technologiques nous permettent de mieux nous poser la question de l’origine de la vie.

Ainsi, est-ce une si bonne idée de multiplier les bases et les codons ? Pourquoi la vie s’est-elle contentée d’une structure aussi limitée ? Une question à laquelle Jordana Cepelewicz, dans le magazine Quanta a cherché à répondre.

En fait, ce système est remarquablement solide et résilient, et rien ne dit que des alphabets plus compliqués se révéleraient plus efficaces. En effet, on l’a dit, il y a 64 codons pour 20 acides aminés. Cela implique naturellement que plusieurs codons produisent le même acide. Mais la plupart du temps, les différents codons ne divergent que sur leur troisième position, par exemple, continue encore l’article de Quanta, l’acide glutamique, codé à la fois par GAG et GAA.

De plus lorsque deux codons partageant deux bases en commun produisent un résultat différent, les deux acides en question possèdent souvent les mêmes caractéristiques chimiques.

Cela rend un tel système bien plus résistant aux mutations.

Selon certains chercheurs, continue le magazine, un alphabet de 6 bases ou plus se révèlerait beaucoup moins stable : les mutations seraient trop nombreuses. C’est d’ailleurs le cas avec les créations de Romesberg. Elles se reproduisent moins bien et possèdent effectivement un plus fort taux de mutations.

Un chercheur en biologie computationnelle, Stephen Freeland, a essayé de comparer l’actuelle séquence de 20 acides aminés à la base des protéines avec une multitude d’autres combinaisons des mêmes types de molécules, choisies aléatoirement. Il s’avère qu’effectivement, notre alphabet de 20 lettres (généré par l’alphabet encore plus réduit de 4 lettres de l’ADN) s’avèrerait plus efficace qu’un million d’autres combinaisons testées.

Ceci dit, cela ne signifie pas que le code génétique soit parfait. En termes darwiniens, cela signifie juste qu’il s’est avéré « suffisamment bon » dans l’espace de solutions proposées par la Terre primitive pour s’imposer comme le langage de base de tous les êtres vivants. Une fois cette structure alphabétique de 4-20 lettres suffisamment répandue, cela aurait bloqué l’apparition d’autres combinaisons possibles.

De plus, il n’est pas toujours facile de dire avec certitude que notre code génétique est véritablement optimal. Après tout, souligne Romesberg on ne connaît pas vraiment les conditions de l’apparition de la vie sur Terre, et, poursuit-il, « quand vous ne comprenez pas un problème, il est toujours difficile de théoriser dessus ». Selon le biologiste synthétique Chang Liu, « il est concevable qu’à long terme, le fait de disposer d’acides aminés supplémentaires soit avantageux, ce qui permettrait à l’hôte de s’adapter de manière innovante… Mais ce serait là une toute nouvelle chimie difficile à prédire. »

En tout cas, une chose est sûre. Des expériences comme celles de Benner ou Romesberg, nous offrent la possibilité de réfléchir à la nature de la vie d’une manière moins spéculative qu’auparavant. Comment celle-ci est-elle apparue sur notre planète ? A quoi ressembleraient des extra-terrestres, s’il en existe ? Si l’évolution recommençait demain, à partir de la soupe primordiale, suivrait-elle le même chemin ? On peut aujourd’hui, pour la première fois, commencer à se demander comment la vie pourrait être plutôt que de seulement constater ce qu’elle est.

mercredi 12 janvier 2022

Spéculations sur l'Encyclopedia Galactica



Oubliez le « manuel de la civilisation » de Stewart Brand : c’est une médiathèque municipale, tout au plus. L’effrayante « Singularité » et le remplacement de l’espèce humaine par des intelligences artificielles ? Un petit événement local sans conséquence, tout juste bon pour la rubrique de chiens écrasés. Parfois il faut savoir prendre un peu de hauteur, pas vrai ?

L’un des thèmes les plus classiques de la SF est celui de l’Encyclopedia Galactica, un document qui serait le compendium de toutes les connaissances des civilisations d’une galaxie (le Guide du voyageur galactique de Douglas Adams en est une version, la plus « fun », sans doute possible). Les choses deviennent intéressantes si on s’empare de cette idée fictionnelle et qu’on commence à la prendre au sérieux, à en faire objet de philosophie. Cela nous amène à nous demander ce qu’est une civilisation, comment l’intelligence et la connaissance peuvent se développer sur des laps de temps immenses, et quelle est la place de l’humanité au sein de la « grande histoire » comme on l’appelle maintenant (la « Grande histoire » est une expression de l’historien David Christian pour designer un courant historiographique qui intègre l’histoire de l’humanité dans le contexte plus global de l’histoire de la Terre et même de l’univers).

Cette « philosophie fiction », c’est précisément à cela que s’est livré Nick Nielsen dans le blog Centauri dreams qui se consacre aux spéculations sur le voyage interstellaire.

D’où vient l’idée de l’Encyclopedia Galactica ? Pas d’un roman, semblerait-il, mais plutôt du célèbre Carl Sagan qui imaginait ainsi une telle institution dans sa série Cosmos : « Imaginez un ordinateur galactique énorme, un dépôt plus ou moins mis à jour des informations sur la nature et les activités de toutes les civilisations de la Voie Lactée, une grande bibliothèque de la vie dans le Cosmos. »

Sagan était convaincu que la galaxie devait contenir un grand nombre d’espèces intelligentes. A noter cependant, remarque Nielsen, que l’idée d’une multitude de civilisations spatiales est envisageable même s’il s’avère que nous sommes, au jour d’aujourd’hui, seuls dans l’univers. On peut très bien imaginer que dans un lointain avenir la race humaine essaime un peu partout dans la galaxie, chacune de ses colonies se développant séparément en oubliant ses origines, jusqu’au jour ou elles se rencontrent à nouveau (à noter que ce n’est pas une idée neuve : un épisode de Star Ttrek New Generation évoque justement cette hypothèse pour expliquer le fait que la plupart des races rencontrées par les héros soient humanoïdes, justifiant ainsi le bas prix des effets spéciaux). Mais quelle serait la structure d’une telle encyclopédie ? Commet stocker un savoir universel concernant une multitude d’intelligences ?

Deux modèles sont en fait possibles. L’un est un système unidirectionnel. Une civilisation se contente d’envoyer ses propres connaissances à l’espace infini, dans l’espoir qu’une autre pourra tomber sur ces messages et en faire bon usage : c’est l’idée qui est derrière le projet SETI.

L’autre est l’idée d’un « club galactique » et d’un travail collaboratif entre une multitude de civilisations spatiales ayant atteint un certain niveau.
Selon Albert Harrison, professeur de psychologie de l’université de Californie et spécialiste des thèmes du « contact » et du voyage spatial, la théorie du « club galactique » se heurte à plusieurs contradictions. Tout d’abord, rien ne dit que les différentes espèces peuplant le cosmos se poseront toutes les mêmes questions, ce qui rend l’organisation d’un tel corpus improbable. Mais surtout, il manquera des informations sur le déclin et la disparition de certaines des dites civilisations. Or, comme le souligne Nielsen, c’est uniquement lorsque l’histoire est terminée qu’on peut en tirer les informations et les leçons les plus importantes.

Mais pour Nielsen, les futurs « lecteurs » de l’Encyclopedia Galactica ne seront pas des civilisations, même très avancées, mais des intelligences qui viendront après les civilisations, lorsque celles-ci se seront éteintes…



Au-delà du « stellifère »

Comment peut-on imaginer un « après des civilisations » ? C’est là que les idées de Nielsen deviennent vertigineuses, car elles nous montrent le caractère fondamentalement local et anthropocentrique de nos spéculations, même les plus extrêmes. En effet, ce nous appelons une « civilisation » au sens commun du terme ne peut se développer qu’au cours d’une période particulière de l’univers que Nielsen nomme l’ère stellifère.

En effet continue-t-il (se reposant sur les calculs des astrophysiciens Fred Adams et Greg Laughlin) cette ère occupe un temps relativement restreint dans l’histoire de l’univers. Celle-ci se diviserait en cinq périodes, comme le montre le graphe ci-dessous : l’ère primordiale, qui vient après le big bang. Le stellifère, notre époque. Suit l’ère de dégénérescence, au cours de laquelle les étoiles se transforment toutes en naines blanches, naines brunes et trous noirs. C’est aussi la période ou les protons vont commencer à disparaître. La quatrième époque est celle des trous noirs, qui sont devenus les seuls dépositaires de la matière dans l’univers. Et vient enfin l’ère sombre, qui se poursuit à l’infini. Très peu de structures matérielles, instables, produites par la rencontre accidentelle d’électrons et de positons (équivalent en antimatière des électrons).

La période stellifère, qui nous concerne et sur laquelle nous réfléchissons presque uniquement, est la plus brève des cinq.

A quoi ressemble une civilisation de l’ère stellifère ? « Nous pourrions grosso modo caractériser les civilisations de l’ère Stellifere comme des communautés d’organismes vivant émergents naturellement de la biosphère, ou les successeurs artificiels de cette vie organique… trouvant leurs origines dans l’organisation sociale et technologique de leurs prédécesseurs biologiques. »

Remarquez la manière dont les organismes biologiques sont mis dans le même sac que leurs éventuels successeurs. La question du remplacement de l’homme par les machines est complètement secondaire lorsqu’on réfléchit sur de telles échelles de temps.


Pour imaginer ces intelligences « post-civilisation », Nielsen se réfère à la notion d’ »intelligence éternelle » emprunté à l’astrophysicien Freeman Dyson (les internautes aguerris le connaissent comme le père de deux « digerati » bien connu : Esther et George Dyson ; les fans de SF ont plus volontiers entendu parler de Freeman Dyson comme étant le créateur du concept de sphère de Dyson, construction hypothétique gigantesque entourant l’ensemble d’un système stellaire et susceptible de récupérer ainsi toute l’énergie du soleil central). Dans un article de 1979, « Time without end : Physics and biology in an open universe« , Dyson a montré qu’une forme d’intelligence pouvait éventuellement se développer dans un univers où la matière et l’énergie deviennent de plus en plus rares ; l’entité en question aurait des pensées de plus en plus sporadiques, de plus en plus lentes, mais pourrait continuer éternellement, en consommant de moins en moins en moins d’énergie au fur et à mesure que l’univers se refroidit. Dans le sens inverse, on pourrait aussi citer les thèses du physicien Frank Tipler, qui repose sur l’hypothèse d’un Big Crunch final, au cours duquel la matière se condense en un point unique. Dans les quelques secondes qui verraient la fin de l’univers pourrait apparaître une entité quasi-divine qui pourrait produire une infinité de pensées en un temps très court, lui accordant ainsi une éternité subjective. Tipler nomme ce phénomène le point Omega, un terme auparavant utilisé par le jésuite Teilhard de Chardin. Mais à l’heure actuelle, l’hypothèse d’un Big Crunch semble improbable, et donc les spéculations penchent plutôt en faveur du scénario de Dyson.

Il se pourrait donc bien que des formes d’intelligence se développent dans un monde de trous noirs ou même à l’extinction de la matière. Mais de telles formes de pensée pourraient difficilement être nommées des « civilisations » au sens où on l’entend aujourd’hui. C’est pour l’éducation de ces entités qu’on pourrait être tenté de créer une Encyclopedia Galactica. Un testament des civilisations de l’ère stellifère, enregistré avant leur disparition.

Une mythologie pour le futur

Ces spéculations peuvent apparaître comme un équivalent moderne des questions byzantines sur le nombre d’anges pouvant tenir sur la pointe d’une aiguille, mais elles sont loin d’être gratuites et sans effet. Elles constituent l’imaginaire mythique de bien des acteurs de la haute technologie d’aujourd’hui. On a vu Elon Musk s’interroger sur le paradoxe de Fermi et l’argument de la simulation. David Deutsch, le père de l’informatique quantique, n’hésite pas lui non plus à envisager des civilisations disposant d’un potentiel gigantesque. Il insiste sur le fait qu’aujourd’hui déjà, l’humanité s’est montré en mesure de créer des phénomènes extrêmes introuvables dans l’univers « naturel » et imagine que dans un futur lointain, la conscience sera en mesure de jouer un rôle fondamental dans les fins dernières de l’univers. Neil Gershenfeld, quant à lui, s’intéresse à la communication avec les animaux dans la perspective d’un contact extra-terrestre…

De même, un mouvement comme le transhumanisme ne peut se comprendre si on oublie cette dimension cosmique et si on le réduit à une réflexion sur les prothèses, les cyborgs ou même l’intelligence artificielle. Keith Henson, une des figures du transhumanisme, a par exemple créé un « club du dernier proton », chargé d’organiser une fête lors de la disparition de la dernière de ces particules ! Et bien sûr, ce genre de réflexions nourrit constamment la « pop culture » dans laquelle baigne les nouvelles générations, comme en témoignent le jeu Beyond Earth (dont Sid Meier envisage déjà une suite dans le milieu interstellaire), le film Interstellar (largement nourri par les recherches scientifiques de l’astrophysicien Kip Thorne) ou des séries TV comme Docteur Who (dont l’un des meilleurs épisodes, « la bibliothèque des ombres« , rejoint d’ailleurs le thème de l’Encyclopedia Galactica).

On ne comprend les acteurs qu’en prenant en compte le contexte dans lequel ils se situent, et cela inclut bien souvent des à priori métaphysiques ou eschatologiques sur le sens de la vie et les fins dernières de l’humanité. C’est pourquoi il est indispensable de saisir ces mythologies qui motivent non seulement des scientifiques, des artistes ou des techniciens, mais aussi (comme le montre le cas de Musk) des entrepreneurs…

 

dimanche 2 janvier 2022

Programmer la complexité

 

Le vivant, les sociétés, la conscience, les écosystèmes semblent échapper à notre pensée linéaire, classique, issue des travaux de Newton. Ces domaines, dont la compréhension pourrait bien être fondamentale à notre survie, paraissent réfractaires à toute prévision et entrent dans le nouveau champ de la « complexité ». Cela veut-il dire qu’ils se jouent de toute tentative de codage ?

Qu’est-ce que la complexité ?

Si l’informatique « à la papa », celle des bons vieux programmes COBOL qui automatisaient les fiches de paie, semble dominée par le paradigme du contrôle, de l’absence de créativité ou de l’ambiguïté, cela fait bien longtemps maintenant que les informaticiens ont compris que le caractère rigoureux de la programmation informatique n’interdit pas pour autant la surprise ! De fait, l’ordinateur est depuis bien longtemps l’outil favori des explorateurs de la complexité.

Mais d’abord, la complexité qu’est-ce que c’est ? Difficile à dire, car il en existe plusieurs définitions, chacune liée à une théorie particulière. Si par exemple vous référez au chaos, vous définirez la complexité comme la sensibilité extrême aux conditions initiales : autrement dit, pour employer la fameuse expression, c’est ce battement d’ailes de papillon à Melbourne qui finit par déclencher un ouragan à Montréal. D’autres – en s’inspirant des mathématiques fractales – vous diront que la complexité est produite au sein de systèmes autosimilaires (composés de versions d’eux-mêmes). Les adeptes de la théorie des réseaux vous parleront des petits mondes, de l’importance des liens « faibles », de la connectivité d’un système, etc.

Mais la meilleure définition de la complexité, la plus simple, c’est peut-être de dire que le tout diffère de la somme des parties. Lorsque plusieurs éléments d’un système s’associent, des phénomènes imprévus se produisent : on parle alors d' »émergence »…

Il est difficile de prédire l’émergence, mais relativement aisé de la produire. La grande question du prochain siècle sera peut-être de savoir si générer « virtuellement » de l’émergence nous aide à mieux comprendre l’émergence dans le monde réel.

Il y a bien sûr des tas de moyens de chercher à « programmer la complexité » : on peut utiliser de complexes équations mathématiques, plonger dans les big data… Tout cela demande un haut niveau de formation, l’accès à de grosses machines et de puissantes banques de données. Mais l’une des principales manières de créer de l’émergence est à la portée de tous : il s’agit des systèmes multiagents.

Les systèmes multiagents : faire émerger des phénomènes non programmés

Ces programmes sont employés pour simuler des « collectifs décentralisés » comme le sont la plupart des systèmes complexes. Il s’agit de « mini-mondes formels » peuplés d’acteurs : les agents. Ceux-ci sont des petits programmes informatiques dotés d’un certain nombre de propriétés et capables d’actions très simples. On peut les comparer à des fourmis ou des termites. En gros, le programme intégré à un agent ne prend que quelques lignes. Chaque simulation multiagents comprend en général un grand nombre d’agents, et parfois des agents de plusieurs espèces (c’est-à-dire disposant de propriétés et d’actions différentes). Ces agents se déplacent dans un espace constitué par une grille composée de cases. Ces cases peuvent elles aussi posséder certaines propriétés, par exemple héberger des ressources, ou receler des dangers. Les agents peuvent donc interagir avec leur voisin ou avec le « terrain ». Tous les agents d’une même espèce ont le même programme et les mêmes propriétés ; en revanche, les paramètres sont variables. Par exemple, tous les membres d’une espèce pourront posséder une propriété « durée de vie ». Mais celle-ci variera entre 1 et plusieurs « tours »…. Ce paramètre pourra changer en fonction de l’environnement, des interactions avec les congénères, voire être déterminé par un nombre aléatoire.

Ceux qui travaillent sur les systèmes multiagents cherchent donc à comprendre comment se créent les systèmes complexes. Il ne s’agit pas ici de créer des simulations très élaborées. L’objectif est exactement inverse. Le but consiste à générer un système avec un minimum de règles et de données de base, et de voir ce qui, à partir de ces ensembles minimaux, est susceptible de produire de la complexité. Autrement dit, le « bon » programme multiagents est celui, qui, au départ, en fait le moins. L’intérêt consiste à découvrir le petit nombre de règles susceptible de faire émerger des phénomènes non programmés. Si ces aspects émergents existent dans le monde réel, on dispose alors peut-être d’une piste pour comprendre un phénomène.

Bien sûr, on peut programmer un tel système avec n’importe quel langage, mais c’est loin d’être à la portée du premier venu. En revanche, il existe des langages déjà adaptés à ce genre de travail, et d’une syntaxe assez simple. Ainsi, le Starlogo, créé dans les années 90 par Mitchel Resnick, du MIT. Sous sa forme originale, Starlogo n’est plus utilisé, mais il a donné naissance à deux « enfants » : Starlogo TNG et Netlogo.

La première ambition de Mitchel Resnick était éducative et épistémologique. C’est pourquoi il avait basé son langage sur le Logo, plutôt réservé aux enfants, et qu’il destinait Starlogo aux collégiens. En fait, selon lui, la compréhension même des fonctionnements des systèmes décentralisés nous est tellement étrangère qu’il nous est difficile de penser autrement qu’en termes de commandement et de hiérarchie. Resnick espérait qu’un langage comme Starlogo nous familiariserait dès notre plus jeune âge avec ce genre de phénomènes. Aujourd’hui, Starlogo TNG avec son langage visuel et son imagerie 3D incorpore des éléments de jeux vidéos et conserve le côté « langage pour djeuns » voulu par Resnick.

Netlogo a aussi des possibilités 3D, et certains éléments pouvant aider à créer des jeux vidéos. Mais soyons clairs, Netlogo, plutôt austère, s’adresse de préférence à des chercheurs ou des étudiants.

Un exemple de modèle Netlogo : la relation prédateur-proie


Jeter un coup d’oeil sur la bibliothèque de modèles de Netlogo suffit à convaincre de la large palette de phénomènes étudiés. Certains appartiennent au domaine de la physique, d’autres – peut-être les plus nombreux -, à celui de la biologie ou de l’écologie, d’autres encore aux sciences sociales ou à la psychologie. Vous n’êtes pas obligés de télécharger Netlogo pour jouer avec les modèles. Vous pouvez les visualiser dans votre navigateur.

Examinons par exemple une relation « prédateur-proie », l’un des systèmes complexes les plus simples et les plus classiques.

On crée deux espèces, les moutons et les loups qui se reproduisent et se nourrissent : les moutons mangent de l’herbe, les loups mangent les moutons. Les deux espèces possèdent une variable « énergie » qu’ils dépensent quand ils se déplacent et qu’ils gagnent lorsqu’ils s’alimentent. A intervalles réguliers, les animaux se reproduisent. A ce moment la quantité d’énergie du parent est divisée par deux, et une moitié est offerte au rejeton.

Tous les agents de la simulation possèdent ces points communs, mais il existe des différences entre les loups et les agneaux : on peut leur donner un taux de reproduction spécifique, chaque espèce peut gagner plus ou moins d’énergie. La simulation permet de changer ces valeurs à l’aide de différents boutons de l’interface… Le jeu consiste à faire varier les curseurs pour obtenir un système écologique stable. Les valeurs par défaut conduisent à une triste situation : les loups finissent par exterminer les agneaux, puis meurent de faim à leur tour. Cherchez les solutions optimales ! Lorsque vous aurez épuisé tous les modèles disponibles dans la librairie, vous pourrez alors construire vos propres modèles. Apprendre le code n’est vraiment pas la mer à boire.

Sugarscape : l’économie générative !

Sugarscape est le cas le plus connu d’application des systèmes multiagents aux sciences sociales. Les deux économistes qui en sont à l’origine, Robert Axtell et Joshua Epstein, ont imaginé un « minimonde » peuplé d’agents susceptibles d’accomplir des actes économiques simples. Dans la première version, les « habitants » de ce petit univers se contentaient de ramasser la ressource principale, le sucre, afin d’augmenter leur durée de vie. Puis Axtell et Epstein ont commencé à complexifier leur programme : ils ont ajouté une longévité maximale, des capacités de reproduction et enfin, une seconde ressource, l’épice. Les créatures de Sugarscape avaient besoin des deux aliments pour vivre et se reproduire, mais chaque agent disposait, en fonction de son « ADN », de « préférences » : certains avaient besoin de plus de sucre, d’autres d’épice. Chaque agent pouvait alors troquer avec ses voisins. Axtell et Epstein ont aussi ajouté un mécanisme représentant la culture (les agents préfèrent marchander avec les voisins possédant la même culture, une simple variable numérique qu’ils possèdent en commun). Les résultats obtenus ont été étonnants. Par bien des côtés, ils ont reproduit certains des phénomènes de « l’économie réelle » : des riches s’enrichissent, tandis que les pauvres s’appauvrissent. Et les « prix » n’atteignent jamais l’équilibre, contrairement à ce qu’une vision traditionnelle de l’économie pourrait laisser croire. Comme le dit Eric Beinhocker dans son livre L’origine de la richesse : « Au sein de Sugarscape s’est développé spontanément un ordre complexe, une diversité, une structure incluant ce qui pourrait être interprété (avec un peu d’imagination) comme des tribus, des villes commerçantes, des routes marchandes et des marchés, rien de tout cela n’ayant été programmé. » Pour Axtell et Epstein, un programme comme Sugarscape nous ouvre sur une nouvelle conception de la méthode scientifique : la « science générative ». Pour comprendre un phénomène, expliquent-ils, « faites le pousser » !

Vous trouverez plusieurs versions de Sugarscape dans la bibliothèque de modèles de Netlogo, malheureusement limitées aux premières phases du programme (avec le sucre uniquement). Il existe aussi un modèle « non officiel » plus complet, qui utilise toutes les règles, sauf le combat.

Les automates cellulaires, une alternative

Un système multiagents tel qu’implémenté par Netlogo est donc quelque chose d’extrêmement formel. Il est pourtant possible de travailler de manière encore plus abstraite avec les automates cellulaires. Ici, il n’y a plus d’agents se déplaçant dans un espace, il ne reste plus que l’espace lui-même. Celui-ci est divisé en plusieurs « cellules » qui peuvent prendre un aspect ou un autre (en fait, changer de couleur) selon « l’état » de leur voisin. Contrairement aux agents, les « cellules » n’ont donc aucun programme, aucune variable interne, aucune « mémoire ». Pourtant, il est possible là aussi de voir émerger des structures très complexes.

Le plus connu des automates cellulaires est le jeu de la vie de John Conway. Les règles sont très simples : les cellules peuvent être mortes ou vivantes, c’est à dire éteintes ou allumées. Une cellule « nait » si elle possède trois voisines vivantes. Elle meurt si elle a plus de trois voisines « allumées » ou si elle en possède moins de deux.

Lorsqu’on lance le jeu de la vie, on « allume » aléatoirement certaines cellules de la grille, et on laisse tourner pour voir ce qui se passe.

Malgré la simplicité apparente de ce programme, une véritable ménagerie ne tarde pas à apparaître : par exemple des planeurs, structures qui se déplacent dans l’espace du jeu. Ou des « canons à planeurs » qui créent ces mêmes planeurs… Le jeu de la vie intéresse les mathématiciens depuis sa création en 1970. Il est la démonstration qu’un univers très complexe (et donc des phénomènes du monde réel comme la vie) peut-être généré à partir de règles très simples. Cette vidéo nous montre quelques exemples de la faune susceptible d’apparaître dans le jeu de la vie. Remercions au passage la Wikipédia qui nous signale l’existence dans Google d’un « oeuf de Pâques » qui apparaît lorsqu’on fait une recherche sur « Conway’s Game of Life » : un jeu de la vie s’affiche en arrière-plan sur la page du moteur de recherche !