vendredi 19 août 2022

Le retour de la conscience (1/4) : la sélection naturelle nous cache tout !

En toute logique, on devrait penser que la sélection naturelle a tendance à favoriser les organismes capables de percevoir au mieux la réalité. De toute évidence, si j’ai un meilleur accès à ce qui m’entoure, je devrai survivre plus aisément et donc avoir plus de rejetons, non ? Et pourtant, pour le cognitiviste Donald Hoffman (@donalddhoffman), professeur de sciences cognitives à l’université de Californie, ce n’est pas le cas. Il a exposé ses travaux dans un article pour le New Scientist et a sorti un livre,  The Case Against Reality. Il a également donné en 2016 une interview assez complète au magazine Quanta.

Pour vérifier le rapport entre perception de la réalité et survie, Hoffman a lancé des simulations opposant deux types d’organismes virtuels. Certains étaient capables d’avoir une perception plus précise de leur réalité simulée, d’autres au contraire ne disposaient que d’indications très parcellaires sur la valeur de survie des objets qui les entouraient. Et surprise, ce sont ces derniers qui se sont le mieux reproduits et ont survécu.

L’adaptabilité contre la vérité



Imaginons, nous explique-t-il, une créature ayant besoin d’une ressource donnée. Si elle n’en dispose pas suffisamment, elle meurt. Mais s’il y en a trop, elle meurt aussi. L’exemple qu’Hoffman donne dans Quanta Magazine est simplement celui de l’eau. Pas assez, vous mourez de soif ; trop, vous vous noyez. Imaginons que cette même créature ne possède qu’un système perceptif très limité, capable simplement de distinguer le noir et le gris. Maintenant, créons deux « races » différentes, « vérité » et « adaptabilité ». La première perçoit la vérité. Elle voit du gris s’il y a peu de ressources, et du noir s’il y en a beaucoup. La seconde perçoit le noir et le gris en fonction, si l’on peut dire, des « points de vie » que l’emplacement peut procurer. Autrement dit, si aller dans l’emplacement contenant la ressource est bon pour l’organisme, et ou si au contraire cela va nuire à sa santé. Dans ce cas, la créature verra du gris si elle récupère peu de points, du noir si elle en récupère beaucoup.

En conséquence, continue Hoffmann, chaque fois que la créature « vérité » voit du noir, elle prend un risque : peut-être touchera-t-elle le gros lot, mais elle pourra aussi faire une « overdose » qui réduira sa durée de vie et donc ses chances de reproduction. « Adaptabilité », elle, saura que les zones grises sont à éviter, et les noires à rechercher. Mais elle ignorera ce que contient véritablement la zone grise. « Voir la vérité cache l’adaptabilité, et voir l’adaptabilité cache la vérité« , écrit Hoffman. Dans toutes les simulations, la race « vérité » s’éteint pour laisser la place à sa concurrente « adaptabilité ».

Selon Hoffman, cela est a été démontré mathématiquement, ainsi qu’il l’explique dans Quanta : « Le physicien et mathématicien Chetan Prakash a démontré un théorème que j’ai conçu et qui dit : selon l’évolution par sélection naturelle, un organisme qui voit la réalité telle qu’elle est ne sera jamais plus adapté qu’un organisme d’une égale complexité qui ne voit rien de la réalité, mais qui est simplement conçu pour l’adaptabilité. Jamais. »

Hoffman ne se contente pas de dire que nous n’avons qu’une vision parcellaire de la réalité. Ce serait trivial et tout le monde le sait déjà : on ne peut pas percevoir les infrarouges, par exemple. Non, il va beaucoup plus loin. Il affirme que la réalité que nous percevons est une pure construction élaborée pour notre survie, qu’il n’existe pas de lien entre l’objet perçu et l’objet réel. Pour lui, le monde extérieur existe bel et bien, mais il ne présente aucun rapport avec ce que nous croyons percevoir. Et cela s’applique non seulement aux objets du quotidien, mais à nos catégories mentales de base, l’espace et le temps notamment. Elles aussi ne sont que des constructions adaptées à la survie.

Cette remise en cause de la réalité est une conséquence, selon Hoffman, de ce qu’il appelle « l’acide du darwinisme universel ». Il utilise cette appellation en référence au livre du philosophe des sciences Daniel Dennett, Darwin est-il dangereux ?. Ce darwinisme est universel, parce qu’il ne se limite pas à la transmission des gènes, mais apparaît comme un processus de base derrière l’ensemble des phénomènes, que ce soit la psychologie et la sociologie (avec la mémétique) mais aussi avec des domaines très éloignés de la biologie comme la cosmologie (avec par exemple la thèse du physicien Lee Smolin, qui affirme qu’il existe une « sélection naturelle » des univers en fonction de leur capacité à créer des trous noirs, qui sont en fait des « bébés univers »). Et ce darwinisme est un acide parce qu’il attaque toutes nos préconceptions : c’est une « idée dangereuse » ! Avec ses travaux sur la perception du réel, pour Hoffman, cet « acide » s’attaque maintenant à l’ensemble de notre structure mentale, y compris aux notions d’espace et de temps qui sont indispensables au darwinisme tel qu’on l’entend habituellement, ce qui évidemment constitue un paradoxe qu’Hoffman essaie de résoudre dans son livre.

Par exemple on peut exprimer l’espace en fonction des calories dépensées. Si je vois une pomme plus éloignée qu’une autre, il me faudra dépenser plus de calories pour l’atteindre, ce qui nuira à ma survie (mais évidemment, « calories » est une autre construction mentale…).

Le bureau du Réel


Hoffman nomme son hypothèse la « théorie de l’interface » ; autrement dit, nos perceptions sont analogues au bureau d’un ordinateur. Les icônes sur lesquelles nous cliquons n’ont rien à voir avec la réalité qu’elles recouvrent, c’est-à-dire un ensemble de circuits activés au sein de la machine. Elles nous permettent d’agir, mais elles ne représentent pas la réalité, au contraire ! Elles servent à la masquer, à nous permettre de ne pas nous en occuper, car si nous devions connaître l’état exact de la structure matérielle de notre fichier, les bits sur notre disque dur ou dans la mémoire centrale, nous aurions renoncé depuis longtemps à l’informatique ! Quant à l’espace et le temps, ils ne constituent, selon Hoffman, que la structure de base de ce « bureau ».

La métaphore de l’interface permet aussi à Hoffman de répondre à une objection commune : si le lion ou le serpent qui m’attaque ne sont qu’une icône, lui répond-on, pourquoi les craindrais-je ? Après tout ce ne sont que des représentations symboliques, des icônes, elles ne présentent aucun danger pas vrai ? Mais, répond-il, c’est le produit d’une confusion fréquente : entre « prendre quelque chose au sérieux » et « y croire littéralement ». Je sais bien, explique-t-il, que l’icône sur mon bureau n’est pas mon fichier. Mais j’éviterai de la placer dans la corbeille parce que je sais qu’à ce moment que je perdrai tout mon travail. Je prends l’icône au sérieux. Mais je ne l’identifie pas à la réalité.

On pourrait trouver une ressemblance entre les thèses d’Hoffman et le fameux "argument de la simulation" . Mais ce dernier postule une intelligence externe qui aurait « construit » une réalité virtuelle dans laquelle nous évoluons. Ici, c’est la sélection naturelle elle-même qui crée la « simulation ». Pas besoin d’imaginer un super-programmeur.

A première vue, tout cela ressemble à une réactualisation des théories de Kant. Celui-ci distinguait en effet le monde du « noumène » des choses telles qu’elles sont réellement, et celui des « phénomènes », les objets tels qu’ils nous apparaissent. Hoffman affirme tout au long de son livre qu’il n’est pas « solipsiste« , mais qu’il pense que le monde extérieur existe réellement, donc il semblerait bien qu’il s’aligne sur ce point de vue. Il faut, en fait, attendre le dernier chapitre de son ouvrage pour qu’il nous explique qu’il n’en est rien. Si les objets n’existent pas en tant que tels, qu’est-ce qui reste ? Pour lui, la seule chose dont nous pouvons être sûrs, c’est la conscience elle-même.

Dans son article du New Scientist, Hoffman avoue sa sympathie pour la théorie quantique bayésienne, qui explique les paradoxes de la physique quantique par le fait que notre représentation de l’univers est le produit des croyances de ceux qui l’observent. Pour Hoffman, en effet, il n’existe que des acteurs conscients : l’ensemble de notre univers est constitué par un « réseau social » d’acteurs conscients. Le monde « nouménal » pour rester dans le vocabulaire de Kant, n’existe donc pas sous la forme « objective », même inconnaissable. Il n’y a que des consciences et des interactions entre les consciences.

Ces différents « agents conscients » sont susceptibles de se combiner entre eux pour créer des agents d’un niveau de complexité supérieur. Mais au plus bas de l’échelle, on trouve des agents conscients dotés d’un « bit unique ». Ceux-ci ne disposent que d’un catalogue de deux actions possibles, et de deux « expériences » disponibles.

Évidemment, Hoffman ne pouvait manquer de réagir au débat actuel sur l’IA et sur la possible naissance d’une « machine consciente ». Sa réponse est assez surprenante, parce qu’on pourrait penser que le paradigme actuel de l’IA (la conscience émerge à partir d’interactions matérielles et n’est donc pas à la base de toutes choses) le rendrait plutôt rétif à embrasser ce genre de spéculation. Mais pas du tout, à condition de comprendre que ce n’est pas la machine qui est consciente, celle-ci n’est autre qu’une icône, mais qu’elle peut constituer un « portail » vers la conscience.

Ainsi, un rocher n’est pas conscient, c’est juste une icône qui fait partie de mon expérience consciente. Cela ne s’applique pas qu’aux objets inanimés : « Quand je vois mon ami Chris, écrit-il, je fais l’expérience d’une icône que je crée, mais cette icône elle-même n’est pas consciente. Mon icône Chris ouvre un petit portail vers le riche monde des agents conscients ; une icône souriante, par exemple, suggère un agent joyeux. Quand je vois un rocher, j’interagis aussi avec des agents conscients, mais une icône « rocher » ne m’offre aucun indice, aucun portail vers leur expérience. » Et l’IA, donc ? Elle permettrait, selon Hoffman « d’ouvrir de nouveaux portails vers la conscience, tout comme les microscopes et les télescopes ont ouvert de nouvelles perspectives de notre interface ».

Pour autant, la thèse d’Hoffman n’est pas un panpsychisme. Cette hypothèse rendue notamment célèbre par les neuroscientifiques Giulio Tononi et Christoph Koch postule que la conscience est en quelque sorte la face cachée de la matière. Dès qu’il y a un objet matériel, il y a conscience, même si celle-ci est très primitive, comme celle que pourrait avoir un électron ou un quark. Lorsque ces éléments matériels s’organisent d’une certaine façon (Tononi affirme même obtenir un nombre mesurant cette capacité d’organisation, qu’il nomme Phi), des consciences de plus en plus élaborées apparaissent. Mais pour Hoffman, les panpsychistes tiennent les réalités matérielles pour objectives, alors que pour lui-même les atomes et les quarks sont des constructions de l’esprit. Il n’est pas enthousiaste non plus des thèses de Penrose et Hameroff qui affirment que la conscience est le produit d’une computation quantique qui se produirait à l’intérieur des « microtubules » situés dans nos neurones. Une telle hypothèse, affirme-t-il ne résout en rien le problème de l’apparition des expériences de conscience, qui restent toujours aussi mystérieuses.

La conscience partout…


Et comment Hoffman explique-t-il la conscience ? En fait, il n’a pas besoin de l’expliquer puisqu’elle devient le constituant fondamental de l’univers, sa base unique. Comme il l’indique dans son livre, le rasoir d’Occam suggère que l’explication la plus simple est que toutes choses est un monisme : l’existence d’une seule et unique cause, ou substance, à l’origine de l’ensemble des phénomènes. Le monisme le plus en cours aujourd’hui dans la communauté scientifique est le physicalisme, c’est-à-dire que toute chose émerge à partir de l’unique constituant qu’est la matière (et tant pis si cette dernière est de plus en plus difficile à définir au fur et à mesure qu’on approche du niveau quantique). Mais un autre monisme est tout aussi possible et efficace, celui-ci consiste justement à placer la conscience en bas de l’échelle des phénomènes. Ce qui ne remet en rien en cause la méthode scientifique ou les connaissances que nous possédons actuellement. Comme l’explique Hoffman, il s’agit d’un choix d’ontologie, et la science, en principe, ne se préoccupe pas d’ontologie.

Jusqu’où peut-on suivre les thèses d’Hoffman ? Sa théorie est assez extrême il faut bien le dire. De plus, il faut faire la différence entre son argument principal (la sélection naturelle nous masque la réalité) et son idée selon laquelle le monde est constitué par un réseau social d’acteurs conscients. C’est une explication intéressante, mais elle n’est pas la seule imaginable, et Hoffman est d’ailleurs le premier à admettre qu’il ne s’agit que d’une hypothèse de travail.

En tout cas, cette théorie a l’avantage de supprimer le « difficile problème de la conscience » comme l’a nommé le philosophe David Chalmers : le fait que notre connaissance des neurosciences ne nous permette pas de comprendre l’existence de notre expérience consciente, et ne permettra pas de le faire, même si, dans un futur proche ou lointain, nous établissons une corrélation entre toutes les activités neurales et tous nos états mentaux. La théorie d’Hoffman (et d’autres que nous allons examiner dans ce dossier) élimine le problème puisque la conscience se retrouve à la base de toutes choses. Petit inconvénient, c’est l’existence d’un peu tout le reste qui devient un problème difficile à résoudre. 

En tout cas, à tout prendre je trouve ce genre d’hypothèses « idéalistes » moins difficiles à avaler que les hypothèses éliminativistes qui postulent l’inexistence de la conscience. Alors, que, sans vouloir jouer à Descartes le fait que je sois conscient reste à peu près la seule chose dont je puisse être sûr.

Toujours est-il que les idées d’Hoffman s’inscrivent dans un courant d’idées pas si nouveau, mais qui connaît aujourd’hui une résurgence chez différents chercheurs, travaillant chacun dans des disciplines différentes, que ce soit la physique, la complexité ou même les relations internationales…



mercredi 8 juin 2022

Sommes nous des holobiontes ?

 

Aujourd’hui tout le monde parle du microbiome. Nous savons que les bactéries que nous hébergeons dans notre corps sont non seulement partiellement responsables de notre physiologie, de notre santé, mais aussi de certains aspects de notre psychologie. Mais peut-être ne suffit-il pas de constater ce rôle important. Peut-être ce microbiome nous amène-t-il à reconsidérer complètement notre vision du vivant ? En effet, si les colonies de bactéries qui peuplent notre corps remplissent des fonctions si importantes, est-il encore légitime de conserver notre vision classique de l’organisme comme entité unique ? N’avons-nous pas plutôt affaire à quelque chose de plus collectif ?

Une nouvelle conception de l’évolution


C’est là qu’entre en jeu le concept d’holobionte.

L’holobionte, c’est un « méta-organisme » constitué de plusieurs êtres vivants différents. Dans Aeon, le biologiste et philosophe des sciences Derek Skillings (@DerekSkillings) nous explique la double origine de la notion. Le mot a été utilisé pour la première fois en 1991 par Lynn Margulis, la célèbre biologiste spécialiste de la symbiose, qui a utilisé le terme d’holobionte pour décrire une créature issue de la collaboration entre deux espèces. Mais parallèlement, Forest Rohwer, spécialiste du corail, a employé ce terme pour designer un hôte et l’ensemble des espèces microbiennes associées.

Dans les années 2000, un nouveau concept a vu le jour, celui de l' »hologénome » : c’est-à-dire le génome de l’hôte et de tous les organismes qui lui sont associés.




Avec l’apparition de l’hologénome, c’est toute notre conception de l’évolution qui demande à être révisée. En effet, la théorie actuelle se base sur l’idée de la sélection naturelle des individus. Celui qui est le plus adapté passe ses gènes à sa descendance et c’est ainsi que se créent les nouvelles espèces et que l’évolution se produit. Certains biologistes, à la suite de Richard Dawkins, sont encore plus réductionnistes ; ce n’est pas au niveau de l’individu que se produit la sélection, c’est au niveau du gène. Les différents organismes ne sont qu’un moyen de transporter ces gènes, un simple véhicule : c’est la fameuse thèse du gène égoïste.

Mais l’idée de l’hologénome va dans le sens inverse du réductionnisme. Ce ne sont pas les gènes d’un seul organisme qui subissent la loi de la sélection naturelle, ce sont ceux de toute une population d’êtres vivants.

Cela implique-t-il de changer notre vison de la théorie darwinienne ? C’est la question que se pose Jon Lambert (@evolambert) dans l’excellent magazine en ligne Quanta. Ce qui évolue de génération en génération, ce ne serait pas l’organisme, ni même le génome, ce serait l’hologénome, les génomes cumulés de toutes les espèces peuplant l’holobionte.

Mais la question de l’hologénome est loin d’être tranchée. Pour qu’il y ait sélection sur l’holobionte, il faut tout d’abord qu’il y ait un passage de l’hologénome à la descendance : est-ce vraiment le cas ? Dans une certaine mesure, oui, mais avec des limites. Il y a bien un passage de bactéries de la mère à l’enfant lors de l’accouchement (du moins lorsqu’il est effectué sans césarienne). Et cet apport se continue dans les premiers mois après la naissance. Mais on ne peut pas parler d’une transmission précise de l’hologénome, avec la même exactitude que dans le cas classique, où l’on sait avec certitude qu’un enfant aura la moitié des gènes de son père et la moitié de ceux de sa mère (et ses mitochondries auront 100 % du génome des mitochondries de la mère). Il s’agit de quelque chose de beaucoup plus flou d’un point de vue statistique… Et bien sûr, le microbiome change avec le temps, influencé par l’environnement et le mode de vie… Pour ceux qui rejettent l’holobionte comme nouvelle unité de sélection, il faut considérer ce dernier comme une communauté écologique et non comme une espèce de super-organisme.

Faut-il alors abandonner toute idée d’une évolution des holobiontes ? Peut-être pas, continue l’article de Quanta, qui mentionne une nouvelle théorie, baptisée ITSNTS, pour « it’s the song, not the singer » (« c’est la chanson, pas le chanteur »), élaborée par Ford Doolittle et Austin Booth.

Les chercheurs reconnaissent qu’il n’existe pas de passage précis de la faune microbienne d’une génération à l’autre ; au fur et à mesure que le temps passe, les populations bactériennes changent. Mais ces microbes, précisent-ils, remplissent une fonction précise au sein de la communauté de l’organisme. Et il existe des tas d’espèces de microbes capables d’accomplir la même tâche. Et, affirment-ils, ces fonctions se reproduisent d’une génération à l’autre de façon étonnamment stable. Autrement dit, ce qui est sélectionné par l’évolution n’est pas tel ou tel microbe, mais le rôle qu’il endosse. Un peu à la manière dont une même chanson peut être interprétée par une multitude d’artistes différents : elle n’en garde pas moins son identité.

Ainsi, nous explique Quanta  : « Doolittle illustre l’idée en utilisant le cycle de l’azote. L’azote atmosphérique passe par une série d’états chimiques sous l’effet de l’action d’un large éventail de bactéries, de plantes et de décomposeurs, tels que des champignons effectuant différentes réactions. Chaque étape du cycle peut être réalisée par d’innombrables espèces appartenant toutes à une sorte de «guilde fonctionnelle», mais le processus lui-même reste remarquablement stable. »



Si Doolittle a raison, la transformation de l’idée de sélection irait encore plus loin que le remplacement du génome par l’hologénome. La notion de sélection devient beaucoup plus abstraite, concerne les processus et non plus les gènes ou même les organismes : « Cela renverse les façons traditionnelles de penser à l’évolution. La base matérielle des lignées passe au second plan. »

Superorganisme ou écosystème ?


Dans Aeon, Derek Skillings se pose la question fondamentale : est-ce que je suis un holobionte ? Cela dépend, explique-t-il, de la vision qu’on a du concept. Soit l’holobionte est un organisme (ce que Skillings nomme « la vision évolutionniste »), soit c’est une communauté ; c’est la vision « écologique ». Loin d’être purement théorique, une telle question a des répercussions importantes, en médecine, notamment. « Dans la conception écologique, les holobiontes sont perçus comme des écosystèmes complexes et dynamiques, en constante évolution, façonnés par les interactions individuelles, de bas en haut. Donc, vous faites partie d’un holobionte. Mais cela s’oppose au récit évolutionniste, qui conçoit les holobiontes comme des entités de haut niveau, apparentées à des organismes ou à des unités de sélection, et considère qu’ils sont construits comme un tout, de haut en bas. Selon ce point de vue, vous êtes un holobionte. »

Ce qui implique deux conceptions différentes de l’holobionte, et suggère deux stratégies : « La théorie de l’évolution prédit que les parties d’une unité de sélection auront tendance à coopérer : à sacrifier leurs propres intérêts pour le bien de tous. La théorie écologique, au contraire, prédit la concurrence et l’exploitation : les parties ne coopéreront que dans la mesure où elles en tireront avantage. Pensez à la différence existant entre une colonie de fourmis et un assortiment hétéroclite d’insectes se disputant des ressources rares. »

Jusqu’ici, explique Skillings, la médecine a considéré que l’organisme était une unité qui devait lutter contre des adversaires venus de l’extérieur. Selon la perspective « évolutionniste » si donc nous sommes des holobiontes, la problématique reste grosso modo la même, avec un degré de sophistication supplémentaire. « C’est juste que nous avons un peu plus d’alliés », précise-t-il. Une perspective évolutionniste sur l’holobionte pourrait par exemple nous encourager à chercher à retrouver notre ancien microbiome, celui de l’époque paléolithique, car nous récupérerions ainsi une partie de nous-mêmes.

Au contraire, la vision écologique ne peut permettre une telle séparation dualiste entre l’organisme – fût-il « holo » ou « classique » – et son environnement. Dans un système écologique, il n’y a pas de méchants, affirme Skllings. Le rôle de la médecine de demain devrait alors consister à assurer la stabilité de l’écosystème complexe. Pour Skillings, il semblerait que la vision écologique apparaisse pour l’instant comme un peu plus juste que la conception évolutionniste, mais le débat est loin d’être tranché.

Ce qui est sûr en tout cas, c’est que l’apparition du concept d’holobionte ne fait que confirmer l’importance des sciences de la complexité dans notre compréhension du monde.

lundi 6 juin 2022

Quelle vie, ailleurs ?

 

Dans un article précédent, on a fait la connaissance avec Steven Benner, qui travaille depuis longtemps sur les formes artificielles d’ADN. Dans le Journal of Design and Science du MIT, il a participé à un long entretien avec l’historien des sciences Luis Campos, sur la nature de l’astrobiologie et sur les formes alternatives que peut prendre le vivant.

Pour Benner, une vraie réflexion sur la vie extraterrestre doit commencer par un travail sur la chimie. Il souligne que dans cette science, il existe deux procédés fondamentaux. L’analyse et la synthèse. L’analyse consiste à comprendre les constituants d’un produit déjà existant. La synthèse au contraire, vise à construire un nouveau composé, une nouvelle molécule à partir d’éléments de base. On considère en général la synthèse sous l’angle technologique, mais on oublie de préciser, nous dit Benner, qu’il s’agit avant tout d’un instrument pour la recherche. En effectuant la synthèse d’un produit, on peut vérifier la validité une théorie sur la composition des éléments et leurs interactions.
Si la synthèse est un succès alors c’est que la théorie est correcte.

Ce n’est pas un procédé disponible dans toutes les sciences. « Les astronomes, par exemple, ne peuvent pas synthétiser une nouvelle étoile pour tester une théorie sur les étoiles. Jusqu’aux 30 dernières années, les biologistes ne pouvaient pas synthétiser de nouvelles formes de vie pour tester leur compréhension de la vie. L’une des raisons pour lesquelles la chimie a progressé si rapidement est sa capacité à créer de nouvelles matières chimiques. »

Lorsqu’on s’intéresse aux formes de vie alternatives, la synthèse peut être un outil fondamental. Mais, précise Benner le but n’est pas simplement de reproduire la structure exacte d’un être vivant très compliqué. Le but d’un tel travail est de voir s’il existe des nouvelles structures chimiques capables de posséder les caractéristiques propres au darwinisme. Benner appelle cela le « darwinisme minimal » : « une faculté de réplication produisant des erreurs et où ces erreurs sont elles-mêmes réplicables« .

Se pose naturellement la question de structures chimiques différentes de celle que nous connaissons, basée sur le carbone. Lorsqu’on a affaire à des formes de vie macroscopiques, pas de problème pour les reconnaître facilement. Benner rappelle que Carl Sagan insistait pour placer des caméras sur les sondes exploratrices, parce que si une girafe basée sur le silicium et non sur le carbone passe devant l’objectif, on n’aura pas besoin de connaître sa structure chimique pour être certain qu’on a affaire à une forme de vie ! Mais, pour repérer de microbes, c’est une autre paire de manches !

On a coutume de dire qu’une forme de vie basée sur le silicium est peu vraisemblable, parce que le silicium, contrairement au carbone, a du mal à s’associer avec d’autres éléments chimiques. Mais pour Benner, ce genre de raisonnement reste limité. Tout d’abord que signifie « être basé sur le carbone » ? Les choses sont plus compliquées que cela, rappelle-t-il. « Dans quel sens êtes-vous une forme de vie basée sur le carbone ? Oui, vous avez beaucoup de carbone en vous, mais ce sont les autres atomes, l’oxygène et le phosphore, l’azote et le soufre qui donnent au carbone sa précieuse réactivité. Il en irait de même pour toute forme de vie à base de silicium : d’autres atomes seraient impliqués, notamment le carbone, l’oxygène et l’azote. »

Du coup la recherche systématique de certains facteurs, comme la présence d’eau liquide, pourrait s’avérer bien trop limitative. C’est vrai que la vie a probablement besoin d’un solvant, mais il n’est pas indispensable que ce soit de l’eau.

Lorsqu’on aborde la question de l’astrobiologie, on se pose nécessairement la question de la contingence. On a déjà expliqué dans l’article précédent que selon Benner, le triomphe de l’ADN, malgré sa profonde imperfection chimique, est du probablement à cette contingence. Ce fut la première molécule capable de réplication, et par conséquent c’est elle qui s’est imposée comme unique source de la vie sur terre. Cette question de la contingence est naturellement très présente en astrobiologie. A quoi pourrait ressembler une vie extraterrestre, si jamais nous la rencontrons ? Se pourrait-il que l’évolution ne propose qu’un éventail de formes limitées ? Pour reprendre l’exemple de Carl Sagan, une girafe reste une girafe, même si elle n’est pas basée sur du carbone. Et si l’évolution suit un schéma universel, alors il ne faudra pas s’étonner si des êtres intelligents se révèlent plus ou moins proches des êtres humains – même si c’est en un peu plus vert.

Cette question de la contingence a été soulevée par de nombreux chercheurs, mais sa formulation la plus connue est sans doute celle de Stephen Jay Gould : « rembobinez le film de la vie jusqu’à l’apparition des animaux multicellulaires modernes, puis repassez le film et l’évolution repeuplera la Terre de créatures radicalement différentes. La probabilité de voir apparaître une créature ressemblant, même de loin, à un être humain est effectivement nulle. »

Pourtant, des animaux issus de lignées différentes peuvent développer des organes et des formes très similaires. L’aile de la chauve-souris, par exemple ne « descend » pas de celle des oiseaux. Les ancêtres des dauphins ont développé une forme proche du poisson, parce qu’il s’agit de la manière la plus efficace pour se déplacer dans l’eau. C’est ce qu’on appelle l’évolution convergente.

La question du rôle du hasard, de la contingence n’est donc pas encore complètement tranchée. Un biologiste, Zachary Blount – en compagnie de Jonathan Losos (@JLosos) et Richard Lensky – s’est attaqué à clarifier la question (à défaut de lui trouver une réponse), nous explique Astrobiology Magazine.

En fait il y a une grande confusion derrière le concept de « contingence » : « Gould a souvent confondu deux significations communes de «contingence» : en tant que dépendance à autre chose et en tant qu’événement fortuit. » Selon Jonathan Losos : « Il existe de nombreuses littératures différentes sur l’idée de Gould, et ces littératures ne se parlent pas ». « Il y a des études sur l’évolution microbienne. Il y a toutes celles sur l’évolution convergente, ou le manque d’évolution convergente. Et il y a aussi une littérature philosophique sur ce que Gould voulait dire quand il disait : « rejouez le film ». Plus généralement, quand vous parlez du rôle de la contingence – le terme utilisé par Gould – qu’est-ce que cela signifie réellement ? »

Le travail effectué par Zachary Blount(.pdf), publié dans American Scientist a consisté essentiellement à réunir des disciplines qui ne se parlent pas qui ont mis en parallèle trois types d’études effectuées séparément, toutes impliquant une certaine manière de « rejouer le film de la vie ». Il a ainsi examiné les recherches en laboratoire sur les populations microbiennes, les expériences effectuées en pleine nature et enfin les études portant sur le comportement de différentes lignées dans un environnement analogue.

Les résultats sont mitigés. Dans certains cas, la contingence n’est pas de mise. Comme l’explique l’article d’American Scientist : une des leçons est que l’idée de Gould selon laquelle l’évolution est complètement irremplaçable est incorrecte. À travers les Grandes Antilles, les espèces d’anolis ont évolué de manière prévisible, avec des modifications de traits similaires correspondant à des habitats comparables. La sélection naturelle entraîne des résultats similaires en cas de conditions analogues, montrant que l’évolution peut se répéter et se répète effectivement.

Mais ce qui est vrai pour ces lézards ne l’est pas forcément toujours dans tous les cas. Pour preuve ce travail de longue haleine initié par Lenski sur des souches d’E Coli, suivant leurs mutations au cours des différentes générations. Il a ainsi suivi 12 lignées différentes en parallèle. Dans ce cas, la situation n’était pas la même qu’aux Caraïbes. L’environnement était stable et les différentes lignées ne subissaient aucune pression évolutive particulière. Donc, l’évolution ne pouvait se produire qu’en fonction de mutations aléatoires.

Ces populations, nous dit l’article, ont souvent évolué de la même manière. Le niveau d’adaptation était grosso modo similaire. « Toutes les variétés se sont mises à se développer plus vite en absorbant du glucose. Beaucoup ont perdu la capacité de se nourrir de certaines substances qu’elles ne rencontraient plus ».

Certes, il y eut aussi des divergences, mais globalement, on peut dire que leur évolution a suivi un déroulement assez proche. Sauf – et c’est important – dans un cas. Une variété particulière a adopté un chemin très particulier, apprenant à se nourrir de citrate. Blount, après avoir essayé de « rejouer le film » en repartant de la souche de base, a pu établir que cette nouvelle bactérie n’avait pu développer cette capacité qu’en suivant un parcours de mutations très particulier au cours de 20 000 générations. Dans ce cas précis, cette mutation très importante pouvait être considérée comme hautement « contingente ».

Pour Blount, on ne peut pas régler facilement le problème de la contingence. Et cette tâche doit être multidisciplinaire, impliquant des biologistes spécialisés dans différents domaines, mais concerne également des philosophes, car une telle notion mérite de bénéficier d’une grande rigueur conceptuelle et doit reposer sur des définitions précises.

Toutes ces questions nous montrent le besoin de développer une biologie théorique générale, indépendante de l’unique implémentation du vivant que nous connaissons sur Terre. Mais quels outils pour cette science ? Utilisera-t-on des mathématiques traditionnelles ? Ou recourra-t-on plutôt aux machines ?

mercredi 11 mai 2022

La vie, telle qu’elle pourrait être : simulation ou vie artificielle ?

 

Peut-il exister une biologie théorique, tout comme il y a une physique théorique ? La chose n’est pas facile. Tout d’abord parce que nous ne disposons que d’un exemple de système vivant à notre disposition, bien sûr. Mais aussi parce que nous ne savons pas exactement définir ce qui caractérise le vivant exactement. S’agit-il de la capacité de se reproduire et de muter ? Est-ce l’existence d’un métabolisme qui permet de s’adapter aux conditions extérieures pour survivre ? Les virus, qui utilisent l’appareillage des cellules infectées pour se reproduire, sont-ils des « êtres vivants » ? Et quelles sont les conditions minimums pour l’apparition de la vie ?

Peut-on « calculer » le vivant ?


Dans cette recherche théorique, l’usage des outils numériques peut se révéler indispensable, mais comme le souligne un article d’Astrobiology Magazine, cet usage peut prendre des formes très différentes. L’article met ainsi en parallèle deux approches qui ne sont pas forcément opposées, mais qui reposent sur des présupposés très différents : la biologie computationnelle et la vie artificielle.

Andrew Pohorille, apprend-on, dirige le labo d’astrobiologie computationnelle à la Nasa. Son travail nous explique-t-on, consiste à « écrire des algorithmes basés sur des modèles mathématiques pour chercher à expliquer les complexes procédés biochimiques ». S’il utilise donc des ordinateurs, son outil théorique principal reste, comme on le voit, les mathématiques.

Cette approche, loin des manipulations sur la paillasse, peut laisser sceptique un certain nombre de biologistes. Mais selon Eric Smith, qui travaille à l’Institute Earth Life Science de Tokyo, son heure est venue. « Je pense que nous sommes arrivés au point où cela va devenir un outil sérieux, mais il est important de se rappeler que ce n’est qu’un outil parmi d’autres. »

Le magazine nous présente ainsi certains des premiers résultats de cette nouvelle forme de biologie. Par exemple, Eric Smith et son équipe ont étudié les divers moyens utilisés par le vivant pour fixer le carbone, en combinant à la fois une analyse computationnelle des évolutions des espèces avec une autre sur l’équilibre des flux métaboliques. Ils ont ainsi pu déterminer les six méthodes utilisées par les organismes pour remplir cette tâche et repérer celle qui se serait produite en premier, aux origines de la vie. Smith et ses collègues ont pu ainsi démontrer que ce processus pouvait émerger à partir de processus géochimiques simples. La spécialité de Smith est en effet la géochimie et il a d’ailleurs écrit un livre à ce sujet en collaboration avec Harold Morowitz, The origin and Nature of life on earth.

Il est aussi intéressant de noter (quoique Astrobiology Magazine ne cite pas quelles recherches spécifiques les ont amenés à cette conclusion) que des chercheurs comme Smith et Pohorille se montrent en désaccord avec une grande partie des biologistes traditionnels sur l’origine de la vie. Selon ces derniers en effet, avant la domination de l’ADN aurait existé un « monde de l’ARN » qui aurait préfiguré la vie telle qu’on la connaît. Pourquoi ? Tout simplement parce que l’ARN est une molécule plus simple que l’ADN. Tout d’abord, il s’agit d’une « simple hélice » en lieu et place de la double hélice bien connue (et bien plus compliquée) de l’ADN. Mais pour Pohorille et Smith, l’ARN est encore une molécule trop grande pour se trouver à l’origine du vivant. Un article de Quanta Magazine mentionne que Pohorille semble avoir la préférence pour une nouvelle hypothèse, qui voit dans les protéines les premières briques de construction du vivant.


La vie artificielle : réalité ou simulacre ?


Lorsqu’on parle de modèles computationnels de la vie, on ne peut que penser à la vie artificielle, ce champ marginal mais influent souvent mentionné dans nos colonnes. Pourtant, on va le voir, la biologie computationnelle et la vie artificielle restent des champs d’études différents et séparés.

Astrobiology Magazine se concentre sur le travail Chris Adami un microbiologiste de l’université du Michigan, qui a co-créé un logiciel de vie artificielle, Avida.

Avida n’est pas un nouvel outil, il a été publié en 1993. Il peut être considéré comme le successeur d’un travail plus ancien, Tierra, élaboré dans les années 90 par le biologiste Thomas RayLors de la conférence Ecal de 2011 sur la vie artificielle, Tierra avait nommé par les chercheurs comme le logiciel qui incarnait le mieux ce domaine de recherche. Mais avant Tierra, il y avait un « jeu vidéo » suprêmement geek nommé Core War, qui mettait en scène des armées de virus qui luttaient les uns contre les autres en réécrivant des instructions écrites dans un langage virtuel, Redcode. En 1990, un chercheur Steen Rasmussen, découvrit que les meilleurs combattants à Core War étaient ceux qui se montraient en mesure de se répliquer eux-mêmes. Reste qu’il n’y avait pas de mutation – donc pas d’évolution – au sein de Core War.

Avida est basée sur des principes très proches de Tierra. Mais surtout, comme tout le champ de la vie artificielle, Avida repose sur une hypothèse philosophique, qui justement est très contestée : l’idée que la vie est fondamentalement affaire d’information, pas de chimie. Comme Adami l’explique dans Astrobiology Magazine : « la vie est de l’information qui se réplique« . Avida est un software très complexe et peu explicite. Si vous voulez tout de même jouer avec le programme, le mieux est de vous rendre sur le site d’Avida-Ed, une version simplifiée spécialement conçue pour l’éducation. Malheureusement, j’ai trouvé la documentation fournie plutôt parcellaire, ce qui est quand même dommage pour un logiciel éducatif (Avida-Ed a même reçu un prix pour sa valeur éducative de la part de l’International Society for Artificial Life, remis à Lyon en 2017). Vous pouvez vous aider de la vidéo ci-dessous (en affichant les sous-titres automatiques, pas forcément très exacts, mais suffisants pour comprendre ce qu’il faut faire). Mais ce tutoriel vous aidera à comprendre comment marche le logiciel, pas à mener votre propre recherche…

Dans Avida-Ed, chaque organisme est un petit programme écrit avec un « langage de programmation » composé des 26 lettres de l’alphabet. Chacune d’entre elles correspond à une instruction particulière (par exemple, l’une des plus importantes, « W », signifie « réserver de la mémoire pour générer une progéniture »), ou « S », qui est la classique commande d’addition de deux valeurs. Le premier organisme d’Avida, nommé l’ancêtre, est déjà capable de s’autorépliquer. Dans Avida-Ed, les organismes « récompensés » sont ceux qui sont capables d’effectuer le plus grand nombre d’opérations logiques, de type ET, OU ou Xor (et d’autres plus exotiques).

Un peu comme dans le jeu de la vie, c’est assez amusant de regarder les organismes se reproduire dans l’écran d’Avida-Ed, mis est-ce vraiment utile ? Oui pour les adeptes de ce genre de pratiques, qui multiplient les expériences sur l’évolution depuis plus de 20 ans avec ce genre de programme. En 2010, par exemple Avida avait fait un peu parler de lui, notamment dans le New Scientist, mais aussi dans la presse plus généraliste, comme le Telegraph britannique. Une équipe (après avoir rajouté trois instructions permettant aux avidiens de se mouvoir, car originellement, ils ne déplacent pas, ils se contentent de se reproduire) avait affirmé avoir vu certaines de ces créatures développer une mémoire et un certain comportement (un peu) intelligent. Comme cette histoire a 10 ans, et qu’elle n’a apparemment pas connu de suite, on peut supposer que l’annonce était quelque peu prématurée, mais il est aussi possible que demain elle revienne au premier plan. Après tout on reparle d’Avida aujourd’hui après des années de confidentialité.

Mais pour revenir à l’article d’Astrobiology Magazine, cela ne convainc pas pour autant d’autres chercheurs, et notamment ceux qui travaillent sur la biologie computationnelle. Andrew Pohorille pense ainsi qu’il reste important de chercher un « concept mathématique de haut niveau » susceptible d’expliquer la nature du vivant et le système de règles qui régit le domaine. Pour lui, un système comme Avida ne permet pas de fournir une telle explication théorique, et pire, il peut générer des erreurs d’interprétation, amener à confondre le vivant avec des processus qui lui sont analogues : « Il peut y avoir beaucoup de règles qui mènent à ce genre de processus… La question est de savoir si l’une de ces règles a quelque chose à voir avec les règles qui ont fonctionné aux origines de la vie. »

Et l’article de renchérir :

« Quelque-chose pourrait ressembler à la vie dans Avida, mais il y a un risque de tomber dans le piège de la recherche d’un motif qui ressemble à du vivant, mais qui n’en est pas, comme confondre les mouvements d’un slinky [ce jeu en forme de ressort, capable de descendre les marches d’un escalier, NDT] et ceux d’un serpent. On peut se demander si la vie virtuelle au sein d’un ordinateur, comme la vie avidienne, ne se contente pas en fait de se faire passer pour une représentation de la vie, ce qui amène de nombreux chercheurs à se méfier de ces résultats. « En principe, la vie artificielle pourrait aider à trouver des alternatives à la vie terrestre, mais vous devez comprendre de quoi exactement votre modèle informatique est une abstraction, et c’est la partie la plus difficile », a déclaré Smith. »

Apparemment, nous n’avons pas le choix : pour comprendre la nature du vivant, il nous faut plus d’un exemple à étudier, et le seul moyen pour ce faire, c’est quand même d’aller en chercher un !

lundi 21 mars 2022

Neil Gershenfeld et la réalité numérique

 

Neil Gershenfeld, le père des fablabs et directeur du Centre des bits et des atomes du MIT, a publié une longue conférence vidéo sur la « réalité numérique », sur le site Edge.org, qui propose aussi une version texte de son discours.

Ce long document qui fourmille d’idées brillantes et inédites virevolte volontiers d’un sujet à l’autre – de manière parfois un peu rapide, il faut l’avouer. Cela va de la nature de la fabrication numérique à l’économie des fablabs et de la musique, en passant par une critique des MOOCs et des considérations sur l’avenir de l’éducation à distance.


Image : Neil Gershenfeld via Edge.org.

Mais les points les plus originaux restent sa définition de la « réalité numérique » et son point de vue sur l’avenir de la fabrication.

Tout d’abord, qu’est-ce que le numérique ? Il ne s’agit pas seulement de tout représenter avec des zéros et des uns. Gershenfeld, qui préfère y voir une révolution entamée par Claude Shannon, à l’origine de la théorie de l’information. Celui-ci est le premier à avoir découvert qu’une communication de type numérique (autrement dit codée sous la forme de symboles) permettait une meilleure correction d’erreurs et donc la transmission plus sûre du message qu’une communication analogique passant par des ondes. Si le niveau de bruit est inférieur à un certain seuil, le message peut être transmis correctement. Les parasites et autres grésillements ne sont plus un problème.

Von Neumann s’est contenté d’appliquer les théories de Shannon au calcul. A l’époque, explique Gershenfeld : « Vannevar Bush avait construit un « analyseur différentiel », une salle pleine de roues et de poulies, et les réponses devenaient de plus en plus mauvaises avec le temps. John von Neumann a montré que l’on pouvait obtenir un calcul correct avec un système non fiable, du moment que le calcul se faisait à l’aide de symboles« . On est ainsi passé de la communication numérique à la computation numérique, résume-t-il.

La fabrication numérique : une très, très, très vieille histoire…

Comment la nouvelle notion de « fabrication numérique » s’insère-t-elle dans ce schéma ?

Tout d’abord, elle n’est pas si nouvelle. En fait, la première fraiseuse contrôlée numériquement date de… 1952, la période où Claude Shannon élaborait ses théories sur la communication ! Quant à l’impression 3D elle a été inventée par Chuck Hull dans les années 80. Et elle est loin d’être un élément fondamental de la fabrication numérique. Gershenfeld note que, dans son fablab, l’imprimante 3D n’est utilisée qu’environ 20 % du temps. Les autres machines à commandes numériques sont beaucoup plus efficaces pour bon nombre de tâches.

Mais de toute façon, la « fabrication numérique » n’est pas vraiment numérique : elle reste analogique, provoque Gershenfeld. Le design, la conception sont numériques, mais on continue quand même à travailler le matériau de la manière traditionnelle, en le coupant, en le modelant, bref, autant de techniques « analogiques ».

Une véritable fabrication numérique serait toute autre. Et là aussi, ce n’est pas une nouveauté, puisque son apparition daterait de 4 milliards d’années ! Il s’agit du ribosome, cette partie de la cellule qui utilise le code ADN (via un passage par l’ARN messager) pour fabriquer des protéines. Et pour comprendre la puissance du ribosome, on peut comparer son action à celle d’un enfant jouant au Lego.

Lorsqu’un enfant bricole avec ses Lego, il n’a pas besoin de règle ou de compas. La forme des briques suffit pour créer toutes sortes d’objets : « La géométrie de l’ensemble est déterminée par l’assemblage des parties« , explique Gershenfeld. Première conséquence, l’enfant peut élaborer des structures dont la taille le dépasse. Et c’est pareil avec le ribosome : ses briques Lego sont des acides aminés, qu’il assemble un à un pour créer des structures bien plus grandes que lui. « Vous pouvez fabriquer un éléphant en ajoutant un acide aminé à la fois parce que la géométrie provient des pièces. Dans une imprimante 3D aujourd’hui, ce que vous pouvez faire est limité par la taille de la machine. La géométrie est externe ».

Autre avantage de cette méthode Lego, et on retrouve ici la définition que Gershenfeld a préalablement donnée du numérique : la correction d’erreurs est améliorée. « La tour de Lego est plus précise que ne l’est le contrôle moteur de l’enfant qui la construit parce que la contrainte d’assemblage des briques permet de détecter et corriger les erreurs ». Même chose avec le ribosome : « Dans un laboratoire, quand vous mélangez des produits chimiques le pourcentage de réussite est environ de un sur 100. Dans le ribosome, lors de la fabrique de protéines, le taux d’erreur est de un sur 104, et lorsque vous répliquez l’ADN il y a une étape supplémentaire de correction d’erreur et le taux d’erreur passe à un sur 108 (…) Parce que les pièces sont des éléments discrets, vous pouvez détecter et corriger les erreurs simplement en les associant« .

Mais il existe encore des différences entre la méthode Lego et la fabrication numérique actuelle. On peut associer des briques en Lego fabriquées dans divers matériaux. De même, le ribosome utilise 20 acides aminés différents. Or il est très difficile d’employer plusieurs types de matériaux lors d’une même tâche avec une imprimante 3D.

Enfin, et ce n’est pas le moins important, lorsqu’un enfant en a terminé avec ses Lego, il ne jette pas ses briques. Il en va de même avec le monde du vivant. Lorsqu’un organisme a terminé sa course, il meurt et ses constituants sont réassemblés. En revanche, dans l’univers de la fabrication numérique il y a bien des tentatives de recyclage, mais on ne cherche pas à réutiliser les pièces.


Quand le code est intrinsèque au matériau

Voilà donc en quoi consiste la véritable « fabrication numérique » : « La géométrie créée par les pièces, la détection et la correction des erreurs, l’assemblage de matériaux différents, la séparation et la réutilisation des composants« . Mais l’idée centrale derrière tout cela, assène Gershenfeld, c’est que le code n’est pas étranger au matériau. Il lui est intrinsèque. C’est cela, la « réalité numérique ». Cette idée d’une programmation intrinsèque à la matière, nous l’avons déjà abordée dans nos colonnes, que ce soit avec les travaux un peu spéculatifs sur la matière programmable ou avec les expériences de design de Skylar Tibbits (qui, comme Gershenfeld, travaille au MIT).

Et naturellement, Gershenfeld et son équipe oeuvrent déjà sur ces nouveaux concepts. Ainsi, ils sont en train de réfléchir à une usine portable pour fabriquer des puces. Elle assemblerait à bas prix des circuits intégrés à partir de blocs de composants électroniques. Autre projet, la réalisation, à partir de petites briques, de gigantesques structures ultralégères et durables comme des avions. Gershenfeld affirme travailler aujourd’hui sur des « imprimantes à jumbo jets », « bien qu’il s’agisse plutôt en fait, d’assembleurs« … A noter que le MIT a obtenu un accord avec Airbus pour tester ces nouvelles méthodes de construction.

Gershenfeld s’intéresse aussi à la « géoimpression ». L’idée ici est de créer des systèmes robotiques capables une fois encore d’assembler à la manière des ribosomes des structures de grande taille intégrées sur le terrain, modifiant le paysage. Cela permettrait notamment de protéger les villes et les infrastructures contre des catastrophes comme l’ouragan Katrina en restructurant le terrain, alors qu’aujourd’hui on ne sait guère qu’accumuler des sacs de sable. Et comme on pouvait s’y attendre, l’idée attire également la NASA, qui envisage d’utiliser cette technologie dans l’espace.

Reste enfin le vivant qui est l’inspiration de base de toute cette nouvelle conception de la construction. Gershenfeld travaille avec le biologiste Craig Venter pour créer des systèmes microfluidiques susceptibles d’insérer des génomes artificiels dans les cellules.


Je n’ai abordé ici qu’un des aspects de la longue conférence de Gershenfeld. Si vous avez le temps et si l’anglais ne vous rebute pas, n’hésitez pas à regarder (ou plus simplement à lire) l’intervention intégrale.

vendredi 28 janvier 2022

Comment le cerveau absorbe-t-il des concepts "postclassiques"

Les poils du chat de Schrödinger vous donnent des démangeaisons ? La perspective d’un univers holographique vous met à plat ? L'explication de la double fente vous entre par une oreille et sort par l’autre (à moins que ce ne soit les deux) ? Pourquoi les concepts de la nouvelles physique nous sont ils aussi obscurs, alors que ceux de la mécanique newtonienne peuvent aisément se comprendre ?

Limitation intrinsèque de notre cerveau ou difficile transformation de notre culture ? Pour certains la messe est dite : l’être humain est un primate de la savane, et la compréhension de l’univers dans sa totalité lui est à jamais exclue. C’est l’opinion de l’astrophysicien Martin Rees, pour qui : « Peut-être certains aspects de la réalité sont-ils intrinsèquement au-delà de nos capacités d’analyse, leur compréhension nécessitant un intellect posthumain – tout comme l’appréhension de la géométrie euclidienne se situe au-delà des possibilités des primates non humains. Certains pourraient objecter qu’il n’existe pas de limite à ce qui est calculable. Mais il existe une différence entre ce qui est calculable et ce qui peut être connu conceptuellement. Quiconque a appris la géométrie cartésienne peut facilement visualiser une figure simple – une ligne ou un cercle, si on lui fournit l’équation correspondante. »

Pour lui pas de doute, une pleine compréhension des mécanismes de la réalité appartient à des posthumains.

Peut être. Mais dans l’attente, il est intéressant de comprendre pourquoi certains concepts ont du mal entrer dans notre tête. Une expérience réalisée à l'université Carnegie Mellon, originalement présentée dans NPJ Science of Learning, et rapportée par Discover Magazine ainsi que par Science Daily cherche précisément à comprendre cela, à l’aide de l’outil favori des neurosciences contemporaines, l’IRM fonctionnelle.


L’étude du fonctionnement du cerveau a déjà montré que lorsqu’on pense à un objet ou un concept, certains patterns neuronaux ont tendance à s’activer. Pour reprendre un exemple classique, si je pense à un marteau, les neurones correspondant à la préhension de l’objet, le mouvementent de frapper avec, se mettent en branle. La plupart des concepts de la physique classique sont en mesure d’être, de la même manière, représentés de façon perceptuelle ou liée à un mouvement. Ainsi, nous disent les auteurs : « Par exemple, alors qu'on ne peut voir directement une force, les physiciens peuvent imaginer "une flèche de force" possédant des taille et direction définies et agissant sur un objet matériel. De même, l'énergie contenue dans un système ne peut être visualisée directement, mais l'idée intuitive d'une quantité conservée mais changeant de forme peut être accessible à l'expérience perceptive humaine. »

Les choses changent lorsque des concepts plus abstraits sont invoqués par la nouvelle physique, comme la relativité de l’espace et du temps, la dualité onde-particule ou la matière noire. Car ils sont bien plus difficilement appréhendés par l’intuition (l’exemple de la matière noire est souvent utilisé dans le texte de Nature, alors que personnellement je ne vois pas trop la difficulté à concevoir cela intuitivement : c’est de la matière, qui est, bon, euh, noire, même si bien sûr cela recouvre quelque chose d'infiniment plus complexe!).


On a donc examiné le cerveau de physiciens, et on s’est rendu compte que ces derniers catégorisaient leurs concepts en fonction d’une série de critères ; comme ce qui est mesurable et ce qui ne l’est pas. Ou ce qui est périodique ou non. Ainsi, nous rappelle Science Daily, les ondes radio ont une périodicité, et le multivers n’en a pas. Ensuite, les neuroscientifiques sont parvenus à prédire à partir du système de catégorisation qu’ils avaient découvert dans le cerveau des physiciens comment tel ou tel concept abstrait allait se manifester chez ces derniers. Et chose importante, lorsqu’on a testé les cerveaux des physiciens soumis à l’expérience, les mêmes circuits s’activaient systématiquement, quelle que soit leur université d’origine, leur nationalité ou leur culture. Cela a des implications en matière d’éducation, comme l’a expliqué Robert Mason, le principal chercheur, dans Discovery : « Cela sonne comme de la science-fiction, mais nous pourrions être en mesure d'évaluer les connaissances des étudiants en comparant leur état cérébral à celui d’un expert exprimant les mêmes connaissances, puisque ces états sont mesurables et cohérents d'un expert à l'autre ? »

L’article de Discovery note aussi une possible corrélation entre notre acquisition de nouveaux concepts avancés et notre compréhension d’une histoire : « Les concepts postclassiques exigent souvent que ce qui est inconnu ou non observable soit mis en relation avec ce qui est déjà compris. Or, ce même processus est souvent nécessaire à la compréhension du déroulement d'un récit ; les régions du cerveau qui s'activaient lorsque les physiciens réfléchissaient à certains concepts postclassiques lors de cette étude s'activaient également lorsque des lecteurs jugeaient la cohérence d'un nouveau segment d'histoire selon une autre recherche. »

 

Que déduire de tout cela ? L'universalité des processus cérébraux mis en œuvre par les physiciens, indépendamment de leurs différences personnelles, tend à prouver que le cerveau humain possède les ressources pour traiter les nouveaux concepts de la même manière que les anciens. Pour résumer, je pense à l'espace-temps de la même manière que lorsque je pense à un marteau. D’ailleurs, l’article de Science Daily précise bien que « lorsque les physiciens traitent des informations sur l'oscillation, le système cérébral qui entre en jeu est celui qui traiterait normalement les événements rythmiques, tels que les mouvements de danse ou les ondulations dans un étang. »

Cela va dans le sens de quelque chose qu’on savait déjà (par exemple avec les neurones de la lecture chers à Stanislas Dehaene) : que les structures archaïques de notre cerveau sont capables de se réorganiser, s’adapter pour affronter des expériences inédites. Ce qu’on savait pour la lecture ne s’arrête pas à celle-ci : notre cerveau peut également s’entraîner à la compréhension des trous noirs, de l’intrication quantique, de l’espace courbe. Nous ne sommes définitivement pas limités à courir dans la savane.


mardi 25 janvier 2022

De nouvelles lettres pour l'alphabet du vivant


Ces dernières années, divers chercheurs se sont attachés à agrandir l’alphabet génétique, sur lequel repose la structure de l’ADN, en vue d’en tirer des applications technologiques, mais également (et peut-être surtout) pour comprendre la nature de la vie elle-même.

Le travail a commencé à aboutir en 2014, lorsque Floyd Romesberg (@Romesberglab) se montra en mesure de créer le premier organisme « semi-synthétique » dont l’ADN possède deux bases supplémentaires, surnommées X et Y. En 2017, il a perfectionné son exploit en créant une bactérie E.coli semi-synthétique utilisant ces nouvelles bases pour produire une protéine rendant l’organisme fluorescent, apportant ainsi la preuve qu’une action avait réellement eu lieu.

Perfectionner l’ADN


Un petit rappel de nos cours en biologie peut s’avérer nécessaire. Le code génétique repose sur un alphabet de 4 lettres, couramment notées A, G, C et T. Ces quatre bases s’assemblent en codons de trois lettres seulement : par exemple ACG ou GCT… Il ne peut exister en tout que 64 combinaisons possibles.
Chaque codon produit, de manière indirecte (via une autre molécule, l’ARN, et passage dans le ribosome), un acide aminé spécifique. Les êtres vivants sur terre ne disposent que de 20 acides aminés (certains organismes en produisent un peu plus, 21 ou 22). Les acides aminés sont les constituants de base de macromolécules, les protéines, qui sont les briques de base du vivant.

Ce qu’on appelle un gène est un ensemble de codons produisant ensemble une protéine. Comment l’ADN sait-il s’arrêter, stopper la production d’acides aminés au moment où la protéine est construite ? Il utilise pour cela des codons particuliers, nommés les codons STOP, qui arrêtent au bon endroit la production de ces molécules.

Mais finalement, un alphabet de quatre lettres, c’est très peu. Steven Benner, qui travaille depuis des années sur le sujet, n’est pas impressionné par la beauté de la « double hélice » de l’ADN, nous raconte le New Scientist : « Quand on observe l’ADN, ce qu’on remarque, c’est l’imperfection », explique-t-il. « Nous pensons pouvoir faire mieux ». Le travail de Romesberg, en ajoutant 2 bases X et Y, a permis de faire exploser le nombre de codons disponibles. On est passé de 64 à 216.

Steven Benner a été encore plus loin, puisqu’il a élaboré un alphabet de 12 lettres. Mais contrairement à Romesberg, son travail est plus théorique. Il n’a en effet pas encore placé ses nouvelles bases au sein d’une créature vivante.

De son côté, le magazine Quanta nous rappelle qu’il existe d’autres manières de modifier la structure du code génétique sans pour autant ajouter de nouvelles bases. George Church, par exemple, travaille sur les codons redondants (qui codent le même aminoacide) afin de rendre ces derniers capables de générer de nouvelles molécules, non standards. Jason Chin, un biochimiste britannique cherche lui à « fabriquer » un ribosome susceptible de lire des séquences de quatre lettres et non plus seulement trois.

Quel peut être l’intérêt de ces travaux sur l’ADN ? Les applications sont multiples et concernent surtout l’industrie et la médecine. En effet, cela peut nous permettre de coder de nouvelles protéines aux potentialités inédites. Par exemple, en chimie, on pourrait élaborer de nouveaux catalyseurs.

De son côté Romesberg créé sa propre compagnie, Synthorx qui travaille sur un médicament contre le cancer, nous apprend The Economist. La protéine concernée est l’interleukine 2, une molécule qui a la capacité d’attaquer les tumeurs, mais qui dans le même temps se révèle terriblement toxique pour l’organisme. L’interleukine 2 s’associe aux lymphocytes (les cellules du système immunitaire) par trois sites, nommés respectivement alpha, bêta et gamma. Problème, la liaison avec le site alpha est responsable de la toxicité du produit. Mais celle-ci peut être bloquée par des molécules de polyéthylène glycol (abrégé PEG). La question est : comment attirer ces molécules PEGS ? C’est ici qu’entrent en jeu les bases artificielles de Romesberg. Grâce à celles-ci les PEGS viennent s’attacher spontanément à l’interleukine 2, bloquant l’association avec le site alpha. Le nouveau produit a été testé avec succès sur des souris et The Economist précise que Synthorx a demandé l’autorisation de tester son nouveau produit sur les humains.


Pourquoi un alphabet si restreint ?


Mais l’intérêt de ces nouvelles versions de l’ADN n’est pas uniquement médical et technologique. Ce domaine est l’illustration d’un phénomène courant, mais qu’on a tendance à trop souvent oublier : l’interaction de la technologie et de la recherche fondamentale. En effet, ces prouesses technologiques nous permettent de mieux nous poser la question de l’origine de la vie.

Ainsi, est-ce une si bonne idée de multiplier les bases et les codons ? Pourquoi la vie s’est-elle contentée d’une structure aussi limitée ? Une question à laquelle Jordana Cepelewicz, dans le magazine Quanta a cherché à répondre.

En fait, ce système est remarquablement solide et résilient, et rien ne dit que des alphabets plus compliqués se révéleraient plus efficaces. En effet, on l’a dit, il y a 64 codons pour 20 acides aminés. Cela implique naturellement que plusieurs codons produisent le même acide. Mais la plupart du temps, les différents codons ne divergent que sur leur troisième position, par exemple, continue encore l’article de Quanta, l’acide glutamique, codé à la fois par GAG et GAA.

De plus lorsque deux codons partageant deux bases en commun produisent un résultat différent, les deux acides en question possèdent souvent les mêmes caractéristiques chimiques.

Cela rend un tel système bien plus résistant aux mutations.

Selon certains chercheurs, continue le magazine, un alphabet de 6 bases ou plus se révèlerait beaucoup moins stable : les mutations seraient trop nombreuses. C’est d’ailleurs le cas avec les créations de Romesberg. Elles se reproduisent moins bien et possèdent effectivement un plus fort taux de mutations.

Un chercheur en biologie computationnelle, Stephen Freeland, a essayé de comparer l’actuelle séquence de 20 acides aminés à la base des protéines avec une multitude d’autres combinaisons des mêmes types de molécules, choisies aléatoirement. Il s’avère qu’effectivement, notre alphabet de 20 lettres (généré par l’alphabet encore plus réduit de 4 lettres de l’ADN) s’avèrerait plus efficace qu’un million d’autres combinaisons testées.

Ceci dit, cela ne signifie pas que le code génétique soit parfait. En termes darwiniens, cela signifie juste qu’il s’est avéré « suffisamment bon » dans l’espace de solutions proposées par la Terre primitive pour s’imposer comme le langage de base de tous les êtres vivants. Une fois cette structure alphabétique de 4-20 lettres suffisamment répandue, cela aurait bloqué l’apparition d’autres combinaisons possibles.

De plus, il n’est pas toujours facile de dire avec certitude que notre code génétique est véritablement optimal. Après tout, souligne Romesberg on ne connaît pas vraiment les conditions de l’apparition de la vie sur Terre, et, poursuit-il, « quand vous ne comprenez pas un problème, il est toujours difficile de théoriser dessus ». Selon le biologiste synthétique Chang Liu, « il est concevable qu’à long terme, le fait de disposer d’acides aminés supplémentaires soit avantageux, ce qui permettrait à l’hôte de s’adapter de manière innovante… Mais ce serait là une toute nouvelle chimie difficile à prédire. »

En tout cas, une chose est sûre. Des expériences comme celles de Benner ou Romesberg, nous offrent la possibilité de réfléchir à la nature de la vie d’une manière moins spéculative qu’auparavant. Comment celle-ci est-elle apparue sur notre planète ? A quoi ressembleraient des extra-terrestres, s’il en existe ? Si l’évolution recommençait demain, à partir de la soupe primordiale, suivrait-elle le même chemin ? On peut aujourd’hui, pour la première fois, commencer à se demander comment la vie pourrait être plutôt que de seulement constater ce qu’elle est.