mardi 4 octobre 2022

Le retour de la conscience (3/4) : de la contre-culture à la cryptographie quantique

Les deux auteurs présentés précédemment, Donald Hoffman et James Glattfelder, font tous deux la part belle à la physique quantique dans leur défense de l’importance fondamentale de la conscience, ce qui ne va pas sans faire grincer quelques dents. Mais s’intéresser à l’interconnexion entre physique fondamentale et conscience, n’est-ce pas risquer de convoquer automatiquement la pseudo-science, comme le soulignait (avec beaucoup d’autres physiciens) Scott Aaronson ? Les deux auteurs en question ne sont pas des charlatans ou des gourous quelconques, mais ce sont bel et bien des scientifiques reconnus. Et ce ne sont pas les seuls.

Que penser par exemple de cette phrase de Max Planck (qui s’y connaissait quand même un peu en physique quantique) : “Je considère la conscience comme fondamentale. Je vois la matière comme un dérivé de la conscience. Nous ne pouvons pas ignorer la conscience. Tout ce dont nous parlons, tout ce que nous considérons comme existant, postule la conscience.” Ou encore ce propos du prix Nobel Eugene Wigner (cité par le physicien Nick Herbert dans son livre Quantum Reality) : « Il n’est pas possible de former les lois de la mécanique quantique de manière totalement cohérente sans faire référence à la conscience… quelle que soit la manière dont nos futurs concepts pourront se développer, il restera important de remarquer que l’étude même du monde extérieur conduit à la conclusion que le contenu de la conscience constitue une réalité ultime. »

Une autre objection courante à ce genre d’idées serait que l’introduction de la conscience à la base de la physique ouvrirait la porte à toutes les hypothèses parapsychologiques : télépathie, précognition, psychokinésie. Il est vrai que cela rend ces phénomènes moins incroyables, mais cela ne signifie pas qu’ils existent pour autant. Et surtout, s’y intéresser n’est en rien une obligation. Si Glattfelder y consacre effectivement quelques pages (à peine 7 sur les 574 de la version la version pdf), Donald Hoffman ou Alexander Wendt (qu’on présentera bientôt), n’en parlent pas du tout. Quant à John Wheeler, le père de l’hypothèse de l’univers participatif présenté dans l’article précédent de ce dossier, c’était un grand adversaire de toutes les théories parapsychologiques, et il tenta même de faire exclure la parapsychologie de l’association des sciences américaines (il échoua).

« Calcule et tais-toi »


En revanche, une fascination pour le paranormal a largement influé sur les recherches du Fundamental Fysicks Group cofondé en, 1975 par Elizabeth Rauscher et George Weissmann.


Si l’influence de la contre-culture sur la cyberculture est désormais bien établie, celle qu’elle a exercée sur la physique fondamentale est encore assez mal connue. C’est pourtant la thèse de David Kaiser, très sérieux professeur d’histoire des sciences au MIT, auteur de l’ouvrage : How the Hippies Saved Physics : Science, Counterculture, and the Quantum Revival (2011), un livre au moins aussi important que celui de Fred Turner sur Stewart Brand. Il y retrace le parcours étrange de ce Fundamental Fysiks Group, une assemblée informelle de jeunes chercheurs qui mêlèrent allègrement théorie des quanta, spéculations parapsychiques et intoxication lysergique. Ce collectif, qui compta entre autres parmi ses membres Jack Sarfatti, Nick Herbert (blog), Fred Alan Wolf, Saul-Paul Sirag, John Clauser ou Henri Stapp, s’intéressa particulièrement aux phénomènes « non-locaux » propres à la physique quantique.

Pour Kaiser, le groupe revêt une importance historique qui ne peut être négligée si l’on veut comprendre l’histoire des recherches en théorie quantique. À l’époque, explique Kaiser, l’enseignement de la physique était largement sclérosé. Oui, les spécialistes calculaient sans sourciller en utilisant la non-localité (autrement dit le fait que la distance ne compte plus, et que des transferts d’informations peuvent se produire instantanément, à une vitesse supérieure à celle de la lumière), et d’autres propriétés tout aussi étranges des particules élémentaires comme l’étrange capacité d’un photon à se trouver à plusieurs endroits à la fois. Oui, ils étaient parfaitement au courant que de tels phénomènes contredisaient non seulement la relativité, mais aussi le sens commun le plus élémentaire. Et non, cela n’avait aucune importance, car il s’agissait pour eux, d’un pur formalisme mathématique. Le mot d’ordre, à l’époque, était « calcule et tais-toi » !

Au centre des intérêts de ce Fundamental Fysiks Group se trouvait une expérience de pensée particulière, nommée le paradoxe Einstein-Podolsky-Rosen (ou EPR), qui postule que si la physique quantique est vraie, deux particules élémentaires qui ont été en contact à un moment donné continueront à s’influencer mutuellement, et ce, instantanément, quelle que soit la distance existant entre elles. Cela implique qu’elles sont capables de communiquer entre elles plus rapidement que la vitesse de la lumière, ce qui est rigoureusement interdit par l’autre grande théorie fondatrice, la relativité. Einstein appelait ce phénomène « interaction magique à distance » et considérait cela comme impossible.

L’une des solutions serait de penser que les deux particules se sont « mises d’accord » avant même d’être séparées, comme s’il s’agissait par exemple d’une paire de chaussures : il y en a une pour le pied gauche et une autre pour le droit, et ce dès le départ : c’est ce qu’on appelle la théorie des « variables cachées ». L’autre possibilité, c’est que les deux particules communiquent à une vitesse instantanée, sans tenir compte de la vitesse de la lumière.

Einstein pensait que ce paradoxe prouvait que la théorie quantique était, sinon, fausse, au moins incomplète. Bohr lui répondait que l’essentiel était de constater que les résultats fournis par la théorie étaient justes et ne nécessitait pas de questionnement supplémentaire. « Calcule et tais-toi », encore…

Dans les années 60, un jeune physicien irlandais, John Bell, insatisfait de la réponse apportée par Bohr, se mit en devoir de calculer mathématiquement les possibilités que les particules partagent des variables cachées. Sa réponse, son théorème est sans appel : les variables cachées sont incapables d’expliquer aussi complètement le comportement synchronisé du système que ne le ferait la possibilité que la mesure de l’un interagisse instantanément avec le comportement de l’autre. Autrement dit, les deux éléments sont inséparables, et l’une des idées fondamentales de la physique et du sens commun, la notion de localité, s’effondre.

Le théorème de Bell aurait dû susciter un tollé, et les publications sur le sujet auraient dû se multiplier. Et pourtant, nous dit Kaiser, ce fut loin d’être le cas :

« L’article de Bell est paru (…) en novembre 1964. Et ensuite… rien. Aucune activité ou reconnaissance que ce soit. Le document de Bell, jugé digne de «l’attention de tous les physiciens» par les rédacteurs de la revue, ne reçut aucune citation dans la littérature pendant quatre longues années – puis il y eut ensuite une mention passagère dans un article d’une page. Lentement, lentement, des citations du papier de Bell ont commencé à apparaître, comme les cliquetis irréguliers d’un compteur Geiger : six en 1971, sept en 1972, trois en 1973. Un regain d’activité soutenue n’a commencé qu’en 1976, lorsque vingt à trente nouveaux articles sur le sujet ont commencé à apparaître chaque année. En 1980, 160 articles très respectables avaient été publiés dans la littérature de physique sur le théorème de Bell. »

Fait important, ces nouveaux articles tardifs citant le théorème de Bell étaient pour la plupart Américains : il n’y avait pas de raisons apparentes pour cela, rappelons que Bell était irlandais. En fait nous dit Kaiser, 2/3 desdits papiers américains provenaient de membres du Fundamental Fysiks Group.

En 1972, c’est l’un des membres du groupe, John Clauser, qui réussit la première validation expérimentale du théorème de Bell. Son travail présentait cependant plusieurs défauts, et c’est en 1981 que le physicien français Alain Aspect a pu prouver la réalité de la non-localité. En 2010, Clauser, Aspect et Anton Zeilinger (qui a poursuivi ce type de travail en téléportation quantique) se sont vu conjointement attribués le prix Wolf, la plus haute récompense en physique après le Nobel, qu'ils ont par la suite reçu en octobre 2022.

Jusqu’où peut mener le théorème de Bell ?


Les bizarreries impliquées par le théorème de Bell ne pouvaient que fasciner ces jeunes chercheurs, qui envisagèrent joyeusement quelques-unes des hypothèses les plus folles pour expliquer ce phénomène, comme une influence du futur sur le passé, une abolition complète du principe de cause à effet ou encore l’interrogation sur l’objectivité du monde extérieur. Le théorème de Bell ouvrait pour eux la porte à toutes sortes d’hypothèses parapsychologiques et Nick Herbert tenta même de créer une « machine quantique » susceptible de communiquer avec les morts. Selon ses propres mots, cette machine à écrire « métaphase » avait pour but de « transformer les processus quantiques incertains en un texte rédigé en pseudo-anglais. J’espérais que des esprits (vivants, morts ou inconcevablement autres) pourraient posséder cette machine et transformer son texte quantique aléatoire en une communication intelligible. » Ce qui n’a pas donné grand-chose, admet-il (à part « quelques synchronicités étranges« ), mais depuis, sa « machine » est devenue un élément d’une installation artistique de l’artiste australienne Lynden Stone.

Cet intérêt pour le paranormal chez des « physiciens « sérieux » peut prêter à sourire. Mais ce n’est pas si exceptionnel : au XIXe siècle, William Crookes (1832-1919) ne s’est-il pas passionné pour le spiritisme ? Quant au prix Nobel de physique Wolfgang Pauli, il a travaillé avec Carl Gustav Jung sur la théorie très paranormale de la « synchronicité« .

Ensuite, n’oublions pas qu’on était dans les années 70-80 et qu’à l’époque l’intérêt pour ce genre de chose était largement partagé jusqu’au plus haut niveau de l’État américain. L’armée américaine travaillait alors avec des « voyants » sur la « vision à distance » et d’autres « pouvoirs psychiques ».

Le film Les chèvres du pentagone avec George Clooney présente une version fictionnelle et parodique assez hilarante de cette époque (mais le film est adapté d’un livre de Jon Ronson, The men who Stare at Goats, qui n’est pas un roman, mais une enquête journalistique).


Les relations entre les membres du Fundamental Fysiks Group et les penseurs de la contre-culture étaient fortes ; d’ailleurs la principale source publiée sur ces aventuriers de la conscience fut longtemps l’autobiographie Cosmic Trigger, de Robert Anton Wilson, l’une des figures de proue du mouvement psychédélique. Ils figurèrent aussi souvent parmi les invités de l’institut Esalen, ce temple du « potentiel humain » d’où sont issues bon nombre des idées de la contre-culture et du New Age (à noter que c’est à Esalen que Gregory Bateson, le pionnier de la réflexion cybernétique en sciences humaines, a choisi de finir ses jours). En 1975, Francis Ford Coppola racheta le magazine City of San Francisco, et l’un des premiers numéros de la nouvelle formule, nous explique Kaiser, proposait un article consacré au groupe, avec une présentation très explicite, affirmant que les « nouveaux physiciens (…) étaient occupés à entrer en transe, travailler sur la télépathie, [et] puiser dans leur subconscient lors d’expériences afin d’obtenir une mobilité psychique ». Vers la même époque, plusieurs membres du groupe (Sarfatti et Sirag) écrivirent dans Spit in the Ocean, le magazine littéraire créé par Ken Kesey (auteur du Vol au-dessus d’un nid de coucous et créateurs des fameux Merry Pranksters, qui lancèrent la scène psychédélique californienne, et dont fit partie Stewart Brand – comme quoi tout est dans tout), dans un numéro consacré au « contact avec l’intelligence supérieure », dont le rédacteur en chef n’était personne d’autre que Timothy Leary, « pape » des hippies, qui travailla sur le magazine depuis sa cellule de prison. Sirag y écrivit notamment un article sur la « machine à écrire métaphase » et ses tentatives de contacts avec l’esprit de Harry Houdini, histoire qu’on peut retrouver sur le blog de Nick Herbert.

Les thèses du groupe allaient toucher le grand public à la fin des années 70. L’un des participants aux travaux de l’équipe, Fritjof Capra, en tira un best-seller influent, Le Tao de la physique. En Europe, le colloque de Cordoue, retransmis intégralement par France Culture, allait faire la part belle aux spéculations de ces physiciens… Bernard d’Espagnat, physicien français renommé accepta d’ailleurs une invitation de Herbert et Sirag à animer des ateliers à Esalen…

Pourquoi les hippies ont-ils sauvé la physique ?


On ne le répétera jamais assez, ces penseurs n’étaient en rien des pseudo-scientifiques. Il s’agissait de vrais physiciens (le livre de Nick Herbert, Quantum Reality, est toujours conseillé aux jeunes étudiants en université, nous dit Kaiser – et je dois dire que pour un néophyte comme moi, Quantum Reality possède une façon totalement inédite de présenter les faits de la physique quantique, sans maths et de façon très éclairante. Expliquer les ondes quantiques par le fonctionnement des synthétiseurs, il fallait le faire ! Je précise aussi qu’il s’agit d’un traité « classique », ne comportant aucune des thèses controversées du Fundamental Fysiks Group).

En s’interrogeant sur la signification des calculs, et en ne se contentant pas de les exécuter, en comprenant l’importance du théorème de Bell, ces hippies ont rouvert la voie aux tout nouveaux développements de la pensée quantique, notamment dans le domaine de la théorie de l’information ; c’est pourquoi, comme le dit le titre de Kaiser, « ils ont sauvé la physique ». De fait, c’est une hypothèse de Nick Herbert, qui donna naissance, via sa réfutation par d’autres scientifiques, au tout nouveau champ de la cryptographie quantique, qui introduira peut-être des changements fondamentaux dans notre système bancaire au cours des années à venir ! En science une bonne erreur peut parfois être plus fructueuse qu’une vérité triviale…

Un autre point intéressant de la thèse de Kaiser est son analyse des conditions socio-économiques qui ont donné naissance à un tel groupe de marginaux. Les années 60, explique-t-il, ont été une mauvaise période pour la physique fondamentale. En effet, c’était la « détente » avec le vieil ennemi soviétique ; auparavant, les travaux dans ce domaine avaient été fortement encouragés (et financés) par l’effort de défense et l’intérêt en matière d’armement atomique. Avec le réchauffement des relations Est/Ouest, les physiciens de la génération de Sarfatti, Wolf ou Herbert se sont retrouvés à la marge, obligés de se contenter de postes mal payés de maitres-assistants. Cela les a conduits à développer des idées non-conventionnelles, mais aussi à rechercher de nouvelles sources de financement, y compris chez des gens n’ayant guère de rapport avec la science, comme différents groupes New Age.

Tout cela est bien beau, mais nous ramène une fois de plus aux mythiques années 70. Ce genre d’idées, même si elles ont été fécondes, ont-elles des raisons de nous intéresser encore aujourd’hui ? Dans les deux précédents articles de ce dossier, on a vu que certains chercheurs continuent à donner à la conscience un rôle fondamental. Mais ce qui est nouveau et remarquable c’est qu’aujourd’hui ce genre d’idées commence à pénétrer dans les sciences humaines, ce qui n’était pas du tout le cas à l’époque.

 

samedi 27 août 2022

Le retour de la conscience (2/4) : de l’univers computationnel aux futures formes de cognition

 


Paru chez Springer dans la collection « Frontiers » au printemps 2019, Information-Consciousness-Reality est un livre étonnant à plus d’un égard. Tout d’abord parce que ce livre est en open access et, en plus de la version papier on peut télécharger des versions epub ou pdf. Oui vous avez bien lu, Springer publie des livres en open access ; ce doit être un signe de l’apocalypse ou un truc du genre.

Étonnant, il l’est aussi par son ambition : ce livre ne vise pas moins que proposer un « état de l’art » de notre connaissance actuelle du monde et de nous-mêmes. Agrémenté d’un nombre considérable d’équations (que l’auteur a eu la sagesse de placer dans des rubriques séparées, que j’avoue avoir sautées sans hésitation) et aussi d’une copieuse quantité de citations, le texte est également bourré d’hyperliens internes, qui permettent de naviguer en son sein comme dans un labyrinthe (ce qui, d’ailleurs, rend indispensable la possession d’une des versions électroniques).

Qui est son auteur ? Le chercheur James Glattfelder (@jnode) est apparemment surtout connu dans le domaine de la recherche en systèmes complexes et on peut trouver une vidéo TedX de lui sur les théories de l’économie et de la finance. Il y explore comment le pouvoir financier se retrouve concentré dans quelques mains, non pas en raison d’une quelconque conspiration, mais par le jeu des lois fondamentales de la théorie des réseaux. Mais ce sujet est peu abordé dans son ouvrage (sauf dans un chapitre et surtout à titre d’exemple sur la complexité).

Contrairement au livre de Donald Hoffman présenté précédemment, ce livre ne vise pas à présenter une théorie particulière. C’est plutôt, comme je l’ai dit, une tentative de survol encyclopédique.

Mais le livre n’en propose pas moins une thèse fondamentale (livrée dès le titre Information-Consciousness-Reality) et qui peut être résumée par cette phrase : « pourrait-il y avoir quelque chose que nous ne savons pas encore sur nous-mêmes et l’univers, et dont la connaissance changerait tout ? »

Et ce savoir à acquérir, pour lui, ça ne fait aucun doute, il concerne la conscience et son rôle au sein du cosmos. Mais cela, Glattfelder ne l’explore en fait que dans la dernière partie de son ouvrage. 

Les deux volumes du Livre de la Nature


La métaphore qu’il file tout au long du bouquin est particulièrement éclairante. Il reprend le bon vieux thème du « Livre de la Nature », ces compendium scientifiques médiévaux, mais, nous dit-il, ce Livre contient non pas un, mais plusieurs volumes. Le premier volume s’écrit dans un langage particulier, les mathématiques, ainsi que l’avait compris Galilée. Il couvre toutes nos connaissances en physique et en chimie, depuis la chute des corps jusqu’aux intrications de la physique quantique. Pourtant à un point ce Livre s’arrête. Le langage des mathématiques ne s’applique plus dès qu’on entre dans les domaines du vivant, de l’écologie, de la société, de l’esprit…

il faut alors passer au volume 2, celui qui traite de la complexité. Et là, le langage doit changer. On n’utilise plus les mathématiques, mais l’algorithmie. Le volume 2 du Livre de la Nature s’écrit sous la forme de programmes informatiques.
Mais, précise Glattfelder il existe deux « appendices » qui inversent les langages. Il est possible dans certains cas de décrire des comportements complexes sous la forme d’équations. Et il est également envisageable d’écrire le livre de la physique sous la forme de programmes. C’est la voie suivie par des gens comme Ed Fredkin ou Stephen Wolfram, et d’ailleurs, cette version particulière et marginale du Livre de la Nature va jouer un grand rôle dans la troisième partie du livre.

Tout auteur « sage » se serait arrêté là : ce qui ne peut s’écrire sous la forme d’équations peut l’être sous la forme d’algorithmes, ou le sera un jour prochain ; l’esprit humain est une fonction émergente d’un système complexe ; la conscience est elle aussi émergente, si tant est qu’on tienne absolument à ce qu’elle existe.

C’est pourtant là que Glattfeldder part dans une direction plus sulfureuse. Un interlude entre la deuxième et troisième partie fait l’inventaire de ce que nous ignorons. Et c’est assez clair : en fait nous ne savons pas grand-chose.

« • Pourquoi existe-t-il quelque chose ? Ne serait-ce que la vie et la conscience…
• Que puis-je apprendre, savoir et comprendre de la réalité ?
• Quelle est la véritable nature de la réalité ?
• Quelle est la véritable nature du courant subjectif de conscience que je considère comme étant « moi-même ? »

Rétrospectivement, si l’on se penche sur l’histoire de l’univers en 13,772 milliards d’années, une pléthore de coïncidences a guidé son évolution chaotique jusqu’à ce moment présent. À quoi ressemblerait l’univers aujourd’hui si l’on revenait en arrière jusqu’au Big Bang et qu’on laissait de nouveau les choses s’auto-organiser pour 13,772 milliards d’années ?
Et si l’on recommençait encore une fois ?
En un mot, les plus grands mystères de l’existence sont toujours aussi insaisissables. »

Et Glattfelder d’enfoncer le clou. Nos théories sont incomplètes, notre perception nous trompe (il cite d’ailleurs les travaux de Donald Hoffman, bien que le livre de ce dernier soit paru après le sien), nos biais sont multiples, et bien entendu le « problème difficile de la conscience » est très loin d’être résolu.

Si, comme je l’ai dit, le livre de Glattfelder ne défend pas une théorie précise, il tourne cependant autour d’une idée fondamentale : celle d’un cosmos basé sur l’information, ou pour employer une expression devenue célèbre, « it from bit ».

Un univers fait d’information


Cette idée de voir dans l’information la substance principale de l’univers nous vient, qui s’en étonnera, de la physique quantique. Dans l’article précédent, je mentionnais la théorie favorite de Donald Hoffman, le « bayesianisme quantique », qui postulait que l’univers était la somme des croyances de ses observateurs. Cette thèse est sans doute une variante de l’hypothèse d’un des plus grands physiciens du XXe siècle, John Archibald Wheeler, et sa thèse de l’univers participatif.

Pour Wheeler, en effet, l’univers n’est autre qu’une réponse aux questions de l’observateur. Et « sans questions, il n’y a pas de réponse« . Pour Wheeler, nous explique Glattfelder, le cosmos ressemble à une version un peu « hackée » du jeu des « 20 questions ». Dans sa forme originale, tout le monde connaît le jeu. Un joueur doit poser 20 questions pour découvrir l’identité d’un personnage choisi par les autres participants.

Mais dans cette nouvelle version, à l’insu du joueur, ses interlocuteurs n’ont pas préalablement choisi de personnage à deviner. Lorsque le joueur pose sa première question, on lui répond au hasard. Puis, au fur et à mesure, ses partenaires continuent à répondre de la même manière, avec toutefois une contrainte : il ne faut pas que les réponses contredisent celles qui ont été données précédemment. A la fin des 20 questions, un « personnage » est effectivement complètement décrit, qui n’existait pas au premier abord. Lorsqu’avec nos instruments sophistiqués, nous interrogeons l’univers quantique, nous agissons comme le joueur. Petit à petit, au fur et à mesure de nos questions, nous créons un monde cohérent, mais qui n’était pas là au départ.

Si réellement « It » (la matière), vient du « bit » (l’information), l’univers lui-même devient un gigantesque programme en développement, basé au départ sur un algorithme simple, mais favorisant l’émergence de formes de plus en plus complexes. C’est une idée développée par tout un ensemble de chercheurs en computation. Stephen Wolfram, par exemple, a déclaré une fois qu’à son avis le programme qui a donné naissance à l’univers pouvait ne tenir qu’en trois ou quatre lignes de Mathematica (autant faire la pub de son produit par la même occasion). Et rajoutait-il, ce pourrait être un programme assez peu intéressant. Glattfelder, lui, cite d’autres chercheurs, par exemple la phrase suivante du spécialiste de l'informatique quantique Seth Lloyd : « Non seulement l’univers enregistre et traite les informations à son niveau le plus fondamental, comme on l’a découvert au XIXe siècle, mais c’est littéralement un ordinateur : un système qui peut être programmé pour effectuer des calculs numériques arbitraires. »

Ou encore, toujours du même Lloyd : « … la théorie computationnelle de l’univers propose une

explication simple et directe sur comment et pourquoi l’univers est devenu complexe. L’histoire de l’univers en termes de révolutions du traitement de l’information, chacune découlant naturellement de la précédente, montre d’emblée les raisons pour lesquelles un univers informatique engendre nécessairement de la complexité. En fait, nous pouvons prouver mathématiquement qu’un univers qui calcule doit, avec une probabilité élevée, donner lieu à un ensemble de structures de plus en plus complexes. »

Cette vision d’un cosmos constitué d’information amène Glattfelder à remettre en question la métaphore qui jusqu’ici constituait la base de son livre : « Peut-être que la métaphore du Livre de la Nature (…) contenant toutes les connaissances du monde – dans un langage abstrait formel – était-elle une pensée erronée. Il semble qu’au cœur de la réalité, nous trouvons un moteur computationnel qui doit être alimenté par l’information. En conséquence, le «Livre de la Nature» devrait être plus proche d’un outil informatique dans lequel sont codés les algorithmes de la réalité. Les « pages » physiques et statiques seraient remplacées par un «affichage» dynamique et fluide. »

Et la conscience dans tout cela ? Pour Glattfelder elle représente l’autre face de l’information. Même s’il ne met pas en avant une théorie particulière, on sent la préférence de l’auteur pour le « panpsychisme » qui associe systématiquement une conscience à la matière, mis à part que chez lui, le mot « matière » gagne à être remplacé par « information ». Il imagine que le monde est un acte de co-création : « les aspects extérieurs de l’information créent les aspects intérieurs et vice-versa – le physique crée l’esprit, qui crée le physique, etc.  »

Vers de nouvelles formes de cognition ?


Jusqu’ici, Glattfelder s’est contenté d’ontologie, et comme dit Hoffman, la science ne se préoccupe pas d’ontologie. Mais il franchit définitivement les limites de la respectabilité en suggérant la possibilité d’accéder à des formes supérieures de cognition, au-delà des modes de pensée rationnels traditionnels de la méthode scientifique. Serait-il possible que notre compréhension du monde puisse s’accroître par l’accès à de nouveaux modes de pensée ? Et comment ?

Glattfelder s’introduit dans un débat assez ancien représenté par deux positions opposées, celle de l’astrophysicien Martin Rees, ancien président de la vénérable Royal Society, et celle de David Deutsch(@DavidDeutschOxf), le pionnier de l’informatique quantique et chantre de la rationalité dans son livre Le Commencement de l’infini.

Grosso modo, Rees pense que notre cognition est limitée et nous empêche de comprendre la nature de l’univers ; une position très bien exprimée il y a longtemps par le biologiste JBS Haldane, qui affirmait dès 1927 que « l’univers n’est pas seulement plus bizarre que ce que nous imaginons, il est plus bizarre que ce que nous pouvons imaginer ». Pour Rees, les êtres conscients de demain, que ce soient des machines ou des êtres organiques, posséderont une cognition plus avancée (on trouvera ici une citation exprimant plus complètement cette idée). A l’opposé, David Deutsch considère les êtres humains comme des « explicateurs universels« . L’intelligence ne se quantifie pas. Dès qu’un être conscient est capable de penser, il entre dans un « commencement de l’infini ». La pensée – et notamment la pensée rationnelle, conduite par la méthode scientifique – ne peut connaître, intrinsèquement, de limites.

On sent bien que Glattfelder penche plutôt pour Rees. Pour lui, la philosophie de Deutsch est au final limitée, ne prenant pas en compte la possibilité de changement radical de la conscience humaine.

« Cette vision spécifique de la réalité et de l’esprit humain proposée par Deutsch est une vision du monde statique. L’intelligence que nous connaissons aujourd’hui existera toujours à l’avenir. Fondamentalement, nous avons atteint le summum de toute compréhension potentielle. Notre cerveau a atteint un seuil lui permettant de sonder la réalité d’une manière qui générera pour toujours des explications universelles au sujet de l’univers et de nous-mêmes.

Une telle idée rejette la possibilité imaginée par Rees. À savoir que cette intelligence est encore en cours de développement, ce qui entraîne de futures variations que nous ne pouvons même pas imaginer et que la plupart des gens ne pourraient probablement même pas reconnaître. Ou même la possibilité que de futures manifestations de la conscience puissent accéder à de nouveaux domaines de l’existence (…). De nouveaux royaumes de la réalité, auparavant inconnus de la plupart des esprits, attendent d’être explorés. Des réalités qui défient la conceptualité conventionnelle et les modes de pensée traditionnels. Peut-être maintenant l’idée d’une ontologie insondablement plus vaste et plus riche semble moins déraisonnable. Une ontologie qui ne peut être détectée et éventuellement saisie que si notre conscience passe à la vitesse supérieure et accède à de nouveaux niveaux de cognition transcendant les concepts classiques de l’explication, de la compréhension et de la connaissance.

Peut-être que non seulement «l’univers est plus étrange que nous pouvons l’imaginer», mais ce serait aussi, de manière cruciale, le cas de notre propre esprit. Après tout, si Deutsch est prêt à développer son idée d’explications universelles pour y inclure les concepts évolutifs et transcendants de la génération de connaissances, également imputables à l’esprit humain, le conflit apparent peut être résolu. »

En fait, cette idée que « notre esprit puisse être plus bizarre que nous pouvons l’imaginer » est le point clé de la dernière partie du livre. Tout d’abord cela donne à l’argument de Martin Rees une connotation optimiste, qu’on ne trouve pas d’habitude chez ceux qui le défendent (et c’est d’ailleurs ce qui énerve tant Deutsch). En effet, dans la plupart des cas, cela consiste à admettre que l’être humain est intrinsèquement limité et qu’il est donc condamné à être remplacé par des entités plus efficaces généralement d’origine artificielle. C’est un point de vue souvent partagé par les singularitariens adeptes de la superintelligence.

En faisant de l’esprit humain un territoire aussi étrange que le monde qui nous entoure, Glattfelder redonne une dignité à notre esprit. Il permet de récupérer l’idée du « commencement de l’infini ». Mais ce faisant, il entre dans un terrain dangereux et généralement peu apprécié des scientifiques.

Jusqu’à la page 529 de la version pdf, Information-Consciousness-Reality apparaît comme un bouquin de science « normale », même s’il est un peu extrémiste : l’univers participatif, la complexité, les limites de la connaissance, le caractère informationnel de l’univers et même la possibilité d’un panpsychisme, tout cela reste assez fréquent dans la littérature spécialisée. Puis, pouf, c’est quand on atteint la lisière du chapitre 14 que les drogues commencent à agir.

Car à partir de ce point, Glattfelder commence à s’interroger sur ces formes de conscience susceptibles de nous procurer ces nouveaux types de cognitions. Et son intérêt va vers les psychédéliques, les produits comme la psilocybine, le LSD la mescaline, et surtout, le DMT qui nettoient selon lui les portes de la perception, selon l’expression consacrée qu’Aldous Huxley emprunta à William Blake.


Si les hippies des années 60 ont surtout trippé sur le LSD et les champignons, le DMT connait une vogue plus récente. Cette molécule est le composant actif de l’ayahuasca, cette boisson hallucinogène utilisée par les chamans amazoniens, mais elle existe aussi sous une forme synthétique beaucoup plus pure et puissante. C’est aussi le seul psychédélique endogène, autrement dit susceptible d’être produit spontanément par le cerveau. Certains chercheurs pensent que le DMT pourrait jouer un rôle dans le rêve ou dans certains états de conscience extrêmes, comme les expériences de mort imminente (le tunnel avec la lumière au bout et tout ça).

Selon ceux qui l’ont testé, et notamment ceux qui ont reçu de fortes doses par injection, comme les sujets de Rick Strassman, le chercheur qui a publié l’ouvrage de référence sur cette molécule, le DMT se caractérise, par rapport aux autres psychédéliques, par ses visions « hyper-réelles ». L’expérimentateur est persuadé d’accéder à un autre monde et parfois même d’y rencontrer ses « habitants » des « aliens » que Terence McKenna, adepte du néochamanisme fameux dans les années 90, nommait les « elfes-machines ».

Glattfelder rapporte que selon certains utilisateurs, le DMT permettrait de percevoir le « noumène » dont partait Kant, et affirment accéder, grâce à la drogue, à « la salle de contrôle de la réalité ». Et de tels produits pourraient effectivement donner accès à de nouveaux types de connaissance.

Bon, diront certains, tout ça commence à sentir un peu fort l’encens et le patchouli ! Le mélange de physique quantique et de psychédélisme, voire de mysticisme oriental, suggère immédiatement un côté New Age dont on est spontanément enclin à se méfier. Récemment encore, en me promenant dans une grande librairie, j’ai vu un ouvrage sur « la conscience quantique » dont je n’ai guère eu l’envie d’explorer le contenu… Et on ne peut s’empêcher de penser au « webcomic » de Scott Aaronson et Zach Weinersmith qui se termine (ironiquement) par la phrase « Quantum computing and consciousness are both weird and therefore equivalent » (« l’informatique quantique et la conscience sont toutes les deux bizarres et sont donc équivalentes »).

Pourtant avec des bouquins comme celui de Glattfelder (ou celui d’Hoffman, ou encore celui, comme on le verra bientôt, d’Alexander Wendt) on est manifestement un niveau bien au-dessus des publications New Age. Tous ces auteurs possèdent un niveau de rigueur, de connaissances et de références académiques qui méritent qu’on les écoute avec attention.

De fait, cette mise en relation entre physique quantique et conscience possède une histoire assez riche et passionnante et a été défendue par des scientifiques de haut niveau, et s’est particulièrement développée au cours des années 60-70. Comme on va le voir, la contre-culture de l’époque n’a pas seulement joué un rôle dans l’avènement de l’informatique, elle a aussi laissé des traces dans l’histoire de la physique fondamentale. Et ce genre de théorie ne possède pas seulement un passé, mais peut être aussi un avenir, puisqu’elle commence à s’introduire dans certaines réflexions sur les sciences humaines.

vendredi 19 août 2022

Le retour de la conscience (1/4) : la sélection naturelle nous cache tout !

En toute logique, on devrait penser que la sélection naturelle a tendance à favoriser les organismes capables de percevoir au mieux la réalité. De toute évidence, si j’ai un meilleur accès à ce qui m’entoure, je devrai survivre plus aisément et donc avoir plus de rejetons, non ? Et pourtant, pour le cognitiviste Donald Hoffman (@donalddhoffman), professeur de sciences cognitives à l’université de Californie, ce n’est pas le cas. Il a exposé ses travaux dans un article pour le New Scientist et a sorti un livre,  The Case Against Reality. Il a également donné en 2016 une interview assez complète au magazine Quanta.

Pour vérifier le rapport entre perception de la réalité et survie, Hoffman a lancé des simulations opposant deux types d’organismes virtuels. Certains étaient capables d’avoir une perception plus précise de leur réalité simulée, d’autres au contraire ne disposaient que d’indications très parcellaires sur la valeur de survie des objets qui les entouraient. Et surprise, ce sont ces derniers qui se sont le mieux reproduits et ont survécu.

L’adaptabilité contre la vérité



Imaginons, nous explique-t-il, une créature ayant besoin d’une ressource donnée. Si elle n’en dispose pas suffisamment, elle meurt. Mais s’il y en a trop, elle meurt aussi. L’exemple qu’Hoffman donne dans Quanta Magazine est simplement celui de l’eau. Pas assez, vous mourez de soif ; trop, vous vous noyez. Imaginons que cette même créature ne possède qu’un système perceptif très limité, capable simplement de distinguer le noir et le gris. Maintenant, créons deux « races » différentes, « vérité » et « adaptabilité ». La première perçoit la vérité. Elle voit du gris s’il y a peu de ressources, et du noir s’il y en a beaucoup. La seconde perçoit le noir et le gris en fonction, si l’on peut dire, des « points de vie » que l’emplacement peut procurer. Autrement dit, si aller dans l’emplacement contenant la ressource est bon pour l’organisme, et ou si au contraire cela va nuire à sa santé. Dans ce cas, la créature verra du gris si elle récupère peu de points, du noir si elle en récupère beaucoup.

En conséquence, continue Hoffmann, chaque fois que la créature « vérité » voit du noir, elle prend un risque : peut-être touchera-t-elle le gros lot, mais elle pourra aussi faire une « overdose » qui réduira sa durée de vie et donc ses chances de reproduction. « Adaptabilité », elle, saura que les zones grises sont à éviter, et les noires à rechercher. Mais elle ignorera ce que contient véritablement la zone grise. « Voir la vérité cache l’adaptabilité, et voir l’adaptabilité cache la vérité« , écrit Hoffman. Dans toutes les simulations, la race « vérité » s’éteint pour laisser la place à sa concurrente « adaptabilité ».

Selon Hoffman, cela est a été démontré mathématiquement, ainsi qu’il l’explique dans Quanta : « Le physicien et mathématicien Chetan Prakash a démontré un théorème que j’ai conçu et qui dit : selon l’évolution par sélection naturelle, un organisme qui voit la réalité telle qu’elle est ne sera jamais plus adapté qu’un organisme d’une égale complexité qui ne voit rien de la réalité, mais qui est simplement conçu pour l’adaptabilité. Jamais. »

Hoffman ne se contente pas de dire que nous n’avons qu’une vision parcellaire de la réalité. Ce serait trivial et tout le monde le sait déjà : on ne peut pas percevoir les infrarouges, par exemple. Non, il va beaucoup plus loin. Il affirme que la réalité que nous percevons est une pure construction élaborée pour notre survie, qu’il n’existe pas de lien entre l’objet perçu et l’objet réel. Pour lui, le monde extérieur existe bel et bien, mais il ne présente aucun rapport avec ce que nous croyons percevoir. Et cela s’applique non seulement aux objets du quotidien, mais à nos catégories mentales de base, l’espace et le temps notamment. Elles aussi ne sont que des constructions adaptées à la survie.

Cette remise en cause de la réalité est une conséquence, selon Hoffman, de ce qu’il appelle « l’acide du darwinisme universel ». Il utilise cette appellation en référence au livre du philosophe des sciences Daniel Dennett, Darwin est-il dangereux ?. Ce darwinisme est universel, parce qu’il ne se limite pas à la transmission des gènes, mais apparaît comme un processus de base derrière l’ensemble des phénomènes, que ce soit la psychologie et la sociologie (avec la mémétique) mais aussi avec des domaines très éloignés de la biologie comme la cosmologie (avec par exemple la thèse du physicien Lee Smolin, qui affirme qu’il existe une « sélection naturelle » des univers en fonction de leur capacité à créer des trous noirs, qui sont en fait des « bébés univers »). Et ce darwinisme est un acide parce qu’il attaque toutes nos préconceptions : c’est une « idée dangereuse » ! Avec ses travaux sur la perception du réel, pour Hoffman, cet « acide » s’attaque maintenant à l’ensemble de notre structure mentale, y compris aux notions d’espace et de temps qui sont indispensables au darwinisme tel qu’on l’entend habituellement, ce qui évidemment constitue un paradoxe qu’Hoffman essaie de résoudre dans son livre.

Par exemple on peut exprimer l’espace en fonction des calories dépensées. Si je vois une pomme plus éloignée qu’une autre, il me faudra dépenser plus de calories pour l’atteindre, ce qui nuira à ma survie (mais évidemment, « calories » est une autre construction mentale…).

Le bureau du Réel


Hoffman nomme son hypothèse la « théorie de l’interface » ; autrement dit, nos perceptions sont analogues au bureau d’un ordinateur. Les icônes sur lesquelles nous cliquons n’ont rien à voir avec la réalité qu’elles recouvrent, c’est-à-dire un ensemble de circuits activés au sein de la machine. Elles nous permettent d’agir, mais elles ne représentent pas la réalité, au contraire ! Elles servent à la masquer, à nous permettre de ne pas nous en occuper, car si nous devions connaître l’état exact de la structure matérielle de notre fichier, les bits sur notre disque dur ou dans la mémoire centrale, nous aurions renoncé depuis longtemps à l’informatique ! Quant à l’espace et le temps, ils ne constituent, selon Hoffman, que la structure de base de ce « bureau ».

La métaphore de l’interface permet aussi à Hoffman de répondre à une objection commune : si le lion ou le serpent qui m’attaque ne sont qu’une icône, lui répond-on, pourquoi les craindrais-je ? Après tout ce ne sont que des représentations symboliques, des icônes, elles ne présentent aucun danger pas vrai ? Mais, répond-il, c’est le produit d’une confusion fréquente : entre « prendre quelque chose au sérieux » et « y croire littéralement ». Je sais bien, explique-t-il, que l’icône sur mon bureau n’est pas mon fichier. Mais j’éviterai de la placer dans la corbeille parce que je sais qu’à ce moment que je perdrai tout mon travail. Je prends l’icône au sérieux. Mais je ne l’identifie pas à la réalité.

On pourrait trouver une ressemblance entre les thèses d’Hoffman et le fameux "argument de la simulation" . Mais ce dernier postule une intelligence externe qui aurait « construit » une réalité virtuelle dans laquelle nous évoluons. Ici, c’est la sélection naturelle elle-même qui crée la « simulation ». Pas besoin d’imaginer un super-programmeur.

A première vue, tout cela ressemble à une réactualisation des théories de Kant. Celui-ci distinguait en effet le monde du « noumène » des choses telles qu’elles sont réellement, et celui des « phénomènes », les objets tels qu’ils nous apparaissent. Hoffman affirme tout au long de son livre qu’il n’est pas « solipsiste« , mais qu’il pense que le monde extérieur existe réellement, donc il semblerait bien qu’il s’aligne sur ce point de vue. Il faut, en fait, attendre le dernier chapitre de son ouvrage pour qu’il nous explique qu’il n’en est rien. Si les objets n’existent pas en tant que tels, qu’est-ce qui reste ? Pour lui, la seule chose dont nous pouvons être sûrs, c’est la conscience elle-même.

Dans son article du New Scientist, Hoffman avoue sa sympathie pour la théorie quantique bayésienne, qui explique les paradoxes de la physique quantique par le fait que notre représentation de l’univers est le produit des croyances de ceux qui l’observent. Pour Hoffman, en effet, il n’existe que des acteurs conscients : l’ensemble de notre univers est constitué par un « réseau social » d’acteurs conscients. Le monde « nouménal » pour rester dans le vocabulaire de Kant, n’existe donc pas sous la forme « objective », même inconnaissable. Il n’y a que des consciences et des interactions entre les consciences.

Ces différents « agents conscients » sont susceptibles de se combiner entre eux pour créer des agents d’un niveau de complexité supérieur. Mais au plus bas de l’échelle, on trouve des agents conscients dotés d’un « bit unique ». Ceux-ci ne disposent que d’un catalogue de deux actions possibles, et de deux « expériences » disponibles.

Évidemment, Hoffman ne pouvait manquer de réagir au débat actuel sur l’IA et sur la possible naissance d’une « machine consciente ». Sa réponse est assez surprenante, parce qu’on pourrait penser que le paradigme actuel de l’IA (la conscience émerge à partir d’interactions matérielles et n’est donc pas à la base de toutes choses) le rendrait plutôt rétif à embrasser ce genre de spéculation. Mais pas du tout, à condition de comprendre que ce n’est pas la machine qui est consciente, celle-ci n’est autre qu’une icône, mais qu’elle peut constituer un « portail » vers la conscience.

Ainsi, un rocher n’est pas conscient, c’est juste une icône qui fait partie de mon expérience consciente. Cela ne s’applique pas qu’aux objets inanimés : « Quand je vois mon ami Chris, écrit-il, je fais l’expérience d’une icône que je crée, mais cette icône elle-même n’est pas consciente. Mon icône Chris ouvre un petit portail vers le riche monde des agents conscients ; une icône souriante, par exemple, suggère un agent joyeux. Quand je vois un rocher, j’interagis aussi avec des agents conscients, mais une icône « rocher » ne m’offre aucun indice, aucun portail vers leur expérience. » Et l’IA, donc ? Elle permettrait, selon Hoffman « d’ouvrir de nouveaux portails vers la conscience, tout comme les microscopes et les télescopes ont ouvert de nouvelles perspectives de notre interface ».

Pour autant, la thèse d’Hoffman n’est pas un panpsychisme. Cette hypothèse rendue notamment célèbre par les neuroscientifiques Giulio Tononi et Christoph Koch postule que la conscience est en quelque sorte la face cachée de la matière. Dès qu’il y a un objet matériel, il y a conscience, même si celle-ci est très primitive, comme celle que pourrait avoir un électron ou un quark. Lorsque ces éléments matériels s’organisent d’une certaine façon (Tononi affirme même obtenir un nombre mesurant cette capacité d’organisation, qu’il nomme Phi), des consciences de plus en plus élaborées apparaissent. Mais pour Hoffman, les panpsychistes tiennent les réalités matérielles pour objectives, alors que pour lui-même les atomes et les quarks sont des constructions de l’esprit. Il n’est pas enthousiaste non plus des thèses de Penrose et Hameroff qui affirment que la conscience est le produit d’une computation quantique qui se produirait à l’intérieur des « microtubules » situés dans nos neurones. Une telle hypothèse, affirme-t-il ne résout en rien le problème de l’apparition des expériences de conscience, qui restent toujours aussi mystérieuses.

La conscience partout…


Et comment Hoffman explique-t-il la conscience ? En fait, il n’a pas besoin de l’expliquer puisqu’elle devient le constituant fondamental de l’univers, sa base unique. Comme il l’indique dans son livre, le rasoir d’Occam suggère que l’explication la plus simple est que toutes choses est un monisme : l’existence d’une seule et unique cause, ou substance, à l’origine de l’ensemble des phénomènes. Le monisme le plus en cours aujourd’hui dans la communauté scientifique est le physicalisme, c’est-à-dire que toute chose émerge à partir de l’unique constituant qu’est la matière (et tant pis si cette dernière est de plus en plus difficile à définir au fur et à mesure qu’on approche du niveau quantique). Mais un autre monisme est tout aussi possible et efficace, celui-ci consiste justement à placer la conscience en bas de l’échelle des phénomènes. Ce qui ne remet en rien en cause la méthode scientifique ou les connaissances que nous possédons actuellement. Comme l’explique Hoffman, il s’agit d’un choix d’ontologie, et la science, en principe, ne se préoccupe pas d’ontologie.

Jusqu’où peut-on suivre les thèses d’Hoffman ? Sa théorie est assez extrême il faut bien le dire. De plus, il faut faire la différence entre son argument principal (la sélection naturelle nous masque la réalité) et son idée selon laquelle le monde est constitué par un réseau social d’acteurs conscients. C’est une explication intéressante, mais elle n’est pas la seule imaginable, et Hoffman est d’ailleurs le premier à admettre qu’il ne s’agit que d’une hypothèse de travail.

En tout cas, cette théorie a l’avantage de supprimer le « difficile problème de la conscience » comme l’a nommé le philosophe David Chalmers : le fait que notre connaissance des neurosciences ne nous permette pas de comprendre l’existence de notre expérience consciente, et ne permettra pas de le faire, même si, dans un futur proche ou lointain, nous établissons une corrélation entre toutes les activités neurales et tous nos états mentaux. La théorie d’Hoffman (et d’autres que nous allons examiner dans ce dossier) élimine le problème puisque la conscience se retrouve à la base de toutes choses. Petit inconvénient, c’est l’existence d’un peu tout le reste qui devient un problème difficile à résoudre. 

En tout cas, à tout prendre je trouve ce genre d’hypothèses « idéalistes » moins difficiles à avaler que les hypothèses éliminativistes qui postulent l’inexistence de la conscience. Alors, que, sans vouloir jouer à Descartes le fait que je sois conscient reste à peu près la seule chose dont je puisse être sûr.

Toujours est-il que les idées d’Hoffman s’inscrivent dans un courant d’idées pas si nouveau, mais qui connaît aujourd’hui une résurgence chez différents chercheurs, travaillant chacun dans des disciplines différentes, que ce soit la physique, la complexité ou même les relations internationales…



mercredi 8 juin 2022

Sommes nous des holobiontes ?

 

Aujourd’hui tout le monde parle du microbiome. Nous savons que les bactéries que nous hébergeons dans notre corps sont non seulement partiellement responsables de notre physiologie, de notre santé, mais aussi de certains aspects de notre psychologie. Mais peut-être ne suffit-il pas de constater ce rôle important. Peut-être ce microbiome nous amène-t-il à reconsidérer complètement notre vision du vivant ? En effet, si les colonies de bactéries qui peuplent notre corps remplissent des fonctions si importantes, est-il encore légitime de conserver notre vision classique de l’organisme comme entité unique ? N’avons-nous pas plutôt affaire à quelque chose de plus collectif ?

Une nouvelle conception de l’évolution


C’est là qu’entre en jeu le concept d’holobionte.

L’holobionte, c’est un « méta-organisme » constitué de plusieurs êtres vivants différents. Dans Aeon, le biologiste et philosophe des sciences Derek Skillings (@DerekSkillings) nous explique la double origine de la notion. Le mot a été utilisé pour la première fois en 1991 par Lynn Margulis, la célèbre biologiste spécialiste de la symbiose, qui a utilisé le terme d’holobionte pour décrire une créature issue de la collaboration entre deux espèces. Mais parallèlement, Forest Rohwer, spécialiste du corail, a employé ce terme pour designer un hôte et l’ensemble des espèces microbiennes associées.

Dans les années 2000, un nouveau concept a vu le jour, celui de l' »hologénome » : c’est-à-dire le génome de l’hôte et de tous les organismes qui lui sont associés.




Avec l’apparition de l’hologénome, c’est toute notre conception de l’évolution qui demande à être révisée. En effet, la théorie actuelle se base sur l’idée de la sélection naturelle des individus. Celui qui est le plus adapté passe ses gènes à sa descendance et c’est ainsi que se créent les nouvelles espèces et que l’évolution se produit. Certains biologistes, à la suite de Richard Dawkins, sont encore plus réductionnistes ; ce n’est pas au niveau de l’individu que se produit la sélection, c’est au niveau du gène. Les différents organismes ne sont qu’un moyen de transporter ces gènes, un simple véhicule : c’est la fameuse thèse du gène égoïste.

Mais l’idée de l’hologénome va dans le sens inverse du réductionnisme. Ce ne sont pas les gènes d’un seul organisme qui subissent la loi de la sélection naturelle, ce sont ceux de toute une population d’êtres vivants.

Cela implique-t-il de changer notre vison de la théorie darwinienne ? C’est la question que se pose Jon Lambert (@evolambert) dans l’excellent magazine en ligne Quanta. Ce qui évolue de génération en génération, ce ne serait pas l’organisme, ni même le génome, ce serait l’hologénome, les génomes cumulés de toutes les espèces peuplant l’holobionte.

Mais la question de l’hologénome est loin d’être tranchée. Pour qu’il y ait sélection sur l’holobionte, il faut tout d’abord qu’il y ait un passage de l’hologénome à la descendance : est-ce vraiment le cas ? Dans une certaine mesure, oui, mais avec des limites. Il y a bien un passage de bactéries de la mère à l’enfant lors de l’accouchement (du moins lorsqu’il est effectué sans césarienne). Et cet apport se continue dans les premiers mois après la naissance. Mais on ne peut pas parler d’une transmission précise de l’hologénome, avec la même exactitude que dans le cas classique, où l’on sait avec certitude qu’un enfant aura la moitié des gènes de son père et la moitié de ceux de sa mère (et ses mitochondries auront 100 % du génome des mitochondries de la mère). Il s’agit de quelque chose de beaucoup plus flou d’un point de vue statistique… Et bien sûr, le microbiome change avec le temps, influencé par l’environnement et le mode de vie… Pour ceux qui rejettent l’holobionte comme nouvelle unité de sélection, il faut considérer ce dernier comme une communauté écologique et non comme une espèce de super-organisme.

Faut-il alors abandonner toute idée d’une évolution des holobiontes ? Peut-être pas, continue l’article de Quanta, qui mentionne une nouvelle théorie, baptisée ITSNTS, pour « it’s the song, not the singer » (« c’est la chanson, pas le chanteur »), élaborée par Ford Doolittle et Austin Booth.

Les chercheurs reconnaissent qu’il n’existe pas de passage précis de la faune microbienne d’une génération à l’autre ; au fur et à mesure que le temps passe, les populations bactériennes changent. Mais ces microbes, précisent-ils, remplissent une fonction précise au sein de la communauté de l’organisme. Et il existe des tas d’espèces de microbes capables d’accomplir la même tâche. Et, affirment-ils, ces fonctions se reproduisent d’une génération à l’autre de façon étonnamment stable. Autrement dit, ce qui est sélectionné par l’évolution n’est pas tel ou tel microbe, mais le rôle qu’il endosse. Un peu à la manière dont une même chanson peut être interprétée par une multitude d’artistes différents : elle n’en garde pas moins son identité.

Ainsi, nous explique Quanta  : « Doolittle illustre l’idée en utilisant le cycle de l’azote. L’azote atmosphérique passe par une série d’états chimiques sous l’effet de l’action d’un large éventail de bactéries, de plantes et de décomposeurs, tels que des champignons effectuant différentes réactions. Chaque étape du cycle peut être réalisée par d’innombrables espèces appartenant toutes à une sorte de «guilde fonctionnelle», mais le processus lui-même reste remarquablement stable. »



Si Doolittle a raison, la transformation de l’idée de sélection irait encore plus loin que le remplacement du génome par l’hologénome. La notion de sélection devient beaucoup plus abstraite, concerne les processus et non plus les gènes ou même les organismes : « Cela renverse les façons traditionnelles de penser à l’évolution. La base matérielle des lignées passe au second plan. »

Superorganisme ou écosystème ?


Dans Aeon, Derek Skillings se pose la question fondamentale : est-ce que je suis un holobionte ? Cela dépend, explique-t-il, de la vision qu’on a du concept. Soit l’holobionte est un organisme (ce que Skillings nomme « la vision évolutionniste »), soit c’est une communauté ; c’est la vision « écologique ». Loin d’être purement théorique, une telle question a des répercussions importantes, en médecine, notamment. « Dans la conception écologique, les holobiontes sont perçus comme des écosystèmes complexes et dynamiques, en constante évolution, façonnés par les interactions individuelles, de bas en haut. Donc, vous faites partie d’un holobionte. Mais cela s’oppose au récit évolutionniste, qui conçoit les holobiontes comme des entités de haut niveau, apparentées à des organismes ou à des unités de sélection, et considère qu’ils sont construits comme un tout, de haut en bas. Selon ce point de vue, vous êtes un holobionte. »

Ce qui implique deux conceptions différentes de l’holobionte, et suggère deux stratégies : « La théorie de l’évolution prédit que les parties d’une unité de sélection auront tendance à coopérer : à sacrifier leurs propres intérêts pour le bien de tous. La théorie écologique, au contraire, prédit la concurrence et l’exploitation : les parties ne coopéreront que dans la mesure où elles en tireront avantage. Pensez à la différence existant entre une colonie de fourmis et un assortiment hétéroclite d’insectes se disputant des ressources rares. »

Jusqu’ici, explique Skillings, la médecine a considéré que l’organisme était une unité qui devait lutter contre des adversaires venus de l’extérieur. Selon la perspective « évolutionniste » si donc nous sommes des holobiontes, la problématique reste grosso modo la même, avec un degré de sophistication supplémentaire. « C’est juste que nous avons un peu plus d’alliés », précise-t-il. Une perspective évolutionniste sur l’holobionte pourrait par exemple nous encourager à chercher à retrouver notre ancien microbiome, celui de l’époque paléolithique, car nous récupérerions ainsi une partie de nous-mêmes.

Au contraire, la vision écologique ne peut permettre une telle séparation dualiste entre l’organisme – fût-il « holo » ou « classique » – et son environnement. Dans un système écologique, il n’y a pas de méchants, affirme Skllings. Le rôle de la médecine de demain devrait alors consister à assurer la stabilité de l’écosystème complexe. Pour Skillings, il semblerait que la vision écologique apparaisse pour l’instant comme un peu plus juste que la conception évolutionniste, mais le débat est loin d’être tranché.

Ce qui est sûr en tout cas, c’est que l’apparition du concept d’holobionte ne fait que confirmer l’importance des sciences de la complexité dans notre compréhension du monde.

lundi 6 juin 2022

Quelle vie, ailleurs ?

 

Dans un article précédent, on a fait la connaissance avec Steven Benner, qui travaille depuis longtemps sur les formes artificielles d’ADN. Dans le Journal of Design and Science du MIT, il a participé à un long entretien avec l’historien des sciences Luis Campos, sur la nature de l’astrobiologie et sur les formes alternatives que peut prendre le vivant.

Pour Benner, une vraie réflexion sur la vie extraterrestre doit commencer par un travail sur la chimie. Il souligne que dans cette science, il existe deux procédés fondamentaux. L’analyse et la synthèse. L’analyse consiste à comprendre les constituants d’un produit déjà existant. La synthèse au contraire, vise à construire un nouveau composé, une nouvelle molécule à partir d’éléments de base. On considère en général la synthèse sous l’angle technologique, mais on oublie de préciser, nous dit Benner, qu’il s’agit avant tout d’un instrument pour la recherche. En effectuant la synthèse d’un produit, on peut vérifier la validité une théorie sur la composition des éléments et leurs interactions.
Si la synthèse est un succès alors c’est que la théorie est correcte.

Ce n’est pas un procédé disponible dans toutes les sciences. « Les astronomes, par exemple, ne peuvent pas synthétiser une nouvelle étoile pour tester une théorie sur les étoiles. Jusqu’aux 30 dernières années, les biologistes ne pouvaient pas synthétiser de nouvelles formes de vie pour tester leur compréhension de la vie. L’une des raisons pour lesquelles la chimie a progressé si rapidement est sa capacité à créer de nouvelles matières chimiques. »

Lorsqu’on s’intéresse aux formes de vie alternatives, la synthèse peut être un outil fondamental. Mais, précise Benner le but n’est pas simplement de reproduire la structure exacte d’un être vivant très compliqué. Le but d’un tel travail est de voir s’il existe des nouvelles structures chimiques capables de posséder les caractéristiques propres au darwinisme. Benner appelle cela le « darwinisme minimal » : « une faculté de réplication produisant des erreurs et où ces erreurs sont elles-mêmes réplicables« .

Se pose naturellement la question de structures chimiques différentes de celle que nous connaissons, basée sur le carbone. Lorsqu’on a affaire à des formes de vie macroscopiques, pas de problème pour les reconnaître facilement. Benner rappelle que Carl Sagan insistait pour placer des caméras sur les sondes exploratrices, parce que si une girafe basée sur le silicium et non sur le carbone passe devant l’objectif, on n’aura pas besoin de connaître sa structure chimique pour être certain qu’on a affaire à une forme de vie ! Mais, pour repérer de microbes, c’est une autre paire de manches !

On a coutume de dire qu’une forme de vie basée sur le silicium est peu vraisemblable, parce que le silicium, contrairement au carbone, a du mal à s’associer avec d’autres éléments chimiques. Mais pour Benner, ce genre de raisonnement reste limité. Tout d’abord que signifie « être basé sur le carbone » ? Les choses sont plus compliquées que cela, rappelle-t-il. « Dans quel sens êtes-vous une forme de vie basée sur le carbone ? Oui, vous avez beaucoup de carbone en vous, mais ce sont les autres atomes, l’oxygène et le phosphore, l’azote et le soufre qui donnent au carbone sa précieuse réactivité. Il en irait de même pour toute forme de vie à base de silicium : d’autres atomes seraient impliqués, notamment le carbone, l’oxygène et l’azote. »

Du coup la recherche systématique de certains facteurs, comme la présence d’eau liquide, pourrait s’avérer bien trop limitative. C’est vrai que la vie a probablement besoin d’un solvant, mais il n’est pas indispensable que ce soit de l’eau.

Lorsqu’on aborde la question de l’astrobiologie, on se pose nécessairement la question de la contingence. On a déjà expliqué dans l’article précédent que selon Benner, le triomphe de l’ADN, malgré sa profonde imperfection chimique, est du probablement à cette contingence. Ce fut la première molécule capable de réplication, et par conséquent c’est elle qui s’est imposée comme unique source de la vie sur terre. Cette question de la contingence est naturellement très présente en astrobiologie. A quoi pourrait ressembler une vie extraterrestre, si jamais nous la rencontrons ? Se pourrait-il que l’évolution ne propose qu’un éventail de formes limitées ? Pour reprendre l’exemple de Carl Sagan, une girafe reste une girafe, même si elle n’est pas basée sur du carbone. Et si l’évolution suit un schéma universel, alors il ne faudra pas s’étonner si des êtres intelligents se révèlent plus ou moins proches des êtres humains – même si c’est en un peu plus vert.

Cette question de la contingence a été soulevée par de nombreux chercheurs, mais sa formulation la plus connue est sans doute celle de Stephen Jay Gould : « rembobinez le film de la vie jusqu’à l’apparition des animaux multicellulaires modernes, puis repassez le film et l’évolution repeuplera la Terre de créatures radicalement différentes. La probabilité de voir apparaître une créature ressemblant, même de loin, à un être humain est effectivement nulle. »

Pourtant, des animaux issus de lignées différentes peuvent développer des organes et des formes très similaires. L’aile de la chauve-souris, par exemple ne « descend » pas de celle des oiseaux. Les ancêtres des dauphins ont développé une forme proche du poisson, parce qu’il s’agit de la manière la plus efficace pour se déplacer dans l’eau. C’est ce qu’on appelle l’évolution convergente.

La question du rôle du hasard, de la contingence n’est donc pas encore complètement tranchée. Un biologiste, Zachary Blount – en compagnie de Jonathan Losos (@JLosos) et Richard Lensky – s’est attaqué à clarifier la question (à défaut de lui trouver une réponse), nous explique Astrobiology Magazine.

En fait il y a une grande confusion derrière le concept de « contingence » : « Gould a souvent confondu deux significations communes de «contingence» : en tant que dépendance à autre chose et en tant qu’événement fortuit. » Selon Jonathan Losos : « Il existe de nombreuses littératures différentes sur l’idée de Gould, et ces littératures ne se parlent pas ». « Il y a des études sur l’évolution microbienne. Il y a toutes celles sur l’évolution convergente, ou le manque d’évolution convergente. Et il y a aussi une littérature philosophique sur ce que Gould voulait dire quand il disait : « rejouez le film ». Plus généralement, quand vous parlez du rôle de la contingence – le terme utilisé par Gould – qu’est-ce que cela signifie réellement ? »

Le travail effectué par Zachary Blount(.pdf), publié dans American Scientist a consisté essentiellement à réunir des disciplines qui ne se parlent pas qui ont mis en parallèle trois types d’études effectuées séparément, toutes impliquant une certaine manière de « rejouer le film de la vie ». Il a ainsi examiné les recherches en laboratoire sur les populations microbiennes, les expériences effectuées en pleine nature et enfin les études portant sur le comportement de différentes lignées dans un environnement analogue.

Les résultats sont mitigés. Dans certains cas, la contingence n’est pas de mise. Comme l’explique l’article d’American Scientist : une des leçons est que l’idée de Gould selon laquelle l’évolution est complètement irremplaçable est incorrecte. À travers les Grandes Antilles, les espèces d’anolis ont évolué de manière prévisible, avec des modifications de traits similaires correspondant à des habitats comparables. La sélection naturelle entraîne des résultats similaires en cas de conditions analogues, montrant que l’évolution peut se répéter et se répète effectivement.

Mais ce qui est vrai pour ces lézards ne l’est pas forcément toujours dans tous les cas. Pour preuve ce travail de longue haleine initié par Lenski sur des souches d’E Coli, suivant leurs mutations au cours des différentes générations. Il a ainsi suivi 12 lignées différentes en parallèle. Dans ce cas, la situation n’était pas la même qu’aux Caraïbes. L’environnement était stable et les différentes lignées ne subissaient aucune pression évolutive particulière. Donc, l’évolution ne pouvait se produire qu’en fonction de mutations aléatoires.

Ces populations, nous dit l’article, ont souvent évolué de la même manière. Le niveau d’adaptation était grosso modo similaire. « Toutes les variétés se sont mises à se développer plus vite en absorbant du glucose. Beaucoup ont perdu la capacité de se nourrir de certaines substances qu’elles ne rencontraient plus ».

Certes, il y eut aussi des divergences, mais globalement, on peut dire que leur évolution a suivi un déroulement assez proche. Sauf – et c’est important – dans un cas. Une variété particulière a adopté un chemin très particulier, apprenant à se nourrir de citrate. Blount, après avoir essayé de « rejouer le film » en repartant de la souche de base, a pu établir que cette nouvelle bactérie n’avait pu développer cette capacité qu’en suivant un parcours de mutations très particulier au cours de 20 000 générations. Dans ce cas précis, cette mutation très importante pouvait être considérée comme hautement « contingente ».

Pour Blount, on ne peut pas régler facilement le problème de la contingence. Et cette tâche doit être multidisciplinaire, impliquant des biologistes spécialisés dans différents domaines, mais concerne également des philosophes, car une telle notion mérite de bénéficier d’une grande rigueur conceptuelle et doit reposer sur des définitions précises.

Toutes ces questions nous montrent le besoin de développer une biologie théorique générale, indépendante de l’unique implémentation du vivant que nous connaissons sur Terre. Mais quels outils pour cette science ? Utilisera-t-on des mathématiques traditionnelles ? Ou recourra-t-on plutôt aux machines ?

mercredi 11 mai 2022

La vie, telle qu’elle pourrait être : simulation ou vie artificielle ?

 

Peut-il exister une biologie théorique, tout comme il y a une physique théorique ? La chose n’est pas facile. Tout d’abord parce que nous ne disposons que d’un exemple de système vivant à notre disposition, bien sûr. Mais aussi parce que nous ne savons pas exactement définir ce qui caractérise le vivant exactement. S’agit-il de la capacité de se reproduire et de muter ? Est-ce l’existence d’un métabolisme qui permet de s’adapter aux conditions extérieures pour survivre ? Les virus, qui utilisent l’appareillage des cellules infectées pour se reproduire, sont-ils des « êtres vivants » ? Et quelles sont les conditions minimums pour l’apparition de la vie ?

Peut-on « calculer » le vivant ?


Dans cette recherche théorique, l’usage des outils numériques peut se révéler indispensable, mais comme le souligne un article d’Astrobiology Magazine, cet usage peut prendre des formes très différentes. L’article met ainsi en parallèle deux approches qui ne sont pas forcément opposées, mais qui reposent sur des présupposés très différents : la biologie computationnelle et la vie artificielle.

Andrew Pohorille, apprend-on, dirige le labo d’astrobiologie computationnelle à la Nasa. Son travail nous explique-t-on, consiste à « écrire des algorithmes basés sur des modèles mathématiques pour chercher à expliquer les complexes procédés biochimiques ». S’il utilise donc des ordinateurs, son outil théorique principal reste, comme on le voit, les mathématiques.

Cette approche, loin des manipulations sur la paillasse, peut laisser sceptique un certain nombre de biologistes. Mais selon Eric Smith, qui travaille à l’Institute Earth Life Science de Tokyo, son heure est venue. « Je pense que nous sommes arrivés au point où cela va devenir un outil sérieux, mais il est important de se rappeler que ce n’est qu’un outil parmi d’autres. »

Le magazine nous présente ainsi certains des premiers résultats de cette nouvelle forme de biologie. Par exemple, Eric Smith et son équipe ont étudié les divers moyens utilisés par le vivant pour fixer le carbone, en combinant à la fois une analyse computationnelle des évolutions des espèces avec une autre sur l’équilibre des flux métaboliques. Ils ont ainsi pu déterminer les six méthodes utilisées par les organismes pour remplir cette tâche et repérer celle qui se serait produite en premier, aux origines de la vie. Smith et ses collègues ont pu ainsi démontrer que ce processus pouvait émerger à partir de processus géochimiques simples. La spécialité de Smith est en effet la géochimie et il a d’ailleurs écrit un livre à ce sujet en collaboration avec Harold Morowitz, The origin and Nature of life on earth.

Il est aussi intéressant de noter (quoique Astrobiology Magazine ne cite pas quelles recherches spécifiques les ont amenés à cette conclusion) que des chercheurs comme Smith et Pohorille se montrent en désaccord avec une grande partie des biologistes traditionnels sur l’origine de la vie. Selon ces derniers en effet, avant la domination de l’ADN aurait existé un « monde de l’ARN » qui aurait préfiguré la vie telle qu’on la connaît. Pourquoi ? Tout simplement parce que l’ARN est une molécule plus simple que l’ADN. Tout d’abord, il s’agit d’une « simple hélice » en lieu et place de la double hélice bien connue (et bien plus compliquée) de l’ADN. Mais pour Pohorille et Smith, l’ARN est encore une molécule trop grande pour se trouver à l’origine du vivant. Un article de Quanta Magazine mentionne que Pohorille semble avoir la préférence pour une nouvelle hypothèse, qui voit dans les protéines les premières briques de construction du vivant.


La vie artificielle : réalité ou simulacre ?


Lorsqu’on parle de modèles computationnels de la vie, on ne peut que penser à la vie artificielle, ce champ marginal mais influent souvent mentionné dans nos colonnes. Pourtant, on va le voir, la biologie computationnelle et la vie artificielle restent des champs d’études différents et séparés.

Astrobiology Magazine se concentre sur le travail Chris Adami un microbiologiste de l’université du Michigan, qui a co-créé un logiciel de vie artificielle, Avida.

Avida n’est pas un nouvel outil, il a été publié en 1993. Il peut être considéré comme le successeur d’un travail plus ancien, Tierra, élaboré dans les années 90 par le biologiste Thomas RayLors de la conférence Ecal de 2011 sur la vie artificielle, Tierra avait nommé par les chercheurs comme le logiciel qui incarnait le mieux ce domaine de recherche. Mais avant Tierra, il y avait un « jeu vidéo » suprêmement geek nommé Core War, qui mettait en scène des armées de virus qui luttaient les uns contre les autres en réécrivant des instructions écrites dans un langage virtuel, Redcode. En 1990, un chercheur Steen Rasmussen, découvrit que les meilleurs combattants à Core War étaient ceux qui se montraient en mesure de se répliquer eux-mêmes. Reste qu’il n’y avait pas de mutation – donc pas d’évolution – au sein de Core War.

Avida est basée sur des principes très proches de Tierra. Mais surtout, comme tout le champ de la vie artificielle, Avida repose sur une hypothèse philosophique, qui justement est très contestée : l’idée que la vie est fondamentalement affaire d’information, pas de chimie. Comme Adami l’explique dans Astrobiology Magazine : « la vie est de l’information qui se réplique« . Avida est un software très complexe et peu explicite. Si vous voulez tout de même jouer avec le programme, le mieux est de vous rendre sur le site d’Avida-Ed, une version simplifiée spécialement conçue pour l’éducation. Malheureusement, j’ai trouvé la documentation fournie plutôt parcellaire, ce qui est quand même dommage pour un logiciel éducatif (Avida-Ed a même reçu un prix pour sa valeur éducative de la part de l’International Society for Artificial Life, remis à Lyon en 2017). Vous pouvez vous aider de la vidéo ci-dessous (en affichant les sous-titres automatiques, pas forcément très exacts, mais suffisants pour comprendre ce qu’il faut faire). Mais ce tutoriel vous aidera à comprendre comment marche le logiciel, pas à mener votre propre recherche…

Dans Avida-Ed, chaque organisme est un petit programme écrit avec un « langage de programmation » composé des 26 lettres de l’alphabet. Chacune d’entre elles correspond à une instruction particulière (par exemple, l’une des plus importantes, « W », signifie « réserver de la mémoire pour générer une progéniture »), ou « S », qui est la classique commande d’addition de deux valeurs. Le premier organisme d’Avida, nommé l’ancêtre, est déjà capable de s’autorépliquer. Dans Avida-Ed, les organismes « récompensés » sont ceux qui sont capables d’effectuer le plus grand nombre d’opérations logiques, de type ET, OU ou Xor (et d’autres plus exotiques).

Un peu comme dans le jeu de la vie, c’est assez amusant de regarder les organismes se reproduire dans l’écran d’Avida-Ed, mis est-ce vraiment utile ? Oui pour les adeptes de ce genre de pratiques, qui multiplient les expériences sur l’évolution depuis plus de 20 ans avec ce genre de programme. En 2010, par exemple Avida avait fait un peu parler de lui, notamment dans le New Scientist, mais aussi dans la presse plus généraliste, comme le Telegraph britannique. Une équipe (après avoir rajouté trois instructions permettant aux avidiens de se mouvoir, car originellement, ils ne déplacent pas, ils se contentent de se reproduire) avait affirmé avoir vu certaines de ces créatures développer une mémoire et un certain comportement (un peu) intelligent. Comme cette histoire a 10 ans, et qu’elle n’a apparemment pas connu de suite, on peut supposer que l’annonce était quelque peu prématurée, mais il est aussi possible que demain elle revienne au premier plan. Après tout on reparle d’Avida aujourd’hui après des années de confidentialité.

Mais pour revenir à l’article d’Astrobiology Magazine, cela ne convainc pas pour autant d’autres chercheurs, et notamment ceux qui travaillent sur la biologie computationnelle. Andrew Pohorille pense ainsi qu’il reste important de chercher un « concept mathématique de haut niveau » susceptible d’expliquer la nature du vivant et le système de règles qui régit le domaine. Pour lui, un système comme Avida ne permet pas de fournir une telle explication théorique, et pire, il peut générer des erreurs d’interprétation, amener à confondre le vivant avec des processus qui lui sont analogues : « Il peut y avoir beaucoup de règles qui mènent à ce genre de processus… La question est de savoir si l’une de ces règles a quelque chose à voir avec les règles qui ont fonctionné aux origines de la vie. »

Et l’article de renchérir :

« Quelque-chose pourrait ressembler à la vie dans Avida, mais il y a un risque de tomber dans le piège de la recherche d’un motif qui ressemble à du vivant, mais qui n’en est pas, comme confondre les mouvements d’un slinky [ce jeu en forme de ressort, capable de descendre les marches d’un escalier, NDT] et ceux d’un serpent. On peut se demander si la vie virtuelle au sein d’un ordinateur, comme la vie avidienne, ne se contente pas en fait de se faire passer pour une représentation de la vie, ce qui amène de nombreux chercheurs à se méfier de ces résultats. « En principe, la vie artificielle pourrait aider à trouver des alternatives à la vie terrestre, mais vous devez comprendre de quoi exactement votre modèle informatique est une abstraction, et c’est la partie la plus difficile », a déclaré Smith. »

Apparemment, nous n’avons pas le choix : pour comprendre la nature du vivant, il nous faut plus d’un exemple à étudier, et le seul moyen pour ce faire, c’est quand même d’aller en chercher un !

lundi 21 mars 2022

Neil Gershenfeld et la réalité numérique

 

Neil Gershenfeld, le père des fablabs et directeur du Centre des bits et des atomes du MIT, a publié une longue conférence vidéo sur la « réalité numérique », sur le site Edge.org, qui propose aussi une version texte de son discours.

Ce long document qui fourmille d’idées brillantes et inédites virevolte volontiers d’un sujet à l’autre – de manière parfois un peu rapide, il faut l’avouer. Cela va de la nature de la fabrication numérique à l’économie des fablabs et de la musique, en passant par une critique des MOOCs et des considérations sur l’avenir de l’éducation à distance.


Image : Neil Gershenfeld via Edge.org.

Mais les points les plus originaux restent sa définition de la « réalité numérique » et son point de vue sur l’avenir de la fabrication.

Tout d’abord, qu’est-ce que le numérique ? Il ne s’agit pas seulement de tout représenter avec des zéros et des uns. Gershenfeld, qui préfère y voir une révolution entamée par Claude Shannon, à l’origine de la théorie de l’information. Celui-ci est le premier à avoir découvert qu’une communication de type numérique (autrement dit codée sous la forme de symboles) permettait une meilleure correction d’erreurs et donc la transmission plus sûre du message qu’une communication analogique passant par des ondes. Si le niveau de bruit est inférieur à un certain seuil, le message peut être transmis correctement. Les parasites et autres grésillements ne sont plus un problème.

Von Neumann s’est contenté d’appliquer les théories de Shannon au calcul. A l’époque, explique Gershenfeld : « Vannevar Bush avait construit un « analyseur différentiel », une salle pleine de roues et de poulies, et les réponses devenaient de plus en plus mauvaises avec le temps. John von Neumann a montré que l’on pouvait obtenir un calcul correct avec un système non fiable, du moment que le calcul se faisait à l’aide de symboles« . On est ainsi passé de la communication numérique à la computation numérique, résume-t-il.

La fabrication numérique : une très, très, très vieille histoire…

Comment la nouvelle notion de « fabrication numérique » s’insère-t-elle dans ce schéma ?

Tout d’abord, elle n’est pas si nouvelle. En fait, la première fraiseuse contrôlée numériquement date de… 1952, la période où Claude Shannon élaborait ses théories sur la communication ! Quant à l’impression 3D elle a été inventée par Chuck Hull dans les années 80. Et elle est loin d’être un élément fondamental de la fabrication numérique. Gershenfeld note que, dans son fablab, l’imprimante 3D n’est utilisée qu’environ 20 % du temps. Les autres machines à commandes numériques sont beaucoup plus efficaces pour bon nombre de tâches.

Mais de toute façon, la « fabrication numérique » n’est pas vraiment numérique : elle reste analogique, provoque Gershenfeld. Le design, la conception sont numériques, mais on continue quand même à travailler le matériau de la manière traditionnelle, en le coupant, en le modelant, bref, autant de techniques « analogiques ».

Une véritable fabrication numérique serait toute autre. Et là aussi, ce n’est pas une nouveauté, puisque son apparition daterait de 4 milliards d’années ! Il s’agit du ribosome, cette partie de la cellule qui utilise le code ADN (via un passage par l’ARN messager) pour fabriquer des protéines. Et pour comprendre la puissance du ribosome, on peut comparer son action à celle d’un enfant jouant au Lego.

Lorsqu’un enfant bricole avec ses Lego, il n’a pas besoin de règle ou de compas. La forme des briques suffit pour créer toutes sortes d’objets : « La géométrie de l’ensemble est déterminée par l’assemblage des parties« , explique Gershenfeld. Première conséquence, l’enfant peut élaborer des structures dont la taille le dépasse. Et c’est pareil avec le ribosome : ses briques Lego sont des acides aminés, qu’il assemble un à un pour créer des structures bien plus grandes que lui. « Vous pouvez fabriquer un éléphant en ajoutant un acide aminé à la fois parce que la géométrie provient des pièces. Dans une imprimante 3D aujourd’hui, ce que vous pouvez faire est limité par la taille de la machine. La géométrie est externe ».

Autre avantage de cette méthode Lego, et on retrouve ici la définition que Gershenfeld a préalablement donnée du numérique : la correction d’erreurs est améliorée. « La tour de Lego est plus précise que ne l’est le contrôle moteur de l’enfant qui la construit parce que la contrainte d’assemblage des briques permet de détecter et corriger les erreurs ». Même chose avec le ribosome : « Dans un laboratoire, quand vous mélangez des produits chimiques le pourcentage de réussite est environ de un sur 100. Dans le ribosome, lors de la fabrique de protéines, le taux d’erreur est de un sur 104, et lorsque vous répliquez l’ADN il y a une étape supplémentaire de correction d’erreur et le taux d’erreur passe à un sur 108 (…) Parce que les pièces sont des éléments discrets, vous pouvez détecter et corriger les erreurs simplement en les associant« .

Mais il existe encore des différences entre la méthode Lego et la fabrication numérique actuelle. On peut associer des briques en Lego fabriquées dans divers matériaux. De même, le ribosome utilise 20 acides aminés différents. Or il est très difficile d’employer plusieurs types de matériaux lors d’une même tâche avec une imprimante 3D.

Enfin, et ce n’est pas le moins important, lorsqu’un enfant en a terminé avec ses Lego, il ne jette pas ses briques. Il en va de même avec le monde du vivant. Lorsqu’un organisme a terminé sa course, il meurt et ses constituants sont réassemblés. En revanche, dans l’univers de la fabrication numérique il y a bien des tentatives de recyclage, mais on ne cherche pas à réutiliser les pièces.


Quand le code est intrinsèque au matériau

Voilà donc en quoi consiste la véritable « fabrication numérique » : « La géométrie créée par les pièces, la détection et la correction des erreurs, l’assemblage de matériaux différents, la séparation et la réutilisation des composants« . Mais l’idée centrale derrière tout cela, assène Gershenfeld, c’est que le code n’est pas étranger au matériau. Il lui est intrinsèque. C’est cela, la « réalité numérique ». Cette idée d’une programmation intrinsèque à la matière, nous l’avons déjà abordée dans nos colonnes, que ce soit avec les travaux un peu spéculatifs sur la matière programmable ou avec les expériences de design de Skylar Tibbits (qui, comme Gershenfeld, travaille au MIT).

Et naturellement, Gershenfeld et son équipe oeuvrent déjà sur ces nouveaux concepts. Ainsi, ils sont en train de réfléchir à une usine portable pour fabriquer des puces. Elle assemblerait à bas prix des circuits intégrés à partir de blocs de composants électroniques. Autre projet, la réalisation, à partir de petites briques, de gigantesques structures ultralégères et durables comme des avions. Gershenfeld affirme travailler aujourd’hui sur des « imprimantes à jumbo jets », « bien qu’il s’agisse plutôt en fait, d’assembleurs« … A noter que le MIT a obtenu un accord avec Airbus pour tester ces nouvelles méthodes de construction.

Gershenfeld s’intéresse aussi à la « géoimpression ». L’idée ici est de créer des systèmes robotiques capables une fois encore d’assembler à la manière des ribosomes des structures de grande taille intégrées sur le terrain, modifiant le paysage. Cela permettrait notamment de protéger les villes et les infrastructures contre des catastrophes comme l’ouragan Katrina en restructurant le terrain, alors qu’aujourd’hui on ne sait guère qu’accumuler des sacs de sable. Et comme on pouvait s’y attendre, l’idée attire également la NASA, qui envisage d’utiliser cette technologie dans l’espace.

Reste enfin le vivant qui est l’inspiration de base de toute cette nouvelle conception de la construction. Gershenfeld travaille avec le biologiste Craig Venter pour créer des systèmes microfluidiques susceptibles d’insérer des génomes artificiels dans les cellules.


Je n’ai abordé ici qu’un des aspects de la longue conférence de Gershenfeld. Si vous avez le temps et si l’anglais ne vous rebute pas, n’hésitez pas à regarder (ou plus simplement à lire) l’intervention intégrale.