lundi 6 février 2023

La conscience, un phénomène historique ?

 

La conscience de soi nous apparaît comme une donnée essentielle de notre humanité, comme le fait d’avoir des bras et des jambes. Et si c’était un phénomène culturel, changeant ? Et si la conception du « soi » avait fluctué selon les époques ?
Dans un article paru en 2017 pour The Atlantic, la journaliste Sigal Samuel a interrogé le spécialiste de la bible James Kugel, qui dans son livre The Great Shift s’interroge sur la notion que les anciens Hébreux avaient des limites de leur individualité – et comment cela pourrait expliquer un phénomène comme le prophétisme.

Pour Kugel en effet, le moi des personnages de la Bible était « semi-perméable » autrement dit, il était en mesure d’être « envahi » par des entités extérieures (Dieu, dans le cas des prophètes, mais il y avait aussi des anges et des démons), et ils pouvaient alors « entendre des voix » leur disant quels actes accomplir. « Ainsi, quand la Bible dit que Dieu est apparu à Abraham en dehors de sa tente ou a parlé à Moïse depuis un buisson ardent, nous sommes portés à rejeter ces choses comme une sorte de langage figuratif, ou bien nous les ignorons. De telles choses se sont produites dans le passé, mais ne le font plus aujourd’hui. »

Les anciens avaient-ils deux esprits ?



Comme le souligne Deric Bownds dans son court post de blog sur cette interview, à aucun moment ni le journaliste ni Kugel ne mentionnent les théories de Julian Jaynes. Ce qui est étonnant, car Julian Jaynes, depuis la sortie de son livre en 1976, The Origin of Consciousness in the Breakdown of the Bicameral Mind (traduit en 1994 en français sous le titre La naissance de la conscience dans l’effondrement de l’esprit, la suppression du mot « bicaméral » rendant le titre incompréhensible), est considéré comme le géniteur de cette théorie du caractère historique de la conscience de soi.

Jaynes, lui n’a pas commencé ses recherches sur la Bible, mais sur le texte d’Homère, l’Iliade. Dans cette épopée il n’est pas rare non seulement pour les dieux d’apparaître aux différents protagonistes de l’histoire, mais aussi et surtout, d’inspirer les héros, de les pousser à commettre des actes dont certains auront d’ailleurs des conséquences catastrophiques. Pour employer le néologisme de Kugel, leur individualité était « semi-perméable ».

L’origine de cette caractéristique psychologique était, selon Jaynes, le caractère « bicaméral » de notre cerveau. Ce n’est plus un secret pour grand monde que notre cortex est divisé en deux hémisphères, le droit et le gauche. Mais, observe Jaynes dans son livre, alors qu’un bon nombre de fonctions mentales sont bilatéralisées, les aires du langage (celles de Wernicke et de Broca) se trouvent toutes les deux dans la partie gauche. Et ce, bien que rien n’empêcherait théoriquement d’avoir leur équivalent dans la partie droite. Il observe en effet qu’un enfant ayant une lésion de l’aire de Wernicke développera un remplacement dans l’hémisphère droit de son cerveau. Pourquoi donc, se demande-t-il, le langage ne s’est-il développé que dans la partie gauche ? A quoi servent les zones de l’hémisphère droit qui normalement auraient dû servir à la maîtrise du langage ?
Pour Jaynes : « Les pressions sélectives de l’évolution qui auraient pu produire un si puissant résultat sont celles exercées par les civilisations bicamérales. Le langage des hommes n’a été développé que dans un seul hémisphère pour laisser l’autre libre pour le langage des dieux. »

Le héros homérique n’a donc aucune volonté propre, aucune conscience de soi. Selon Jaynes, à part quelques passages interpolés tardivement, L’Iliade ne possède pas de référence à des concepts qui traduisent l’unité de l’être humain. Par exemple, le mot grec « psyche » qui par la suite en viendra à désigner l’âme, n’est employé que pour décrire des substances vitales comme le souffle ou le sang. Par exemple un guerrier agonisant est en train de perdre sa psyche qui se répand sur le sol. Mais, et c’est encore plus surprenant, pas de référence non plus au corps comme une unité unique et autonome. Le mot « soma » (corps) est employé exclusivement pour parler des cadavres. Homère ne mentionne que des parties du corps, les mains, les bras les jambes, etc., mais jamais le corps dans son ensemble.

Pour Jaynes les héros grecs étaient exempts de vie intérieure et étaient menés par les commandements des dieux, ces hallucinations auditives en provenance de leur cerveau droit. « C’étaient de nobles automates qui ne savaient pas ce qu’ils faisaient. »

Mais comment est-on passé de ce monde sans conscience de soi à l’esprit humain tel que nous le connaissons aujourd’hui ? Selon Jaynes, c’est parce qu’il s’est produit un « effondrement » de l’esprit bicaméral qui a marqué la naissance de l’individualité telle que nous la connaissons. Tant que les humains vivaient dans de petites communautés agricoles (Jaynes ne s’occupe pas des sociétés de chasseurs-cueilleurs), ce système fonctionnait à merveille. Chacun possédait un « leader intérieur », un Dieu ou un ancêtre puissant, qui lui disait à chaque instant comment agir. Mais lorsque les communautés se sont agrandies, que les premières cités et empires sont apparus, les prises de décisions sont devenues de plus en plus complexes et il a fallu développer une nouvelle forme de pensée, dans laquelle chaque individu était tenu de prendre des responsabilités personnelles. L’Odyssée, également attribuée à Homère, mais plus tardive que l’Iliade, nous montre des personnages dotés d’une conscience de soi déjà « moderne ».

Une théorie contestée, mais « pop »


Quel a été l’impact de la théorie de Jaynes ? Comme le dit Vaughan Bell sur Mind Hacks : « sa théorie de la conscience est très probablement fausse, mais si terriblement originale qu’elle est largement admirée ». De fait, quelqu’un comme le biologiste Richard Dawkins a dit du livre de Jaynes qu’il était « soit du grand n’importe quoi, soit une œuvre de pur génie ». Le philosophe Daniel Dennett s’est aussi intéressé aux thèses de Jaynes et a même écrit un article assez long sur le sujet (.pdf). Il est intéressant de voir que deux des grands hérauts du « nouvel athéisme » et de l’hyperrationalisme ont une attitude prudente et plutôt sympathique envers les thèses de Jaynes, qui pourraient paraître joyeusement délirantes.

De fait, la thèse de Jaynes n’a jamais été véritablement réfutée, elle a tout simplement été ignorée, note Marcel Kuijsten le directeur de la Julian Jaynes Society, dans une interview pour Inverse.

En fait l’impression générale est que la thèse de Jaynes séduit beaucoup de monde, mais qu’elle est trop excentrique, trop extrême pour être réellement soutenue.

En tout cas, si cette thèse reste assez marginale dans la psychologie aujourd’hui, elle a fait son chemin dans la pop culture.

Dans le comics Uncanny x-men, écrit par Chris Claremont au début des années 80, l’un des mutants, la Bête, se réjouit de lire le livre de Jaynes et se demande quand sortira le film. De fait, il y a bien aujourd’hui un film, ou plus exactement une série, puisque la théorie de l’esprit bicaméral se trouve au coeur de la fameuse série de HBO, Westworld.

Westworld nous présente l’histoire d’un parc d’attractions futuriste construit à l’image du Far West, peuplés par des robots jouant de manière indéfiniment répétée leur rôle dans des scénarios interactifs de western à destination des visiteurs. Puis, comme toujours avec les robots, tout se détraque. Mais Westworld est plus fin et plus subtil que la plupart des « révoltes de robots » auxquelles la science-fiction nous a habitués (et certainement plus sophistiqué que le film de 1973 dont la série est tirée). C’est l’accession à la conscience qui est au coeur des épisodes.

La théorie de l’esprit bicaméral est mentionnée de façon explicite à plusieurs reprises lors de la première saison (« the bicameral mind » est même le titre de l’épisode final).

L’intrigue de Westworld repose sur une idée particulièrement importante de Jaynes. Ce serait le développement de notre langage et notre capacité à la métaphore qui aurait généré un « espace intérieur » propice au développement de la conscience de soi. Le langage serait donc un prérequis à l’acquisition de la conscience.

Selon le journaliste d’Inverse, Andrew Burmon : « En présentant le concept, les auteurs de Westworld montrent clairement que les robots dotés d’IA de la série ne sortent pas de la servitude préprogrammée à cause d’un pépin ou d’un virus – comme c’était le cas dans le film original. Ils se détraquent à cause de leur exposition à un langage de plus en plus complexe. »

Marcel Kuijsten, dans son interview avec Burmon, précise que « lorsque nous parlons de l’esprit bicaméral, nous parlons de cette période suivant le développement du langage, mais avant que nous apprenions la conscience. Au lieu d’un esprit-espace introspectif, nous entendions une voix dominante lorsque nous avions des décisions à prendre. À mesure que le langage s’est complexifié à travers la métaphore, nous avons développé la capacité d’introspection et, petit à petit, les hallucinations ont disparu. »

Une longue vidéo (en anglais, mais avec des sous-titres) dégottée par Io9, nous donne encore quelques clés supplémentaires pour comprendre la façon dont Westworld s’inspire des thèses de Jaynes.

Pour l’auteur de ce petit film (attention spoilers !), en dehors du langage et de la métaphore, c’est une autre caractéristique de la conscience qui est mise en lumière par la série : la possibilité de créer des narrations avec nous-mêmes au centre. La conscience serait donc peut-être aussi la capacité de nous raconter nos propres histoires.

Entendre des voix, c’est normal, docteur ?


La thèse de Jaynes est elle convaincante ? A mon humble avis, pas toujours. Ce genre d’hypothèse repose souvent sur des présupposés interprétatifs qui sont difficiles à réfuter ou valider de façon certaine. Autrement dit, le biais de confirmation fonctionne à plein : si vous croyez aux idées de Jaynes, vous verrez le cerveau bicaméral partout. Si vous êtes sceptiques, rien ne pourra véritablement vous convaincre.

Ce qui est sûr, c’est que les civilisations non occidentales ont pour la plupart abrité dans leur sein des « spécialistes » qui recevaient des messages des « dieux » ou des esprits : shamans dans les groupes de chasseurs cueilleurs, « possédés » ou « oracles » dans les sociétés agricoles. Et il est certain que la parole de ces personnes était considérée avec le plus grand sérieux, et que ce comportement était donc encouragé, alors que dans notre civilisation, il serait rejeté comme hallucinatoire et pathologique. Faut il pour autant en déduire que TOUTE la population était sujette à de genre d’hallucination ?

Dans son interview avec Andrew Burmon, Marcel Kuijsten explique que beaucoup de gens critiquent l’idée de l’esprit bicaméral parce qu’elle implique une évolution bien trop rapide du cerveau, quelque chose que la théorie darwinienne ne peut justifier. Mais précise-t-il, « Jaynes n’affirme jamais qu’il s’agit d’un changement biologique et évolutif. Il parle d’un processus appris. Daniel Dennett, le professeur de philosophie, utilise une métaphore : c’est un changement de logiciel, pas un changement de matériel. C’est comme un nouveau système d’exploitation. »

Sans doute, mais un changement au sein de la société et de nouvelles normes sur les comportements provoqueraient sans doute une transition encore plus rapide que le changement d’un « système d’exploitation psychologique » touchant tous les individus.

Cela semble être la différence entre le récent travail de Kugel et la théorie de Jaynes. Si l’on suit son interview de The Atlantic, selon Kugel, le fait « d’entendre des voix » est toujours d’actualité dans de nombreux pays :

« Il cite… une récente étude interculturelle lors de laquelle des chercheurs ont interviewé des auditeurs aux États-Unis, au Ghana et en Inde. Les chercheurs ont enregistré des «différences frappantes» dans la façon dont les différents groupes de personnes ressentaient les voix qu’ils entendaient : Au Ghana et en Inde, de nombreux participants ont insisté sur le fait que leur expérience prédominante ou même unique était positive. … Cela n’a été le cas pour aucun américain. »
« Ces résultats », conclut Kugel, « suggèrent que les » données « d’une société ont beaucoup à voir avec la manière dont l’audition vocale est interprétée. »

Toujours selon Kugel, il existe aujourd’hui 15 % de personnes qui ont entendu des voix au moins une fois dans leur existence (aux Etats-Unis, ils ont même une association). Reporté à l’antiquité biblique, et sans aller chercher un nouveau type de conscience, cela aurait fait 15 % de prophètes, ce qui aurait été largement suffisant (et peut-être même un peu trop).

Évidemment, si la conscience de soi, n’est ni un phénomène biologique, ni même psychologique, mais repose avant tout sur un système de normes, cela veut dire que l’esprit bicaméral ne s’est jamais « effondré ». Et il peut toujours redevenir d’actualité en cas de changement ou de crise de notre logiciel social.



vendredi 3 février 2023

La Question Interstellaire (2/2) : nous ne décollerons pas sans « sol »

 

On l’a vu, Rachel Armstrong ne croit pas à des vaisseaux spatiaux qui seraient comme des « boites de conserve » reproduisant à l’identique un environnement terrestre. Son analyse de l’expérience Biosphere II est éclairante cet égard. Rappelons que Biosphere II, qui s’est déroulée au cours des années 90 consistait à créer un environnement parfaitement clos, comportant plusieurs écosystèmes (dont un mini-océan), et habité par 4 hommes et 4 femmes, qui devaient cultiver la terre, élever du bétail et ainsi se fournir en nourriture et vivre en parfaite autarcie.


« Après environ une année, explique-t-elle, « les niveaux d’oxygène ont diminué régulièrement, l’océan s’est acidifié, les températures intérieures ont augmenté et les niveaux de dioxyde de carbone ont fluctué. Le système a clairement commencé à échouer au bout d’environ 18 mois. Le compost était arrêté pour économiser de l’oxygène et les sols se sont effondrés (…). Les vertébrés et les insectes pollinisateurs sont morts, alors que seuls les cafards et les fourmis prospéraient. Bien que l’expérience fut considérée comme une sensation médiatique, elle avait largement échoué en tant qu’expérience scientifique. »

Ce genre d’échec nous montre la différence entre s’occuper de jardinage et construire un véritable système écologique. 

Qu’est ce qu’un « sol » ?


Pour Rachel Armstrong, l'élaboration d’un « sol » est fondamentale pour le futur vaisseau interstellaire. Une idée qui peut paraître curieuse au premier abord. Mais en réalité, la terre sur laquelle nous marchons est un système très complexe, bourré d’interactions multiples, sur lequel repose la vie sur notre planète. Les expériences d’Armstrong cherchent à comprendre et réfléchir à cette complexité : il ne s’agit pas, donc, de « jardinage », l’objectif n’est pas de reproduire à l’identique l’humus que nous connaissons sur cette planète, mais de comprendre la dynamique à l’oeuvre au sein d’un sol, y compris avec des matériaux qui n’ont rien à voir avec ceux qu’on trouve habituellement sous nos pieds.

L’architecte mentionne ainsi une série d’expériences avec des « gels », autrement dit des produits susceptibles de se mêler entre eux en créant des formes complexes d’auto-organisation. Mis ensemble, les gels forment des structures inédites qui permettent d’observer les échanges entre les différents matériaux. Une telle expérimentation rappelle notamment les derniers intérêts d’Alan Turing sur la genèse des formes, la morphogenèse , sur laquelle il écrivit son dernier papier (.pdf).

Chaque image produite par l’interaction entre les gels a été mise en rapport avec certains vers du fameux poème de Milton, le « Paradis perdu ». Cela suffit à montrer qu’il ne s’agit pas là de faire une « expérience scientifique » à proprement parler (bien que la morphogenèse et la création de structures complexes soient bien sûr un sujet hautement intéressant pour les scientifiques). Il ne s’agit pas vraiment de « design », puisque les structures obtenues n’ont aucune fonction utilitaire. Ce n’est pas non plus du « design-fiction » à proprement parler. Mais c’est un outil de réflexion culturelle sur la complexité et sur la manière dont celle-ci peut se manifester sous des formes « exotiques », sur des bases étrangères à notre expérience quotidienne.

Les jardins suspendus de Méduse , eux, nous rapprochent plus de l’exploration spatiale, puisqu’il s’agit d’un « jardin stratosphérique », constitué de deux étages, le supérieur comprenant des organismes vivants, des épiphytes, susceptibles de survivre dans les airs sans recours au sol. L’étage inférieur est composé de « futures formes de vie alternative » basées sur des structures chimiques qu’Armstrong nomme des « protocellules », dotées d’une espèce de « métabolisme artificiel ». Il s’agit de gouttes liquides capables de produire des précipités minéraux solides. Le Jardin a été « déposé » dans la stratosphère et les résultats nous invitent à la méditation sur les limites de nos créations artificielles. En effet, alors que les épiphytes de l’étage supérieur ont survécu à l’épreuve, les « protocellules » ont été presque complètement détruites.

Là encore, ce projet joue entre la fiction et la réalité. Le mot « méduse » renvoie à une nouvelle d’Arthur C. Clarke, où il imaginait des formes de vies aériennes se développant dans l’atmosphère jupitérienne.

Le rôle des protocellules


Concernant ces fameuses « protocellules », cheval de bataille des recherches de Rachel Armstrong : elle les utilisait déjà dans le projet Future Venice, dans lequel les protocellules pourraient secréter des minéraux formant une espèce de récif artificiel protégeant la cité des doges de l’effondrement ainsi que lors de sa participation au projet collectif Hylozoic Ground, mené par l’architecte Philip Beesley. Il me semble qu’Armstrong partage avec les tenants de la « vie artificielle » la volonté de faire naître l’émergence de la surprise, et non pas contrôler les productions du vivant à l’instar d’un ingénieur, comme le font les adeptes de la biologie synthétique. De fait, la différence entre elle et les chercheurs en vie artificielle est plutôt que ces derniers ont cherché à reproduire et comprendre ces interactions complexes « in silico », à l’aide de simulations informatiques – comme le programme netlogo -, alors qu’elle étudie plutôt des systèmes dans « le monde réel » basés sur la chimie.

Une autre chose est intéressante dans le travail de Rachel Armstrong : elle tend plutôt à favoriser chez le vivant la notion de métabolisme, c’est-à-dire celle d’un organisme couplé à l’environnement et réagissant aux conditions fournies par ce dernier, s’adaptant éventuellement pour survivre. C’est une vision alternative à la conception du vivant comme système auto-reproducteur, et qui se base essentiellement sur la réplication de l’ADN. Cela nous ramène à un vieux débat sur les origines de la vie : qu’est ce qui est venu en premier, le génome ou la cellule qui le contient ? A un moment, pendant la guerre froide, cette controverse a d’ailleurs pris un tour politique, les Soviétiques favorisant la notion de métabolisme et les Occidentaux se tournant vers l’auto-réplication et la notion de code génétique. Mais la soumission de la science soviétique (et notamment de son chercheur le plus important, Alexandre Oparine) aux thèses pseudo-scientifiques d’un Lyssenko a bien sûr jeté le discrédit sur cette approche physico-chimique. Maintenant que cette période de l’histoire est terminée, force est de reconnaître que nous connaissons encore mal cet aspect du vivant, et que, même si on est en mesure de créer une nouvelle bactérie à l’aide d’un ADN synthétique, on ne sait toujours pas comment créer une cellule ! Les chercheurs en biologie de synthèse en sont toujours réduits à « emprunter » celle d’un organisme déjà existant.

L’oeuvre d’un collectif

On ne saurait terminer avec Star Ark sans mentionner les autres contributions de qualité écrites par d’autres auteurs. Car, rappelons-le, Rachel Armstrong n’a rédigé que la première partie du livre. Cela va des analyses bourrées d’équations de l’astrobiologiste Michael Mautner aux applications des études de genre au cinéma de science-fiction par Esther Armstrong (@armst_e), de l’université des Arts de Londres. Comme on pouvait s’y attendre, le transhumanisme est également présent dans l’ouvrage, car il est fort possible que nos descendants vivant dans l’espace doivent s’adapter à leur nouvel environnement et puissent être tentés de se modifier à cette fin. Le texte de Kevin Warwick est assez classique et se penche sur les « cyborgs dans l’espace ». Plus original, l’article de l’épistémologiste Steve Fuller, qui revient les fondements théologiques du transhumanisme le liant à des formes de pensée plus anciennes, comme le cosmisme russe, les thèses de Theilhard de Chardin ou le futurisme italien. Et ce ne sont que quelques contributions parmi d’autres.

En tout cas, c’est rare de lire un livre mêlant aussi intimement science, philosophie et arts pour donner une vision globale, non seulement de notre futur lointain, mais également de notre présent. La « pensée du ciel noir » a de beaux jours devant elle.

lundi 30 janvier 2023

La Question Interstellaire (1/2) : une perspective écologique

 

L'architecte Rachel Armstrong (@liviingarchitect) est connue pour ses travaux futuristes, souvent à la limite du « design fiction » et s’inspirant largement de la biologie de synthèse.

Les enjeux de l’exploration interstellaire

Elle a notamment dirigé un ouvrage collectif chez Springer, Star Ark : A Living, Self-Sustaining Spaceship, dont elle a rédigée la première partie (divers auteurs se succédant dans la seconde), consacrée à l’avenir du voyage interstellaire, pas moins !


Mais bon, retourner sur la lune, coloniser Mars, exploiter des astéroïdes ou même créer des cités spatiales en haute orbite, c’est déjà quasi utopique, alors se passionner pour le voyage interstellaire, c’est franchement, euh, un peu cinglé non ?

Pour mémoire, rappelons qu’à moins d’une découverte nous permettant de court-circuiter la limite imposée par la vitesse de la lumière (comme « l’hyperespace » des auteurs de science-fiction ou l’utilisation de « trous de ver » autorisant un raccourci entre deux points très distants de notre univers, comme dans le film Interstellar) un tel vaisseau spatial mettrait des centaines d’années à atteindre son objectif. Au point probablement que les passagers embarqués au départ seront probablement décédés à l’arrivée, laissant la place à la ou les générations suivantes. Comment un tel exploit serait-il possible, et d’ailleurs pour quoi faire ?

Mais pour Rachel Armstrong et ses coauteurs, l’intérêt d’un tel projet tient moins à sa réalisation à moyen ou long terme que la manière dont son existence même nous amène à réinterroger nos modes de pensée et de fabrication. C’est ce qu’Armstrong nomme la « Question Interstellaire ».

Il s’agit moins de réfléchir à de bonnes fusées ou au meilleur carburant que se demander comment créer de toutes pièces un environnement durable pour une population humaine, capable de résister aux aléas du voyage, et, même peut être plus encore, capable d’évoluer vers des états inédits et plus complexes qu’au départ.

Au centre de la création d’un tel vaisseau se trouve donc la problématique écologique. « Une perspective écologique ne permet plus de simplifier ce défi sous la forme d’une danse de survie mutuelle entre l’homme et la machine. Au lieu de cela, les problèmes en jeu doivent d’abord être abordés à travers une lecture du cosmos en tant qu’écosystème ainsi qu’à travers des perspectives multiples et enchevêtrées, ce qui inclut la science, la technologie, les arts et les humanités ».

De fait, imaginer le voyage interstellaire nous conduit à une série de problématiques qu’on ne retrouve pas dans les projets classiques de colonisation de notre système solaire. Créer des cités spatiales en haute orbite, s’installer sur la Lune ou sur Mars, suggère un accès à de très nombreuses ressources disponibles sur la Terre, les planètes ou les astéroïdes. Un vaisseau traversant les étoiles ne disposera de rien de tel. Jamais le mot « durable » n’aura été employé autant à propos.

Les nouvelles formes de laboratoires


Aujourd’hui, les grandes entreprises de la Silicon Valley s’intéressent de près à la colonisation de l’espace proche. Mais inutile de compter sur un Musk ou un Larry Page pour lancer un projet de la taille d’une arche interstellaire. Pas la peine non plus de compter sur les grandes Nations qui se sont lancées dans la course à l’espace au moment de la guerre froide.

Pour Armstrong, la clé pourrait se trouver dans la montée des « nouvelles formes de laboratoires » présents notamment au sein des différentes organisations de sciences citoyennes, makers, biohackers, designers, etc. Ces groupes créent en effet des « prototypes » susceptibles d’inspirer diverses réflexions sur la Question Interstellaire : « Bien que les développements de ces «prototypes» ne soient pas réellement des vaisseaux spatiaux, leur existence présente de l’importance pour la question du vaisseau spatial (…). Les plates-formes de makers préconisent l’émergence de nouveaux types de laboratoires et la création d’une gamme d’approches qui ne sont pas typiques des analyses de recherche classiques, mais génèrent des informations pertinentes grâce à des recherches menées par des praticiens. En effet, certains groupes testent des idées, par exemple dans nos foyers et nos villes, dans le but d’améliorer l’environnement urbain, ce qui peut éventuellement aider à satisfaire les besoins des futurs colons. »

L’idée est intéressante. J’avoue que je ne savais pas moi-même trop quoi penser des recherches d’Armstrong sur Venise et le « sol hylozoïque ». Mais si on les considère comme les petites pièces d’un puzzle qui mettra peut être plusieurs siècles à se réaliser, cela prend sens. Et c’est vrai aussi des autres travaux des « makers » et biohackers. Si l’espoir que la culture maker allait donner naissance très vite, à une nouvelle forme de société industrielle tend aujourd’hui à s’étioler, la Question Interstellaire permettrait de la placer dans un cadre, de donner sens à une multitude d’expérimentations dont on ne voit pas aujourd’hui quel est l’aboutissement pratique précis. Cela donne peut être un début de réponse à la question de la panne actuelle des imaginaires : peut-être ne peut-on penser l’innovation, même à court terme, qu’en se plaçant dans une perspective impliquant un très lointain futur. C’est une idée que Rachel Armstrong nomme le « Black Sky Thinking » (« pensée du ciel noir ») et qu’elle décrit ainsi : « Le Black Sky Thinking consiste à se projeter au-delà des cadres actuels et des projections prédéterminées, dans le terrain de l’inconnu. Mais plus que cela, cela consiste à ramener cet inconnu dans le présent d’une manière qui possède des effets immédiats et engage autrui, en gardant toujours à l’esprit que l’avenir est désordonné, non-linéaire et non-déterministe ».

Conquérir les étoiles… en restant sur Terre


De cela on peut déduire que la Question Interstellaire peut commencer à se poser sur notre bonne vieille Terre, en repensant des choses comme l’urbanisme ou l’agriculture. En fait l’idée de l’arche des étoiles d’Armstrong et ses collègues est tout à fait dans la droite ligne du fameux texte écrit par Buckminster Fuller en 1968, le Manuel d’instruction pour le Vaisseau spatial Terre. En fait, il s’agit de prendre Fuller au mot : comment construire un vaisseau artificiel qui soit comme une reproduction, en plus petit, de ce vaisseau spatial Terre ? Et ce n’est même pas la peine de lancer ce « vaisseau » dans l’espace ; ce n’est pas l’urgence. Comme elle l’explique dans une interview avec Giulio Prisco publiée sur le blog de ce dernier : « Ce n’est pas quelque chose qui arrivera avant très très longtemps. Mais nous pouvons influencer le futur ici et maintenant. Par exemple, nous pouvons concevoir nos villes comme des vaisseaux spatiaux – en d’autres termes, apprendre comment les gouverner, les maintenir et les construire pour qu’elles soient équitables et respectueuses de l’environnement. Pensez au vaisseau spatial Terre de Buckminster Fuller et imaginez-le à l’échelle, d’une ville, d’un quartier, d’un bâtiment. » Et ailleurs, dans le même entretien, elle affirme : « nous avons besoin d’une biosphère III – et, de préférence, une dans chaque cité. »

L’Ecocène


Un autre aspect intéressant de la réflexion de Rachel Armstrong est le remplacement du concept d’Anthropocène par celui d’Ecocène. L’anthropocène, selon elle, est un enfant de l’ère industrielle.

« En extrapolant à partir des événements passés, l’Anthropocène nous confronte à des scénarios futurs, qui tous prédisent notre extinction inévitable. Peu importe comment se déroule l’Anthropocène, nous finissons toujours perdants… Si nous héritons d’un «bon» Anthropocène, nous finissons remplacés par des machines hyper-intelligentes, comme le prédisent des commentateurs tels que Ray Kurzweil dans The Singularity is Near (2005). De fait, Bill Joy de Sun Microsystems, Elon Musk et le scientifique Stephen Hawking expriment leur inquiétude quant aux risques existentiels d’une gestion planétaire menée par des technologies dynamiques et intelligentes, et même quant à l’avenir de la race humaine. Et si nous avons un «mauvais» Anthropocène, alors la sixième grande extinction se produira, comme l’ont prévenu Edward O. Wilson et ses collègues. »


L’Ecocène, par contraste, ne postule pas la domination de l’homme sur son environnement naturel, mais au contraire la prise en compte de l’inséparabilité de l’humain et de son milieu. De fait, les projets d’écosystèmes et de structures spatiales élaborées ces dernières années reposaient ouvertement sur des concepts hérités des l’Anthropocène. Les cylindres de O’Neill, par exemple, sont des environnements fermés parfois agrémentés d’espaces verts de type « jardins », c’est-à-dire domestiqués et au comportement parfaitement prévisible. Au contraire, des projets comme Persephone connaitront un destin bien plus incertain…

La construction d’un vaisseau interstellaire ne doit pas prendre appui sur les réalisations de l’ère industrielle, insiste Armstrong : ce ne sera pas un produit de l’Anthropocène. Il nous faut « rejouer l’histoire de la civilisation », nous explique-t-elle, remonter vers un passé plus lointain. C’est ce qu’elle essaie de faire avec son projet Persephone, qui, écrit-elle, nous ramène à l’époque « où les gens se sont pour la première fois rendu compte que le sol sur lequel ils se tenaient renfermait des richesses ».


jeudi 12 janvier 2023

Le retour de la conscience (4/4) : des « sciences sociales quantiques » ?

Les principes de la mécanique quantique, avec ses apparentes bizarreries, permettent-ils de mieux comprendre le comportement humain ? C’est ce que pense un Alexander Wendt (Wikipédia). Le bonhomme a un CV long comme le bras, et sa spécialité, ce sont les relations internationales. Il fut l’auteur en 1999 de Social Theory of International Politics. Et voilà qu’en 2015, il sort un livre remarqué, apparemment très loin de sa spécialité, Quantum Mind and Social Science, Unifying Physical and Social Ontology.

Une conscience illusoire, donc une société illusoire ?


Mais pourquoi un spécialiste des relations internationales comme Alexander Wendt s’intéresse-t-il aux théories quantiques de la conscience ? Pourquoi s’aventure-t-il si loin de sa zone de confort ?

Revenons au « problème difficile » : jusqu’ici, il a été impossible à nos connaissances scientifiques d’expliquer pourquoi nous avons des « expériences ». Par exemple, notre appareil photo « perçoit » les fréquences lumineuses correspondant au « bleu », mais de toute évidence, il n’a pas l’expérience du bleu. Les neurosciences peuvent très bien nous expliquer comment le « bleu » est saisi par notre œil, puis la manière dont cette information est transmise au cerveau, pas de mystère là-dessus. Mais en aucune façon, elles n’expliquent notre expérience. Pour certains penseurs, cela implique souvent que ce que nous appelons la conscience est une illusion, un effet secondaire des interactions neuronales, sans rôle fondamental dans notre comportement. C’est ce qu’on appelle la théorie éliminativiste. Maintenant, multipliez cette illusion par plusieurs millions d’individus : si notre conscience est illusoire, alors les sociétés, les institutions sont, elles aussi, dénuées d’existence propre. Qu’est-ce qu’une structure sociale ? Qu’est-ce qu’un Etat, par exemple ? Si un extraterrestre venait atterrir sur notre planète, explique Wendt, il observerait certains comportements des individus (par exemple, il existe des individus qui remplissent une fonction de « policiers », d’autres de « fonctionnaires », etc.) mais sans connaissance de ce qui existe dans leur esprit, il ne pourrait pas comprendre leur comportement.

L’émergence, pour sauver l’interprétation classique


Pour éviter les conclusions de l’éliminativisme sur la nature illusoire de la conscience, tout en restant dans une perspective issue de la physique classique, non quantique, on insiste beaucoup aujourd’hui, en psychologie comme en sciences sociales, sur la notion d’émergence. C’est l’idée que le tout est supérieur à la somme des parties, et que par conséquent on est obligé d’employer des méthodes spécifiques pour comprendre ces systèmes complexes. En psychologie, l’attitude émergente consiste à reconnaître l’existence de la conscience (par opposition aux philosophes éliminativistes) qui serait émergente par rapport aux interactions entre les neurones. On peut donc étudier l’esprit sans le réduire à la neurologie. Dans le domaine social, on peut dire que les institutions sont des structures « émergentes » issues de l’interaction entre les agents. Elles existent et peuvent être étudiées.

Il existe deux formes d’émergentisme, explique Wendt : épistémologique ou ontologique. Avec le premier, on admet qu’il est nécessaire de distinguer les différents niveaux d’une hiérarchie, bien qu’en réalité ceux-ci n’existent pas : les institutions sociales ne sont en réalité que des produits de l’esprit des agents, et leur esprit reste le résultat de l’interaction entre leurs neurones. L’émergentisme ontologique, au contraire, considère que les différents niveaux sont tout aussi réels les uns que les autres.

Une autre question qui secoue les émergentistes est celle de la « causalité vers le bas ». Autrement dit, les « niveaux supérieurs », émergents, exercent une action sur les étages inférieurs. Si réellement les structures supérieures sont constituées par les éléments inférieurs, il est difficile d’imaginer comment marcherait une telle rétroaction. Pourtant, c’est qu’on constate tous les jours, explique Wendt. Si John nous dit-il, se met brusquement à penser à ses problèmes au travail, sa tension va augmenter : la « conscience » agit manifestement sur le corps.

Pourtant, continue Wendt, si l’émergentisme ontologique ainsi que la notion de causalité vers le bas sont très difficilement explicables, c’est parce qu’on conserve la conception naturaliste issue de la physique classique, selon laquelle toute réalité se réduit au final à des « objets » solides et séparables.

De plus, explique Wendt, l’émergence ressemble souvent à un vœu pieux, elle n’explique pas l’apparition de la conscience, de la subjectivité. L’invoquer pour justifier l’existence de la conscience, explique-t-il, équivaut souvent à dire, « et tout à coup, un miracle se produit ».


Pour éviter ces écueils, Wendt adopte définitivement le paradigme du panpsychisme. La conscience pour lui existe au plus bas du niveau de l’échelle de la matière. Citant l’astrophysicien Freeman Dyson, « l’esprit est déjà inhérent dans chaque électron, et les processus de la conscience humaine ne présentent qu’une différence de degré, et non de nature avec les choix effectués par les électrons entre les différents états quantiques et que nous appelons dans ce cas la « chance ». »

La réduction de la fonction d’onde (par exemple le processus par lequel une onde quantique « devient » une particule lorsqu’elle est observée) peut être considérée comme une manifestation primordiale de la volonté, du libre arbitre. On ne sait pas exactement où va se manifester la particule lors de cette réduction, on ne dispose que d’une échelle de probabilité. Évidemment selon cette théorie panpsychiste, la subjectivité, la volonté, n’existent au sein de ces particules élémentaires que de manière extrêmement fruste. Mais au sein d’organismes vivants, et notamment à l’intérieur du cerveau, ces processus quantiques pourraient se trouver « amplifiés » pour donner naissance à notre conscience. Ce qui présuppose bien entendu qu’il existe réellement des effets quantiques au sein du cerveau, ce qui rappelons-le, est très loin d’être établi.

Wendt n’est ni neuroscientifique ni physicien, et bien qu’il mentionne les différentes théories du « cerveau quantique » et cite abondamment les physiciens, il s’intéresse avant tout aux conséquences de ces idées sur les sciences humaines. Du reste, Wendt reconnaît qu’il est possible d’utiliser la physique quantique uniquement comme cadre théorique, parce que celui-ci est plus efficace que celui proposé par la physique classique, sans pour autant admettre de façon littérale l’existence d’effets quantiques au niveau macroscopique. C’est ce que font certains chercheurs en théorie quantique de la décision, dont on parlera plus bas. Mais cela n’est pas son point de vue. On peut travailler comme ça explique-t-il, mais alors on se contente d’ajouter un cadre théorique de plus à des disciplines qui en possèdent déjà beaucoup trop. Wendt considère au contraire que le passage à la logique quantique, s’il est effectué sérieusement, pourrait apporter une véritable révolution dans le domaine des sciences humaines et sociales.

Pour employer son expression, les « êtres humains sont des fonctions d’onde ambulantes ». Si on adopte un paradigme quantique, certains concepts deviennent bien plus clairs : une émergence « ontologique » et une causalité vers le bas s’avèrent plus aisément compréhensibles. La clé en est l’intrication quantique. Dans le processus d’intrication, les deux particules, quoiqu’existant toujours de manière séparée, sont indissolublement liées en un seul système. En physique classique de surcroît, l’émergence est historique, « diachronique ». Des « agents » entrent en interaction, et à ce moment-là émerge le système global. Au contraire, en physique quantique, l’émergence est synchronique : le système global apparaît simultanément à ses constituants.

Wendt propose une nouvelle philosophie des institutions humaines, basée sur les théories quantiques. Pour lui les structures sociales peuvent être décrites comme des « fonctions d’ondes ». Autrement dit, elles ne se manifestent dans notre réalité que par la « réduction du paquet d’ondes ». Lorsqu’elle est observée, l’onde quantique se manifeste sous la forme d’une particule. Dans le cas des institutions, la structure sociale se « réduit » au comportement corpusculaire d’un « agent », d’un individu.

Au final, voici comment Wendt définit l’État : « L’Etat est un système social constitué, d’une part, d’une structure sociale organisée autour de formes particulières de langage (citoyenneté, territorialité, souveraineté, etc.) et de l’autre, par la myriade de pratiques de ceux qui participent à ce discours (citoyens et étrangers). Conceptualisé en termes quantiques, en tant que structure, l’Etat est une fonction d’onde partagée non localement par des millions de personnes à travers le temps et l’espace, mais c’est seulement une réalité potentielle, et non réelle. En tant que pratique, l’État est un phénomène réel, mais local, qui se matérialise momentanément quand les gens réduisent sa fonction d’onde lors de leurs activités quotidiennes, lorsqu’ils vont voter, payer des impôts et partir en guerre, et l’Etat disparait ensuite. »

Nos décisions quantiques


Dans son livre, Wendt ne présente pas que ses propres idées. C’est un bouquin de référence qui fait le point sur les travaux de bon nombre d’autres chercheurs, et qui présente des travaux peu connus. Ainsi, il consacre un chapitre à la théorie quantique de la décision, une autre incursion de la mécanique quantique dans un débat propre aux sciences humaines. A noter que pour certains de ceux qui y travaillent, son usage n’implique pas forcément la croyance en un fonctionnement quantique du cerveau ou de la conscience. Il s’agit avant tout d’un modèle auquel on peut ou non donner une valeur littérale.

Cette nouvelle théorie permet notamment de redéfinir certains comportements que la méthodologie classique en sciences humaines qualifie de « biais » et de « réponses irrationnelles ». Par exemple le problème de l’ordre des questions. Ainsi, une expérience a été effectuée en 2014 sous la houlette de Zheng Joyce Wang de l’université de l’Ohio, demandant aux sujets s’ils pensaient que Bill Clinton était un homme digne de confiance, suivie d’une question demandant si Al Gore était lui aussi digne de confiance. Puis à un autre groupe, on a posé les mêmes questions, mais dans un ordre inverse. Dans un premier cas, 49 % ont répondu par l’affirmative. Dans le second, le oui a été de 58 %. Ce genre de biais est appelé un « ancrage » en psychologie sociale. Dan Ariely a beaucoup écrit dessus. En psychologie classique on se contente de constater l’existence de ces biais, mais on ne l’explique pas. Mais la théorie quantique de la décision prévoit exactement ce genre de comportement. En effet au niveau quantique, la « commutativité » (a+b = b+a) ne marche pas. L’ordre dans lequel s’effectuent les opérations joue un rôle et peut tout changer (vous trouverez ci-dessous une assez longue vidéo de Zheng Joyce Wang sur les mécanismes de la théorie quantique de la décision. Vous pouvez y intégrer des sous-titres anglais générés automatiquement, qui sont très mauvais, mais qui aident à comprendre l’essentiel du propos, surtout en s’aidant des slides). Un article de physorg résume ainsi la pensée de la chercheuse : « Elle a utilisé l’exemple du chat de Schrödinger : l’expérience de pensée dans laquelle un chat à l’intérieur d’une boîte a des chances d’être mort ou vivant. Les deux possibilités ont du potentiel dans nos esprits. En ce sens, le chat a le potentiel de devenir mort ou vivant en même temps. L’effet s’appelle la superposition quantique. Lorsque nous ouvrons la boîte, les deux possibilités ne sont plus superposées et le chat doit être vivant ou mort. Avec la cognition quantique, c’est comme si chaque décision que nous prenons était notre propre chat de Schrödinger. »
Tout cela paraît très métaphorique, mais rappelons que la théorie quantique de la décision ne se contente pas d’expliquer nos comportements « irrationnels » de manière abstraite. Elle prétend les prédire avec exactitude, mathématiquement.

 

Tout cela tend à remettre en cause le principe de rationalité, sur lequel se basent la plupart des travaux en économie comportementale. Selon Alexander Wendt, les travaux de gens comme Kahneman ou Ariely jettent un doute sur l’efficacité de notre comportement et en donnent une vision pessimiste : « Si les gens ne se comportaient pas de manière rationnelle, même lors de tâches de laboratoire simples, quel espoir y aurait-il pour nous d’être rationnels avec les problèmes beaucoup plus complexes auxquels nous sommes confrontés dans la vie quotidienne ? »

Mais, ajoute-t-il, « il se pourrait en fait que notre définition de la rationalité soit trop étroite et constitue elle-même le problème ». A partir de là, Wendt parle de guerre (théorique) de la rationalité, qui oppose deux points de vue : celle qui insiste sur la cohérence et celle qui parle de « correspondance ». La notion de cohérence est la plus connue. Elle part du principe, continue Wendt, que chaque individu possède son lot de « croyances » sur son environnement, ainsi que certaines préférences, et va donc chercher à « maximiser son utilité », en agissant de manière à favoriser ses préférences en fonction de ses croyances. La théorie de la « correspondance », elle, affirme seulement que le comportement rationnel se caractérise par le succès de ses actions au sein de l’environnement. Mais précise-t-il, cette dernière théorie ne triomphe pas auprès des spécialistes parce que trop floue : il est difficile de définir en quoi consistent les buts, ce qu’est le succès, parfois les buts sont contradictoires, etc.

Mais la vision quantique attaque la théorie de la cohérence, qui repose sur des notions solides, issues de la physique classique : « … La théorie de la décision quantique remet en question toute la notion de maximisation d’utilité comme critère de rationalité, ce qui présuppose qu’un esprit humain normal possède des croyances et des préférences bien définies qui peuvent ensuite être maximisées lors du choix. Si nous sommes des systèmes quantiques, alors un esprit humain normal se trouvera dans un état de superposition plutôt que d’un état bien défini, et donc « il n’existe rien à maximiser »… La rationalité ne peut signifier mettre en relation les moyens et les fins si les fins n’existent même pas avant le choix des moyens ». Du coup, continue-t-il, le point de vue négligé, celui de la « correspondance », se retrouve dans la course.

Un débat loin d’être terminé


Que déduire de toutes ces théories et recherches ? Personnellement, je ne me permettrais pas d’avoir un avis sur ce débat, qui dépasse largement mes compétences. Les seules choses que je puisse en déduire sont que :
a) Le problème difficile de la conscience n’est pas en passe d’être résolu.
b) Parmi les théories redonnant un rôle fondamental à la conscience le panpsychisme a le vent en poupe, mais ce n’est pas la seule hypothèse en cours. Hoffman n’est pas panspychiste, on l’a vu…
c) La logique quantique commence à entrer dans les domaines dits « macroscopiques » de la biologie (à cause de son rôle dans la photosynthèse, entre autres), de la cognition (Hoffman, la théorie quantique de la décision), voire des sciences sociales (Wendt). Cela n’implique pas forcément une réelle implication des mécanismes quantiques, c’est peut-être simplement un cadre théorique fructueux.
d) S’il est vrai que les théories plaçant la conscience à la base des mécanismes de l’univers sont improuvables (infalsifiables, pour employer l’expression de Karl Popper), on découvre que c’est en fait aussi vrai de l’hypothèse matérialiste classique qui postule que la conscience est une émergence de l’interaction entre éléments non conscients, voire une pure et simple illusion. Autrement dit, quelle que soit l’opinion qu’on tient sur le sujet, on est dans le domaine de la philosophie, voire de la métaphysique, mais pas dans celui de la science, du moins pour l’instant.

En tout cas, tout cela est bien excitant pour l’esprit, et relance largement les débats en sciences humaines et sociales. Le livre de Wendt s’ouvre sur une citation de Robert Oppenheimer qui résume très bien la question : « Le pire de tous les malentendus possibles serait que la psychologie soit conduite à se modeler sur une physique qui n’existe plus ».

mardi 4 octobre 2022

Le retour de la conscience (3/4) : de la contre-culture à la cryptographie quantique

Les deux auteurs présentés précédemment, Donald Hoffman et James Glattfelder, font tous deux la part belle à la physique quantique dans leur défense de l’importance fondamentale de la conscience, ce qui ne va pas sans faire grincer quelques dents. Mais s’intéresser à l’interconnexion entre physique fondamentale et conscience, n’est-ce pas risquer de convoquer automatiquement la pseudo-science, comme le soulignait (avec beaucoup d’autres physiciens) Scott Aaronson ? Les deux auteurs en question ne sont pas des charlatans ou des gourous quelconques, mais ce sont bel et bien des scientifiques reconnus. Et ce ne sont pas les seuls.

Que penser par exemple de cette phrase de Max Planck (qui s’y connaissait quand même un peu en physique quantique) : “Je considère la conscience comme fondamentale. Je vois la matière comme un dérivé de la conscience. Nous ne pouvons pas ignorer la conscience. Tout ce dont nous parlons, tout ce que nous considérons comme existant, postule la conscience.” Ou encore ce propos du prix Nobel Eugene Wigner (cité par le physicien Nick Herbert dans son livre Quantum Reality) : « Il n’est pas possible de former les lois de la mécanique quantique de manière totalement cohérente sans faire référence à la conscience… quelle que soit la manière dont nos futurs concepts pourront se développer, il restera important de remarquer que l’étude même du monde extérieur conduit à la conclusion que le contenu de la conscience constitue une réalité ultime. »

Une autre objection courante à ce genre d’idées serait que l’introduction de la conscience à la base de la physique ouvrirait la porte à toutes les hypothèses parapsychologiques : télépathie, précognition, psychokinésie. Il est vrai que cela rend ces phénomènes moins incroyables, mais cela ne signifie pas qu’ils existent pour autant. Et surtout, s’y intéresser n’est en rien une obligation. Si Glattfelder y consacre effectivement quelques pages (à peine 7 sur les 574 de la version la version pdf), Donald Hoffman ou Alexander Wendt (qu’on présentera bientôt), n’en parlent pas du tout. Quant à John Wheeler, le père de l’hypothèse de l’univers participatif présenté dans l’article précédent de ce dossier, c’était un grand adversaire de toutes les théories parapsychologiques, et il tenta même de faire exclure la parapsychologie de l’association des sciences américaines (il échoua).

« Calcule et tais-toi »


En revanche, une fascination pour le paranormal a largement influé sur les recherches du Fundamental Fysicks Group cofondé en, 1975 par Elizabeth Rauscher et George Weissmann.


Si l’influence de la contre-culture sur la cyberculture est désormais bien établie, celle qu’elle a exercée sur la physique fondamentale est encore assez mal connue. C’est pourtant la thèse de David Kaiser, très sérieux professeur d’histoire des sciences au MIT, auteur de l’ouvrage : How the Hippies Saved Physics : Science, Counterculture, and the Quantum Revival (2011), un livre au moins aussi important que celui de Fred Turner sur Stewart Brand. Il y retrace le parcours étrange de ce Fundamental Fysiks Group, une assemblée informelle de jeunes chercheurs qui mêlèrent allègrement théorie des quanta, spéculations parapsychiques et intoxication lysergique. Ce collectif, qui compta entre autres parmi ses membres Jack Sarfatti, Nick Herbert (blog), Fred Alan Wolf, Saul-Paul Sirag, John Clauser ou Henri Stapp, s’intéressa particulièrement aux phénomènes « non-locaux » propres à la physique quantique.

Pour Kaiser, le groupe revêt une importance historique qui ne peut être négligée si l’on veut comprendre l’histoire des recherches en théorie quantique. À l’époque, explique Kaiser, l’enseignement de la physique était largement sclérosé. Oui, les spécialistes calculaient sans sourciller en utilisant la non-localité (autrement dit le fait que la distance ne compte plus, et que des transferts d’informations peuvent se produire instantanément, à une vitesse supérieure à celle de la lumière), et d’autres propriétés tout aussi étranges des particules élémentaires comme l’étrange capacité d’un photon à se trouver à plusieurs endroits à la fois. Oui, ils étaient parfaitement au courant que de tels phénomènes contredisaient non seulement la relativité, mais aussi le sens commun le plus élémentaire. Et non, cela n’avait aucune importance, car il s’agissait pour eux, d’un pur formalisme mathématique. Le mot d’ordre, à l’époque, était « calcule et tais-toi » !

Au centre des intérêts de ce Fundamental Fysiks Group se trouvait une expérience de pensée particulière, nommée le paradoxe Einstein-Podolsky-Rosen (ou EPR), qui postule que si la physique quantique est vraie, deux particules élémentaires qui ont été en contact à un moment donné continueront à s’influencer mutuellement, et ce, instantanément, quelle que soit la distance existant entre elles. Cela implique qu’elles sont capables de communiquer entre elles plus rapidement que la vitesse de la lumière, ce qui est rigoureusement interdit par l’autre grande théorie fondatrice, la relativité. Einstein appelait ce phénomène « interaction magique à distance » et considérait cela comme impossible.

L’une des solutions serait de penser que les deux particules se sont « mises d’accord » avant même d’être séparées, comme s’il s’agissait par exemple d’une paire de chaussures : il y en a une pour le pied gauche et une autre pour le droit, et ce dès le départ : c’est ce qu’on appelle la théorie des « variables cachées ». L’autre possibilité, c’est que les deux particules communiquent à une vitesse instantanée, sans tenir compte de la vitesse de la lumière.

Einstein pensait que ce paradoxe prouvait que la théorie quantique était, sinon, fausse, au moins incomplète. Bohr lui répondait que l’essentiel était de constater que les résultats fournis par la théorie étaient justes et ne nécessitait pas de questionnement supplémentaire. « Calcule et tais-toi », encore…

Dans les années 60, un jeune physicien irlandais, John Bell, insatisfait de la réponse apportée par Bohr, se mit en devoir de calculer mathématiquement les possibilités que les particules partagent des variables cachées. Sa réponse, son théorème est sans appel : les variables cachées sont incapables d’expliquer aussi complètement le comportement synchronisé du système que ne le ferait la possibilité que la mesure de l’un interagisse instantanément avec le comportement de l’autre. Autrement dit, les deux éléments sont inséparables, et l’une des idées fondamentales de la physique et du sens commun, la notion de localité, s’effondre.

Le théorème de Bell aurait dû susciter un tollé, et les publications sur le sujet auraient dû se multiplier. Et pourtant, nous dit Kaiser, ce fut loin d’être le cas :

« L’article de Bell est paru (…) en novembre 1964. Et ensuite… rien. Aucune activité ou reconnaissance que ce soit. Le document de Bell, jugé digne de «l’attention de tous les physiciens» par les rédacteurs de la revue, ne reçut aucune citation dans la littérature pendant quatre longues années – puis il y eut ensuite une mention passagère dans un article d’une page. Lentement, lentement, des citations du papier de Bell ont commencé à apparaître, comme les cliquetis irréguliers d’un compteur Geiger : six en 1971, sept en 1972, trois en 1973. Un regain d’activité soutenue n’a commencé qu’en 1976, lorsque vingt à trente nouveaux articles sur le sujet ont commencé à apparaître chaque année. En 1980, 160 articles très respectables avaient été publiés dans la littérature de physique sur le théorème de Bell. »

Fait important, ces nouveaux articles tardifs citant le théorème de Bell étaient pour la plupart Américains : il n’y avait pas de raisons apparentes pour cela, rappelons que Bell était irlandais. En fait nous dit Kaiser, 2/3 desdits papiers américains provenaient de membres du Fundamental Fysiks Group.

En 1972, c’est l’un des membres du groupe, John Clauser, qui réussit la première validation expérimentale du théorème de Bell. Son travail présentait cependant plusieurs défauts, et c’est en 1981 que le physicien français Alain Aspect a pu prouver la réalité de la non-localité. En 2010, Clauser, Aspect et Anton Zeilinger (qui a poursuivi ce type de travail en téléportation quantique) se sont vu conjointement attribués le prix Wolf, la plus haute récompense en physique après le Nobel, qu'ils ont par la suite reçu en octobre 2022.

Jusqu’où peut mener le théorème de Bell ?


Les bizarreries impliquées par le théorème de Bell ne pouvaient que fasciner ces jeunes chercheurs, qui envisagèrent joyeusement quelques-unes des hypothèses les plus folles pour expliquer ce phénomène, comme une influence du futur sur le passé, une abolition complète du principe de cause à effet ou encore l’interrogation sur l’objectivité du monde extérieur. Le théorème de Bell ouvrait pour eux la porte à toutes sortes d’hypothèses parapsychologiques et Nick Herbert tenta même de créer une « machine quantique » susceptible de communiquer avec les morts. Selon ses propres mots, cette machine à écrire « métaphase » avait pour but de « transformer les processus quantiques incertains en un texte rédigé en pseudo-anglais. J’espérais que des esprits (vivants, morts ou inconcevablement autres) pourraient posséder cette machine et transformer son texte quantique aléatoire en une communication intelligible. » Ce qui n’a pas donné grand-chose, admet-il (à part « quelques synchronicités étranges« ), mais depuis, sa « machine » est devenue un élément d’une installation artistique de l’artiste australienne Lynden Stone.

Cet intérêt pour le paranormal chez des « physiciens « sérieux » peut prêter à sourire. Mais ce n’est pas si exceptionnel : au XIXe siècle, William Crookes (1832-1919) ne s’est-il pas passionné pour le spiritisme ? Quant au prix Nobel de physique Wolfgang Pauli, il a travaillé avec Carl Gustav Jung sur la théorie très paranormale de la « synchronicité« .

Ensuite, n’oublions pas qu’on était dans les années 70-80 et qu’à l’époque l’intérêt pour ce genre de chose était largement partagé jusqu’au plus haut niveau de l’État américain. L’armée américaine travaillait alors avec des « voyants » sur la « vision à distance » et d’autres « pouvoirs psychiques ».

Le film Les chèvres du pentagone avec George Clooney présente une version fictionnelle et parodique assez hilarante de cette époque (mais le film est adapté d’un livre de Jon Ronson, The men who Stare at Goats, qui n’est pas un roman, mais une enquête journalistique).


Les relations entre les membres du Fundamental Fysiks Group et les penseurs de la contre-culture étaient fortes ; d’ailleurs la principale source publiée sur ces aventuriers de la conscience fut longtemps l’autobiographie Cosmic Trigger, de Robert Anton Wilson, l’une des figures de proue du mouvement psychédélique. Ils figurèrent aussi souvent parmi les invités de l’institut Esalen, ce temple du « potentiel humain » d’où sont issues bon nombre des idées de la contre-culture et du New Age (à noter que c’est à Esalen que Gregory Bateson, le pionnier de la réflexion cybernétique en sciences humaines, a choisi de finir ses jours). En 1975, Francis Ford Coppola racheta le magazine City of San Francisco, et l’un des premiers numéros de la nouvelle formule, nous explique Kaiser, proposait un article consacré au groupe, avec une présentation très explicite, affirmant que les « nouveaux physiciens (…) étaient occupés à entrer en transe, travailler sur la télépathie, [et] puiser dans leur subconscient lors d’expériences afin d’obtenir une mobilité psychique ». Vers la même époque, plusieurs membres du groupe (Sarfatti et Sirag) écrivirent dans Spit in the Ocean, le magazine littéraire créé par Ken Kesey (auteur du Vol au-dessus d’un nid de coucous et créateurs des fameux Merry Pranksters, qui lancèrent la scène psychédélique californienne, et dont fit partie Stewart Brand – comme quoi tout est dans tout), dans un numéro consacré au « contact avec l’intelligence supérieure », dont le rédacteur en chef n’était personne d’autre que Timothy Leary, « pape » des hippies, qui travailla sur le magazine depuis sa cellule de prison. Sirag y écrivit notamment un article sur la « machine à écrire métaphase » et ses tentatives de contacts avec l’esprit de Harry Houdini, histoire qu’on peut retrouver sur le blog de Nick Herbert.

Les thèses du groupe allaient toucher le grand public à la fin des années 70. L’un des participants aux travaux de l’équipe, Fritjof Capra, en tira un best-seller influent, Le Tao de la physique. En Europe, le colloque de Cordoue, retransmis intégralement par France Culture, allait faire la part belle aux spéculations de ces physiciens… Bernard d’Espagnat, physicien français renommé accepta d’ailleurs une invitation de Herbert et Sirag à animer des ateliers à Esalen…

Pourquoi les hippies ont-ils sauvé la physique ?


On ne le répétera jamais assez, ces penseurs n’étaient en rien des pseudo-scientifiques. Il s’agissait de vrais physiciens (le livre de Nick Herbert, Quantum Reality, est toujours conseillé aux jeunes étudiants en université, nous dit Kaiser – et je dois dire que pour un néophyte comme moi, Quantum Reality possède une façon totalement inédite de présenter les faits de la physique quantique, sans maths et de façon très éclairante. Expliquer les ondes quantiques par le fonctionnement des synthétiseurs, il fallait le faire ! Je précise aussi qu’il s’agit d’un traité « classique », ne comportant aucune des thèses controversées du Fundamental Fysiks Group).

En s’interrogeant sur la signification des calculs, et en ne se contentant pas de les exécuter, en comprenant l’importance du théorème de Bell, ces hippies ont rouvert la voie aux tout nouveaux développements de la pensée quantique, notamment dans le domaine de la théorie de l’information ; c’est pourquoi, comme le dit le titre de Kaiser, « ils ont sauvé la physique ». De fait, c’est une hypothèse de Nick Herbert, qui donna naissance, via sa réfutation par d’autres scientifiques, au tout nouveau champ de la cryptographie quantique, qui introduira peut-être des changements fondamentaux dans notre système bancaire au cours des années à venir ! En science une bonne erreur peut parfois être plus fructueuse qu’une vérité triviale…

Un autre point intéressant de la thèse de Kaiser est son analyse des conditions socio-économiques qui ont donné naissance à un tel groupe de marginaux. Les années 60, explique-t-il, ont été une mauvaise période pour la physique fondamentale. En effet, c’était la « détente » avec le vieil ennemi soviétique ; auparavant, les travaux dans ce domaine avaient été fortement encouragés (et financés) par l’effort de défense et l’intérêt en matière d’armement atomique. Avec le réchauffement des relations Est/Ouest, les physiciens de la génération de Sarfatti, Wolf ou Herbert se sont retrouvés à la marge, obligés de se contenter de postes mal payés de maitres-assistants. Cela les a conduits à développer des idées non-conventionnelles, mais aussi à rechercher de nouvelles sources de financement, y compris chez des gens n’ayant guère de rapport avec la science, comme différents groupes New Age.

Tout cela est bien beau, mais nous ramène une fois de plus aux mythiques années 70. Ce genre d’idées, même si elles ont été fécondes, ont-elles des raisons de nous intéresser encore aujourd’hui ? Dans les deux précédents articles de ce dossier, on a vu que certains chercheurs continuent à donner à la conscience un rôle fondamental. Mais ce qui est nouveau et remarquable c’est qu’aujourd’hui ce genre d’idées commence à pénétrer dans les sciences humaines, ce qui n’était pas du tout le cas à l’époque.

 

samedi 27 août 2022

Le retour de la conscience (2/4) : de l’univers computationnel aux futures formes de cognition

 


Paru chez Springer dans la collection « Frontiers » au printemps 2019, Information-Consciousness-Reality est un livre étonnant à plus d’un égard. Tout d’abord parce que ce livre est en open access et, en plus de la version papier on peut télécharger des versions epub ou pdf. Oui vous avez bien lu, Springer publie des livres en open access ; ce doit être un signe de l’apocalypse ou un truc du genre.

Étonnant, il l’est aussi par son ambition : ce livre ne vise pas moins que proposer un « état de l’art » de notre connaissance actuelle du monde et de nous-mêmes. Agrémenté d’un nombre considérable d’équations (que l’auteur a eu la sagesse de placer dans des rubriques séparées, que j’avoue avoir sautées sans hésitation) et aussi d’une copieuse quantité de citations, le texte est également bourré d’hyperliens internes, qui permettent de naviguer en son sein comme dans un labyrinthe (ce qui, d’ailleurs, rend indispensable la possession d’une des versions électroniques).

Qui est son auteur ? Le chercheur James Glattfelder (@jnode) est apparemment surtout connu dans le domaine de la recherche en systèmes complexes et on peut trouver une vidéo TedX de lui sur les théories de l’économie et de la finance. Il y explore comment le pouvoir financier se retrouve concentré dans quelques mains, non pas en raison d’une quelconque conspiration, mais par le jeu des lois fondamentales de la théorie des réseaux. Mais ce sujet est peu abordé dans son ouvrage (sauf dans un chapitre et surtout à titre d’exemple sur la complexité).

Contrairement au livre de Donald Hoffman présenté précédemment, ce livre ne vise pas à présenter une théorie particulière. C’est plutôt, comme je l’ai dit, une tentative de survol encyclopédique.

Mais le livre n’en propose pas moins une thèse fondamentale (livrée dès le titre Information-Consciousness-Reality) et qui peut être résumée par cette phrase : « pourrait-il y avoir quelque chose que nous ne savons pas encore sur nous-mêmes et l’univers, et dont la connaissance changerait tout ? »

Et ce savoir à acquérir, pour lui, ça ne fait aucun doute, il concerne la conscience et son rôle au sein du cosmos. Mais cela, Glattfelder ne l’explore en fait que dans la dernière partie de son ouvrage. 

Les deux volumes du Livre de la Nature


La métaphore qu’il file tout au long du bouquin est particulièrement éclairante. Il reprend le bon vieux thème du « Livre de la Nature », ces compendium scientifiques médiévaux, mais, nous dit-il, ce Livre contient non pas un, mais plusieurs volumes. Le premier volume s’écrit dans un langage particulier, les mathématiques, ainsi que l’avait compris Galilée. Il couvre toutes nos connaissances en physique et en chimie, depuis la chute des corps jusqu’aux intrications de la physique quantique. Pourtant à un point ce Livre s’arrête. Le langage des mathématiques ne s’applique plus dès qu’on entre dans les domaines du vivant, de l’écologie, de la société, de l’esprit…

il faut alors passer au volume 2, celui qui traite de la complexité. Et là, le langage doit changer. On n’utilise plus les mathématiques, mais l’algorithmie. Le volume 2 du Livre de la Nature s’écrit sous la forme de programmes informatiques.
Mais, précise Glattfelder il existe deux « appendices » qui inversent les langages. Il est possible dans certains cas de décrire des comportements complexes sous la forme d’équations. Et il est également envisageable d’écrire le livre de la physique sous la forme de programmes. C’est la voie suivie par des gens comme Ed Fredkin ou Stephen Wolfram, et d’ailleurs, cette version particulière et marginale du Livre de la Nature va jouer un grand rôle dans la troisième partie du livre.

Tout auteur « sage » se serait arrêté là : ce qui ne peut s’écrire sous la forme d’équations peut l’être sous la forme d’algorithmes, ou le sera un jour prochain ; l’esprit humain est une fonction émergente d’un système complexe ; la conscience est elle aussi émergente, si tant est qu’on tienne absolument à ce qu’elle existe.

C’est pourtant là que Glattfeldder part dans une direction plus sulfureuse. Un interlude entre la deuxième et troisième partie fait l’inventaire de ce que nous ignorons. Et c’est assez clair : en fait nous ne savons pas grand-chose.

« • Pourquoi existe-t-il quelque chose ? Ne serait-ce que la vie et la conscience…
• Que puis-je apprendre, savoir et comprendre de la réalité ?
• Quelle est la véritable nature de la réalité ?
• Quelle est la véritable nature du courant subjectif de conscience que je considère comme étant « moi-même ? »

Rétrospectivement, si l’on se penche sur l’histoire de l’univers en 13,772 milliards d’années, une pléthore de coïncidences a guidé son évolution chaotique jusqu’à ce moment présent. À quoi ressemblerait l’univers aujourd’hui si l’on revenait en arrière jusqu’au Big Bang et qu’on laissait de nouveau les choses s’auto-organiser pour 13,772 milliards d’années ?
Et si l’on recommençait encore une fois ?
En un mot, les plus grands mystères de l’existence sont toujours aussi insaisissables. »

Et Glattfelder d’enfoncer le clou. Nos théories sont incomplètes, notre perception nous trompe (il cite d’ailleurs les travaux de Donald Hoffman, bien que le livre de ce dernier soit paru après le sien), nos biais sont multiples, et bien entendu le « problème difficile de la conscience » est très loin d’être résolu.

Si, comme je l’ai dit, le livre de Glattfelder ne défend pas une théorie précise, il tourne cependant autour d’une idée fondamentale : celle d’un cosmos basé sur l’information, ou pour employer une expression devenue célèbre, « it from bit ».

Un univers fait d’information


Cette idée de voir dans l’information la substance principale de l’univers nous vient, qui s’en étonnera, de la physique quantique. Dans l’article précédent, je mentionnais la théorie favorite de Donald Hoffman, le « bayesianisme quantique », qui postulait que l’univers était la somme des croyances de ses observateurs. Cette thèse est sans doute une variante de l’hypothèse d’un des plus grands physiciens du XXe siècle, John Archibald Wheeler, et sa thèse de l’univers participatif.

Pour Wheeler, en effet, l’univers n’est autre qu’une réponse aux questions de l’observateur. Et « sans questions, il n’y a pas de réponse« . Pour Wheeler, nous explique Glattfelder, le cosmos ressemble à une version un peu « hackée » du jeu des « 20 questions ». Dans sa forme originale, tout le monde connaît le jeu. Un joueur doit poser 20 questions pour découvrir l’identité d’un personnage choisi par les autres participants.

Mais dans cette nouvelle version, à l’insu du joueur, ses interlocuteurs n’ont pas préalablement choisi de personnage à deviner. Lorsque le joueur pose sa première question, on lui répond au hasard. Puis, au fur et à mesure, ses partenaires continuent à répondre de la même manière, avec toutefois une contrainte : il ne faut pas que les réponses contredisent celles qui ont été données précédemment. A la fin des 20 questions, un « personnage » est effectivement complètement décrit, qui n’existait pas au premier abord. Lorsqu’avec nos instruments sophistiqués, nous interrogeons l’univers quantique, nous agissons comme le joueur. Petit à petit, au fur et à mesure de nos questions, nous créons un monde cohérent, mais qui n’était pas là au départ.

Si réellement « It » (la matière), vient du « bit » (l’information), l’univers lui-même devient un gigantesque programme en développement, basé au départ sur un algorithme simple, mais favorisant l’émergence de formes de plus en plus complexes. C’est une idée développée par tout un ensemble de chercheurs en computation. Stephen Wolfram, par exemple, a déclaré une fois qu’à son avis le programme qui a donné naissance à l’univers pouvait ne tenir qu’en trois ou quatre lignes de Mathematica (autant faire la pub de son produit par la même occasion). Et rajoutait-il, ce pourrait être un programme assez peu intéressant. Glattfelder, lui, cite d’autres chercheurs, par exemple la phrase suivante du spécialiste de l'informatique quantique Seth Lloyd : « Non seulement l’univers enregistre et traite les informations à son niveau le plus fondamental, comme on l’a découvert au XIXe siècle, mais c’est littéralement un ordinateur : un système qui peut être programmé pour effectuer des calculs numériques arbitraires. »

Ou encore, toujours du même Lloyd : « … la théorie computationnelle de l’univers propose une

explication simple et directe sur comment et pourquoi l’univers est devenu complexe. L’histoire de l’univers en termes de révolutions du traitement de l’information, chacune découlant naturellement de la précédente, montre d’emblée les raisons pour lesquelles un univers informatique engendre nécessairement de la complexité. En fait, nous pouvons prouver mathématiquement qu’un univers qui calcule doit, avec une probabilité élevée, donner lieu à un ensemble de structures de plus en plus complexes. »

Cette vision d’un cosmos constitué d’information amène Glattfelder à remettre en question la métaphore qui jusqu’ici constituait la base de son livre : « Peut-être que la métaphore du Livre de la Nature (…) contenant toutes les connaissances du monde – dans un langage abstrait formel – était-elle une pensée erronée. Il semble qu’au cœur de la réalité, nous trouvons un moteur computationnel qui doit être alimenté par l’information. En conséquence, le «Livre de la Nature» devrait être plus proche d’un outil informatique dans lequel sont codés les algorithmes de la réalité. Les « pages » physiques et statiques seraient remplacées par un «affichage» dynamique et fluide. »

Et la conscience dans tout cela ? Pour Glattfelder elle représente l’autre face de l’information. Même s’il ne met pas en avant une théorie particulière, on sent la préférence de l’auteur pour le « panpsychisme » qui associe systématiquement une conscience à la matière, mis à part que chez lui, le mot « matière » gagne à être remplacé par « information ». Il imagine que le monde est un acte de co-création : « les aspects extérieurs de l’information créent les aspects intérieurs et vice-versa – le physique crée l’esprit, qui crée le physique, etc.  »

Vers de nouvelles formes de cognition ?


Jusqu’ici, Glattfelder s’est contenté d’ontologie, et comme dit Hoffman, la science ne se préoccupe pas d’ontologie. Mais il franchit définitivement les limites de la respectabilité en suggérant la possibilité d’accéder à des formes supérieures de cognition, au-delà des modes de pensée rationnels traditionnels de la méthode scientifique. Serait-il possible que notre compréhension du monde puisse s’accroître par l’accès à de nouveaux modes de pensée ? Et comment ?

Glattfelder s’introduit dans un débat assez ancien représenté par deux positions opposées, celle de l’astrophysicien Martin Rees, ancien président de la vénérable Royal Society, et celle de David Deutsch(@DavidDeutschOxf), le pionnier de l’informatique quantique et chantre de la rationalité dans son livre Le Commencement de l’infini.

Grosso modo, Rees pense que notre cognition est limitée et nous empêche de comprendre la nature de l’univers ; une position très bien exprimée il y a longtemps par le biologiste JBS Haldane, qui affirmait dès 1927 que « l’univers n’est pas seulement plus bizarre que ce que nous imaginons, il est plus bizarre que ce que nous pouvons imaginer ». Pour Rees, les êtres conscients de demain, que ce soient des machines ou des êtres organiques, posséderont une cognition plus avancée (on trouvera ici une citation exprimant plus complètement cette idée). A l’opposé, David Deutsch considère les êtres humains comme des « explicateurs universels« . L’intelligence ne se quantifie pas. Dès qu’un être conscient est capable de penser, il entre dans un « commencement de l’infini ». La pensée – et notamment la pensée rationnelle, conduite par la méthode scientifique – ne peut connaître, intrinsèquement, de limites.

On sent bien que Glattfelder penche plutôt pour Rees. Pour lui, la philosophie de Deutsch est au final limitée, ne prenant pas en compte la possibilité de changement radical de la conscience humaine.

« Cette vision spécifique de la réalité et de l’esprit humain proposée par Deutsch est une vision du monde statique. L’intelligence que nous connaissons aujourd’hui existera toujours à l’avenir. Fondamentalement, nous avons atteint le summum de toute compréhension potentielle. Notre cerveau a atteint un seuil lui permettant de sonder la réalité d’une manière qui générera pour toujours des explications universelles au sujet de l’univers et de nous-mêmes.

Une telle idée rejette la possibilité imaginée par Rees. À savoir que cette intelligence est encore en cours de développement, ce qui entraîne de futures variations que nous ne pouvons même pas imaginer et que la plupart des gens ne pourraient probablement même pas reconnaître. Ou même la possibilité que de futures manifestations de la conscience puissent accéder à de nouveaux domaines de l’existence (…). De nouveaux royaumes de la réalité, auparavant inconnus de la plupart des esprits, attendent d’être explorés. Des réalités qui défient la conceptualité conventionnelle et les modes de pensée traditionnels. Peut-être maintenant l’idée d’une ontologie insondablement plus vaste et plus riche semble moins déraisonnable. Une ontologie qui ne peut être détectée et éventuellement saisie que si notre conscience passe à la vitesse supérieure et accède à de nouveaux niveaux de cognition transcendant les concepts classiques de l’explication, de la compréhension et de la connaissance.

Peut-être que non seulement «l’univers est plus étrange que nous pouvons l’imaginer», mais ce serait aussi, de manière cruciale, le cas de notre propre esprit. Après tout, si Deutsch est prêt à développer son idée d’explications universelles pour y inclure les concepts évolutifs et transcendants de la génération de connaissances, également imputables à l’esprit humain, le conflit apparent peut être résolu. »

En fait, cette idée que « notre esprit puisse être plus bizarre que nous pouvons l’imaginer » est le point clé de la dernière partie du livre. Tout d’abord cela donne à l’argument de Martin Rees une connotation optimiste, qu’on ne trouve pas d’habitude chez ceux qui le défendent (et c’est d’ailleurs ce qui énerve tant Deutsch). En effet, dans la plupart des cas, cela consiste à admettre que l’être humain est intrinsèquement limité et qu’il est donc condamné à être remplacé par des entités plus efficaces généralement d’origine artificielle. C’est un point de vue souvent partagé par les singularitariens adeptes de la superintelligence.

En faisant de l’esprit humain un territoire aussi étrange que le monde qui nous entoure, Glattfelder redonne une dignité à notre esprit. Il permet de récupérer l’idée du « commencement de l’infini ». Mais ce faisant, il entre dans un terrain dangereux et généralement peu apprécié des scientifiques.

Jusqu’à la page 529 de la version pdf, Information-Consciousness-Reality apparaît comme un bouquin de science « normale », même s’il est un peu extrémiste : l’univers participatif, la complexité, les limites de la connaissance, le caractère informationnel de l’univers et même la possibilité d’un panpsychisme, tout cela reste assez fréquent dans la littérature spécialisée. Puis, pouf, c’est quand on atteint la lisière du chapitre 14 que les drogues commencent à agir.

Car à partir de ce point, Glattfelder commence à s’interroger sur ces formes de conscience susceptibles de nous procurer ces nouveaux types de cognitions. Et son intérêt va vers les psychédéliques, les produits comme la psilocybine, le LSD la mescaline, et surtout, le DMT qui nettoient selon lui les portes de la perception, selon l’expression consacrée qu’Aldous Huxley emprunta à William Blake.


Si les hippies des années 60 ont surtout trippé sur le LSD et les champignons, le DMT connait une vogue plus récente. Cette molécule est le composant actif de l’ayahuasca, cette boisson hallucinogène utilisée par les chamans amazoniens, mais elle existe aussi sous une forme synthétique beaucoup plus pure et puissante. C’est aussi le seul psychédélique endogène, autrement dit susceptible d’être produit spontanément par le cerveau. Certains chercheurs pensent que le DMT pourrait jouer un rôle dans le rêve ou dans certains états de conscience extrêmes, comme les expériences de mort imminente (le tunnel avec la lumière au bout et tout ça).

Selon ceux qui l’ont testé, et notamment ceux qui ont reçu de fortes doses par injection, comme les sujets de Rick Strassman, le chercheur qui a publié l’ouvrage de référence sur cette molécule, le DMT se caractérise, par rapport aux autres psychédéliques, par ses visions « hyper-réelles ». L’expérimentateur est persuadé d’accéder à un autre monde et parfois même d’y rencontrer ses « habitants » des « aliens » que Terence McKenna, adepte du néochamanisme fameux dans les années 90, nommait les « elfes-machines ».

Glattfelder rapporte que selon certains utilisateurs, le DMT permettrait de percevoir le « noumène » dont partait Kant, et affirment accéder, grâce à la drogue, à « la salle de contrôle de la réalité ». Et de tels produits pourraient effectivement donner accès à de nouveaux types de connaissance.

Bon, diront certains, tout ça commence à sentir un peu fort l’encens et le patchouli ! Le mélange de physique quantique et de psychédélisme, voire de mysticisme oriental, suggère immédiatement un côté New Age dont on est spontanément enclin à se méfier. Récemment encore, en me promenant dans une grande librairie, j’ai vu un ouvrage sur « la conscience quantique » dont je n’ai guère eu l’envie d’explorer le contenu… Et on ne peut s’empêcher de penser au « webcomic » de Scott Aaronson et Zach Weinersmith qui se termine (ironiquement) par la phrase « Quantum computing and consciousness are both weird and therefore equivalent » (« l’informatique quantique et la conscience sont toutes les deux bizarres et sont donc équivalentes »).

Pourtant avec des bouquins comme celui de Glattfelder (ou celui d’Hoffman, ou encore celui, comme on le verra bientôt, d’Alexander Wendt) on est manifestement un niveau bien au-dessus des publications New Age. Tous ces auteurs possèdent un niveau de rigueur, de connaissances et de références académiques qui méritent qu’on les écoute avec attention.

De fait, cette mise en relation entre physique quantique et conscience possède une histoire assez riche et passionnante et a été défendue par des scientifiques de haut niveau, et s’est particulièrement développée au cours des années 60-70. Comme on va le voir, la contre-culture de l’époque n’a pas seulement joué un rôle dans l’avènement de l’informatique, elle a aussi laissé des traces dans l’histoire de la physique fondamentale. Et ce genre de théorie ne possède pas seulement un passé, mais peut être aussi un avenir, puisqu’elle commence à s’introduire dans certaines réflexions sur les sciences humaines.