samedi 27 août 2022

Le retour de la conscience (2/4) : de l’univers computationnel aux futures formes de cognition

 


Paru chez Springer dans la collection « Frontiers » au printemps 2019, Information-Consciousness-Reality est un livre étonnant à plus d’un égard. Tout d’abord parce que ce livre est en open access et, en plus de la version papier on peut télécharger des versions epub ou pdf. Oui vous avez bien lu, Springer publie des livres en open access ; ce doit être un signe de l’apocalypse ou un truc du genre.

Étonnant, il l’est aussi par son ambition : ce livre ne vise pas moins que proposer un « état de l’art » de notre connaissance actuelle du monde et de nous-mêmes. Agrémenté d’un nombre considérable d’équations (que l’auteur a eu la sagesse de placer dans des rubriques séparées, que j’avoue avoir sautées sans hésitation) et aussi d’une copieuse quantité de citations, le texte est également bourré d’hyperliens internes, qui permettent de naviguer en son sein comme dans un labyrinthe (ce qui, d’ailleurs, rend indispensable la possession d’une des versions électroniques).

Qui est son auteur ? Le chercheur James Glattfelder (@jnode) est apparemment surtout connu dans le domaine de la recherche en systèmes complexes et on peut trouver une vidéo TedX de lui sur les théories de l’économie et de la finance. Il y explore comment le pouvoir financier se retrouve concentré dans quelques mains, non pas en raison d’une quelconque conspiration, mais par le jeu des lois fondamentales de la théorie des réseaux. Mais ce sujet est peu abordé dans son ouvrage (sauf dans un chapitre et surtout à titre d’exemple sur la complexité).

Contrairement au livre de Donald Hoffman présenté précédemment, ce livre ne vise pas à présenter une théorie particulière. C’est plutôt, comme je l’ai dit, une tentative de survol encyclopédique.

Mais le livre n’en propose pas moins une thèse fondamentale (livrée dès le titre Information-Consciousness-Reality) et qui peut être résumée par cette phrase : « pourrait-il y avoir quelque chose que nous ne savons pas encore sur nous-mêmes et l’univers, et dont la connaissance changerait tout ? »

Et ce savoir à acquérir, pour lui, ça ne fait aucun doute, il concerne la conscience et son rôle au sein du cosmos. Mais cela, Glattfelder ne l’explore en fait que dans la dernière partie de son ouvrage. 

Les deux volumes du Livre de la Nature


La métaphore qu’il file tout au long du bouquin est particulièrement éclairante. Il reprend le bon vieux thème du « Livre de la Nature », ces compendium scientifiques médiévaux, mais, nous dit-il, ce Livre contient non pas un, mais plusieurs volumes. Le premier volume s’écrit dans un langage particulier, les mathématiques, ainsi que l’avait compris Galilée. Il couvre toutes nos connaissances en physique et en chimie, depuis la chute des corps jusqu’aux intrications de la physique quantique. Pourtant à un point ce Livre s’arrête. Le langage des mathématiques ne s’applique plus dès qu’on entre dans les domaines du vivant, de l’écologie, de la société, de l’esprit…

il faut alors passer au volume 2, celui qui traite de la complexité. Et là, le langage doit changer. On n’utilise plus les mathématiques, mais l’algorithmie. Le volume 2 du Livre de la Nature s’écrit sous la forme de programmes informatiques.
Mais, précise Glattfelder il existe deux « appendices » qui inversent les langages. Il est possible dans certains cas de décrire des comportements complexes sous la forme d’équations. Et il est également envisageable d’écrire le livre de la physique sous la forme de programmes. C’est la voie suivie par des gens comme Ed Fredkin ou Stephen Wolfram, et d’ailleurs, cette version particulière et marginale du Livre de la Nature va jouer un grand rôle dans la troisième partie du livre.

Tout auteur « sage » se serait arrêté là : ce qui ne peut s’écrire sous la forme d’équations peut l’être sous la forme d’algorithmes, ou le sera un jour prochain ; l’esprit humain est une fonction émergente d’un système complexe ; la conscience est elle aussi émergente, si tant est qu’on tienne absolument à ce qu’elle existe.

C’est pourtant là que Glattfeldder part dans une direction plus sulfureuse. Un interlude entre la deuxième et troisième partie fait l’inventaire de ce que nous ignorons. Et c’est assez clair : en fait nous ne savons pas grand-chose.

« • Pourquoi existe-t-il quelque chose ? Ne serait-ce que la vie et la conscience…
• Que puis-je apprendre, savoir et comprendre de la réalité ?
• Quelle est la véritable nature de la réalité ?
• Quelle est la véritable nature du courant subjectif de conscience que je considère comme étant « moi-même ? »

Rétrospectivement, si l’on se penche sur l’histoire de l’univers en 13,772 milliards d’années, une pléthore de coïncidences a guidé son évolution chaotique jusqu’à ce moment présent. À quoi ressemblerait l’univers aujourd’hui si l’on revenait en arrière jusqu’au Big Bang et qu’on laissait de nouveau les choses s’auto-organiser pour 13,772 milliards d’années ?
Et si l’on recommençait encore une fois ?
En un mot, les plus grands mystères de l’existence sont toujours aussi insaisissables. »

Et Glattfelder d’enfoncer le clou. Nos théories sont incomplètes, notre perception nous trompe (il cite d’ailleurs les travaux de Donald Hoffman, bien que le livre de ce dernier soit paru après le sien), nos biais sont multiples, et bien entendu le « problème difficile de la conscience » est très loin d’être résolu.

Si, comme je l’ai dit, le livre de Glattfelder ne défend pas une théorie précise, il tourne cependant autour d’une idée fondamentale : celle d’un cosmos basé sur l’information, ou pour employer une expression devenue célèbre, « it from bit ».

Un univers fait d’information


Cette idée de voir dans l’information la substance principale de l’univers nous vient, qui s’en étonnera, de la physique quantique. Dans l’article précédent, je mentionnais la théorie favorite de Donald Hoffman, le « bayesianisme quantique », qui postulait que l’univers était la somme des croyances de ses observateurs. Cette thèse est sans doute une variante de l’hypothèse d’un des plus grands physiciens du XXe siècle, John Archibald Wheeler, et sa thèse de l’univers participatif.

Pour Wheeler, en effet, l’univers n’est autre qu’une réponse aux questions de l’observateur. Et « sans questions, il n’y a pas de réponse« . Pour Wheeler, nous explique Glattfelder, le cosmos ressemble à une version un peu « hackée » du jeu des « 20 questions ». Dans sa forme originale, tout le monde connaît le jeu. Un joueur doit poser 20 questions pour découvrir l’identité d’un personnage choisi par les autres participants.

Mais dans cette nouvelle version, à l’insu du joueur, ses interlocuteurs n’ont pas préalablement choisi de personnage à deviner. Lorsque le joueur pose sa première question, on lui répond au hasard. Puis, au fur et à mesure, ses partenaires continuent à répondre de la même manière, avec toutefois une contrainte : il ne faut pas que les réponses contredisent celles qui ont été données précédemment. A la fin des 20 questions, un « personnage » est effectivement complètement décrit, qui n’existait pas au premier abord. Lorsqu’avec nos instruments sophistiqués, nous interrogeons l’univers quantique, nous agissons comme le joueur. Petit à petit, au fur et à mesure de nos questions, nous créons un monde cohérent, mais qui n’était pas là au départ.

Si réellement « It » (la matière), vient du « bit » (l’information), l’univers lui-même devient un gigantesque programme en développement, basé au départ sur un algorithme simple, mais favorisant l’émergence de formes de plus en plus complexes. C’est une idée développée par tout un ensemble de chercheurs en computation. Stephen Wolfram, par exemple, a déclaré une fois qu’à son avis le programme qui a donné naissance à l’univers pouvait ne tenir qu’en trois ou quatre lignes de Mathematica (autant faire la pub de son produit par la même occasion). Et rajoutait-il, ce pourrait être un programme assez peu intéressant. Glattfelder, lui, cite d’autres chercheurs, par exemple la phrase suivante du spécialiste de l'informatique quantique Seth Lloyd : « Non seulement l’univers enregistre et traite les informations à son niveau le plus fondamental, comme on l’a découvert au XIXe siècle, mais c’est littéralement un ordinateur : un système qui peut être programmé pour effectuer des calculs numériques arbitraires. »

Ou encore, toujours du même Lloyd : « … la théorie computationnelle de l’univers propose une

explication simple et directe sur comment et pourquoi l’univers est devenu complexe. L’histoire de l’univers en termes de révolutions du traitement de l’information, chacune découlant naturellement de la précédente, montre d’emblée les raisons pour lesquelles un univers informatique engendre nécessairement de la complexité. En fait, nous pouvons prouver mathématiquement qu’un univers qui calcule doit, avec une probabilité élevée, donner lieu à un ensemble de structures de plus en plus complexes. »

Cette vision d’un cosmos constitué d’information amène Glattfelder à remettre en question la métaphore qui jusqu’ici constituait la base de son livre : « Peut-être que la métaphore du Livre de la Nature (…) contenant toutes les connaissances du monde – dans un langage abstrait formel – était-elle une pensée erronée. Il semble qu’au cœur de la réalité, nous trouvons un moteur computationnel qui doit être alimenté par l’information. En conséquence, le «Livre de la Nature» devrait être plus proche d’un outil informatique dans lequel sont codés les algorithmes de la réalité. Les « pages » physiques et statiques seraient remplacées par un «affichage» dynamique et fluide. »

Et la conscience dans tout cela ? Pour Glattfelder elle représente l’autre face de l’information. Même s’il ne met pas en avant une théorie particulière, on sent la préférence de l’auteur pour le « panpsychisme » qui associe systématiquement une conscience à la matière, mis à part que chez lui, le mot « matière » gagne à être remplacé par « information ». Il imagine que le monde est un acte de co-création : « les aspects extérieurs de l’information créent les aspects intérieurs et vice-versa – le physique crée l’esprit, qui crée le physique, etc.  »

Vers de nouvelles formes de cognition ?


Jusqu’ici, Glattfelder s’est contenté d’ontologie, et comme dit Hoffman, la science ne se préoccupe pas d’ontologie. Mais il franchit définitivement les limites de la respectabilité en suggérant la possibilité d’accéder à des formes supérieures de cognition, au-delà des modes de pensée rationnels traditionnels de la méthode scientifique. Serait-il possible que notre compréhension du monde puisse s’accroître par l’accès à de nouveaux modes de pensée ? Et comment ?

Glattfelder s’introduit dans un débat assez ancien représenté par deux positions opposées, celle de l’astrophysicien Martin Rees, ancien président de la vénérable Royal Society, et celle de David Deutsch(@DavidDeutschOxf), le pionnier de l’informatique quantique et chantre de la rationalité dans son livre Le Commencement de l’infini.

Grosso modo, Rees pense que notre cognition est limitée et nous empêche de comprendre la nature de l’univers ; une position très bien exprimée il y a longtemps par le biologiste JBS Haldane, qui affirmait dès 1927 que « l’univers n’est pas seulement plus bizarre que ce que nous imaginons, il est plus bizarre que ce que nous pouvons imaginer ». Pour Rees, les êtres conscients de demain, que ce soient des machines ou des êtres organiques, posséderont une cognition plus avancée (on trouvera ici une citation exprimant plus complètement cette idée). A l’opposé, David Deutsch considère les êtres humains comme des « explicateurs universels« . L’intelligence ne se quantifie pas. Dès qu’un être conscient est capable de penser, il entre dans un « commencement de l’infini ». La pensée – et notamment la pensée rationnelle, conduite par la méthode scientifique – ne peut connaître, intrinsèquement, de limites.

On sent bien que Glattfelder penche plutôt pour Rees. Pour lui, la philosophie de Deutsch est au final limitée, ne prenant pas en compte la possibilité de changement radical de la conscience humaine.

« Cette vision spécifique de la réalité et de l’esprit humain proposée par Deutsch est une vision du monde statique. L’intelligence que nous connaissons aujourd’hui existera toujours à l’avenir. Fondamentalement, nous avons atteint le summum de toute compréhension potentielle. Notre cerveau a atteint un seuil lui permettant de sonder la réalité d’une manière qui générera pour toujours des explications universelles au sujet de l’univers et de nous-mêmes.

Une telle idée rejette la possibilité imaginée par Rees. À savoir que cette intelligence est encore en cours de développement, ce qui entraîne de futures variations que nous ne pouvons même pas imaginer et que la plupart des gens ne pourraient probablement même pas reconnaître. Ou même la possibilité que de futures manifestations de la conscience puissent accéder à de nouveaux domaines de l’existence (…). De nouveaux royaumes de la réalité, auparavant inconnus de la plupart des esprits, attendent d’être explorés. Des réalités qui défient la conceptualité conventionnelle et les modes de pensée traditionnels. Peut-être maintenant l’idée d’une ontologie insondablement plus vaste et plus riche semble moins déraisonnable. Une ontologie qui ne peut être détectée et éventuellement saisie que si notre conscience passe à la vitesse supérieure et accède à de nouveaux niveaux de cognition transcendant les concepts classiques de l’explication, de la compréhension et de la connaissance.

Peut-être que non seulement «l’univers est plus étrange que nous pouvons l’imaginer», mais ce serait aussi, de manière cruciale, le cas de notre propre esprit. Après tout, si Deutsch est prêt à développer son idée d’explications universelles pour y inclure les concepts évolutifs et transcendants de la génération de connaissances, également imputables à l’esprit humain, le conflit apparent peut être résolu. »

En fait, cette idée que « notre esprit puisse être plus bizarre que nous pouvons l’imaginer » est le point clé de la dernière partie du livre. Tout d’abord cela donne à l’argument de Martin Rees une connotation optimiste, qu’on ne trouve pas d’habitude chez ceux qui le défendent (et c’est d’ailleurs ce qui énerve tant Deutsch). En effet, dans la plupart des cas, cela consiste à admettre que l’être humain est intrinsèquement limité et qu’il est donc condamné à être remplacé par des entités plus efficaces généralement d’origine artificielle. C’est un point de vue souvent partagé par les singularitariens adeptes de la superintelligence.

En faisant de l’esprit humain un territoire aussi étrange que le monde qui nous entoure, Glattfelder redonne une dignité à notre esprit. Il permet de récupérer l’idée du « commencement de l’infini ». Mais ce faisant, il entre dans un terrain dangereux et généralement peu apprécié des scientifiques.

Jusqu’à la page 529 de la version pdf, Information-Consciousness-Reality apparaît comme un bouquin de science « normale », même s’il est un peu extrémiste : l’univers participatif, la complexité, les limites de la connaissance, le caractère informationnel de l’univers et même la possibilité d’un panpsychisme, tout cela reste assez fréquent dans la littérature spécialisée. Puis, pouf, c’est quand on atteint la lisière du chapitre 14 que les drogues commencent à agir.

Car à partir de ce point, Glattfelder commence à s’interroger sur ces formes de conscience susceptibles de nous procurer ces nouveaux types de cognitions. Et son intérêt va vers les psychédéliques, les produits comme la psilocybine, le LSD la mescaline, et surtout, le DMT qui nettoient selon lui les portes de la perception, selon l’expression consacrée qu’Aldous Huxley emprunta à William Blake.


Si les hippies des années 60 ont surtout trippé sur le LSD et les champignons, le DMT connait une vogue plus récente. Cette molécule est le composant actif de l’ayahuasca, cette boisson hallucinogène utilisée par les chamans amazoniens, mais elle existe aussi sous une forme synthétique beaucoup plus pure et puissante. C’est aussi le seul psychédélique endogène, autrement dit susceptible d’être produit spontanément par le cerveau. Certains chercheurs pensent que le DMT pourrait jouer un rôle dans le rêve ou dans certains états de conscience extrêmes, comme les expériences de mort imminente (le tunnel avec la lumière au bout et tout ça).

Selon ceux qui l’ont testé, et notamment ceux qui ont reçu de fortes doses par injection, comme les sujets de Rick Strassman, le chercheur qui a publié l’ouvrage de référence sur cette molécule, le DMT se caractérise, par rapport aux autres psychédéliques, par ses visions « hyper-réelles ». L’expérimentateur est persuadé d’accéder à un autre monde et parfois même d’y rencontrer ses « habitants » des « aliens » que Terence McKenna, adepte du néochamanisme fameux dans les années 90, nommait les « elfes-machines ».

Glattfelder rapporte que selon certains utilisateurs, le DMT permettrait de percevoir le « noumène » dont partait Kant, et affirment accéder, grâce à la drogue, à « la salle de contrôle de la réalité ». Et de tels produits pourraient effectivement donner accès à de nouveaux types de connaissance.

Bon, diront certains, tout ça commence à sentir un peu fort l’encens et le patchouli ! Le mélange de physique quantique et de psychédélisme, voire de mysticisme oriental, suggère immédiatement un côté New Age dont on est spontanément enclin à se méfier. Récemment encore, en me promenant dans une grande librairie, j’ai vu un ouvrage sur « la conscience quantique » dont je n’ai guère eu l’envie d’explorer le contenu… Et on ne peut s’empêcher de penser au « webcomic » de Scott Aaronson et Zach Weinersmith qui se termine (ironiquement) par la phrase « Quantum computing and consciousness are both weird and therefore equivalent » (« l’informatique quantique et la conscience sont toutes les deux bizarres et sont donc équivalentes »).

Pourtant avec des bouquins comme celui de Glattfelder (ou celui d’Hoffman, ou encore celui, comme on le verra bientôt, d’Alexander Wendt) on est manifestement un niveau bien au-dessus des publications New Age. Tous ces auteurs possèdent un niveau de rigueur, de connaissances et de références académiques qui méritent qu’on les écoute avec attention.

De fait, cette mise en relation entre physique quantique et conscience possède une histoire assez riche et passionnante et a été défendue par des scientifiques de haut niveau, et s’est particulièrement développée au cours des années 60-70. Comme on va le voir, la contre-culture de l’époque n’a pas seulement joué un rôle dans l’avènement de l’informatique, elle a aussi laissé des traces dans l’histoire de la physique fondamentale. Et ce genre de théorie ne possède pas seulement un passé, mais peut être aussi un avenir, puisqu’elle commence à s’introduire dans certaines réflexions sur les sciences humaines.

vendredi 19 août 2022

Le retour de la conscience (1/4) : la sélection naturelle nous cache tout !

En toute logique, on devrait penser que la sélection naturelle a tendance à favoriser les organismes capables de percevoir au mieux la réalité. De toute évidence, si j’ai un meilleur accès à ce qui m’entoure, je devrai survivre plus aisément et donc avoir plus de rejetons, non ? Et pourtant, pour le cognitiviste Donald Hoffman (@donalddhoffman), professeur de sciences cognitives à l’université de Californie, ce n’est pas le cas. Il a exposé ses travaux dans un article pour le New Scientist et a sorti un livre,  The Case Against Reality. Il a également donné en 2016 une interview assez complète au magazine Quanta.

Pour vérifier le rapport entre perception de la réalité et survie, Hoffman a lancé des simulations opposant deux types d’organismes virtuels. Certains étaient capables d’avoir une perception plus précise de leur réalité simulée, d’autres au contraire ne disposaient que d’indications très parcellaires sur la valeur de survie des objets qui les entouraient. Et surprise, ce sont ces derniers qui se sont le mieux reproduits et ont survécu.

L’adaptabilité contre la vérité



Imaginons, nous explique-t-il, une créature ayant besoin d’une ressource donnée. Si elle n’en dispose pas suffisamment, elle meurt. Mais s’il y en a trop, elle meurt aussi. L’exemple qu’Hoffman donne dans Quanta Magazine est simplement celui de l’eau. Pas assez, vous mourez de soif ; trop, vous vous noyez. Imaginons que cette même créature ne possède qu’un système perceptif très limité, capable simplement de distinguer le noir et le gris. Maintenant, créons deux « races » différentes, « vérité » et « adaptabilité ». La première perçoit la vérité. Elle voit du gris s’il y a peu de ressources, et du noir s’il y en a beaucoup. La seconde perçoit le noir et le gris en fonction, si l’on peut dire, des « points de vie » que l’emplacement peut procurer. Autrement dit, si aller dans l’emplacement contenant la ressource est bon pour l’organisme, et ou si au contraire cela va nuire à sa santé. Dans ce cas, la créature verra du gris si elle récupère peu de points, du noir si elle en récupère beaucoup.

En conséquence, continue Hoffmann, chaque fois que la créature « vérité » voit du noir, elle prend un risque : peut-être touchera-t-elle le gros lot, mais elle pourra aussi faire une « overdose » qui réduira sa durée de vie et donc ses chances de reproduction. « Adaptabilité », elle, saura que les zones grises sont à éviter, et les noires à rechercher. Mais elle ignorera ce que contient véritablement la zone grise. « Voir la vérité cache l’adaptabilité, et voir l’adaptabilité cache la vérité« , écrit Hoffman. Dans toutes les simulations, la race « vérité » s’éteint pour laisser la place à sa concurrente « adaptabilité ».

Selon Hoffman, cela est a été démontré mathématiquement, ainsi qu’il l’explique dans Quanta : « Le physicien et mathématicien Chetan Prakash a démontré un théorème que j’ai conçu et qui dit : selon l’évolution par sélection naturelle, un organisme qui voit la réalité telle qu’elle est ne sera jamais plus adapté qu’un organisme d’une égale complexité qui ne voit rien de la réalité, mais qui est simplement conçu pour l’adaptabilité. Jamais. »

Hoffman ne se contente pas de dire que nous n’avons qu’une vision parcellaire de la réalité. Ce serait trivial et tout le monde le sait déjà : on ne peut pas percevoir les infrarouges, par exemple. Non, il va beaucoup plus loin. Il affirme que la réalité que nous percevons est une pure construction élaborée pour notre survie, qu’il n’existe pas de lien entre l’objet perçu et l’objet réel. Pour lui, le monde extérieur existe bel et bien, mais il ne présente aucun rapport avec ce que nous croyons percevoir. Et cela s’applique non seulement aux objets du quotidien, mais à nos catégories mentales de base, l’espace et le temps notamment. Elles aussi ne sont que des constructions adaptées à la survie.

Cette remise en cause de la réalité est une conséquence, selon Hoffman, de ce qu’il appelle « l’acide du darwinisme universel ». Il utilise cette appellation en référence au livre du philosophe des sciences Daniel Dennett, Darwin est-il dangereux ?. Ce darwinisme est universel, parce qu’il ne se limite pas à la transmission des gènes, mais apparaît comme un processus de base derrière l’ensemble des phénomènes, que ce soit la psychologie et la sociologie (avec la mémétique) mais aussi avec des domaines très éloignés de la biologie comme la cosmologie (avec par exemple la thèse du physicien Lee Smolin, qui affirme qu’il existe une « sélection naturelle » des univers en fonction de leur capacité à créer des trous noirs, qui sont en fait des « bébés univers »). Et ce darwinisme est un acide parce qu’il attaque toutes nos préconceptions : c’est une « idée dangereuse » ! Avec ses travaux sur la perception du réel, pour Hoffman, cet « acide » s’attaque maintenant à l’ensemble de notre structure mentale, y compris aux notions d’espace et de temps qui sont indispensables au darwinisme tel qu’on l’entend habituellement, ce qui évidemment constitue un paradoxe qu’Hoffman essaie de résoudre dans son livre.

Par exemple on peut exprimer l’espace en fonction des calories dépensées. Si je vois une pomme plus éloignée qu’une autre, il me faudra dépenser plus de calories pour l’atteindre, ce qui nuira à ma survie (mais évidemment, « calories » est une autre construction mentale…).

Le bureau du Réel


Hoffman nomme son hypothèse la « théorie de l’interface » ; autrement dit, nos perceptions sont analogues au bureau d’un ordinateur. Les icônes sur lesquelles nous cliquons n’ont rien à voir avec la réalité qu’elles recouvrent, c’est-à-dire un ensemble de circuits activés au sein de la machine. Elles nous permettent d’agir, mais elles ne représentent pas la réalité, au contraire ! Elles servent à la masquer, à nous permettre de ne pas nous en occuper, car si nous devions connaître l’état exact de la structure matérielle de notre fichier, les bits sur notre disque dur ou dans la mémoire centrale, nous aurions renoncé depuis longtemps à l’informatique ! Quant à l’espace et le temps, ils ne constituent, selon Hoffman, que la structure de base de ce « bureau ».

La métaphore de l’interface permet aussi à Hoffman de répondre à une objection commune : si le lion ou le serpent qui m’attaque ne sont qu’une icône, lui répond-on, pourquoi les craindrais-je ? Après tout ce ne sont que des représentations symboliques, des icônes, elles ne présentent aucun danger pas vrai ? Mais, répond-il, c’est le produit d’une confusion fréquente : entre « prendre quelque chose au sérieux » et « y croire littéralement ». Je sais bien, explique-t-il, que l’icône sur mon bureau n’est pas mon fichier. Mais j’éviterai de la placer dans la corbeille parce que je sais qu’à ce moment que je perdrai tout mon travail. Je prends l’icône au sérieux. Mais je ne l’identifie pas à la réalité.

On pourrait trouver une ressemblance entre les thèses d’Hoffman et le fameux "argument de la simulation" . Mais ce dernier postule une intelligence externe qui aurait « construit » une réalité virtuelle dans laquelle nous évoluons. Ici, c’est la sélection naturelle elle-même qui crée la « simulation ». Pas besoin d’imaginer un super-programmeur.

A première vue, tout cela ressemble à une réactualisation des théories de Kant. Celui-ci distinguait en effet le monde du « noumène » des choses telles qu’elles sont réellement, et celui des « phénomènes », les objets tels qu’ils nous apparaissent. Hoffman affirme tout au long de son livre qu’il n’est pas « solipsiste« , mais qu’il pense que le monde extérieur existe réellement, donc il semblerait bien qu’il s’aligne sur ce point de vue. Il faut, en fait, attendre le dernier chapitre de son ouvrage pour qu’il nous explique qu’il n’en est rien. Si les objets n’existent pas en tant que tels, qu’est-ce qui reste ? Pour lui, la seule chose dont nous pouvons être sûrs, c’est la conscience elle-même.

Dans son article du New Scientist, Hoffman avoue sa sympathie pour la théorie quantique bayésienne, qui explique les paradoxes de la physique quantique par le fait que notre représentation de l’univers est le produit des croyances de ceux qui l’observent. Pour Hoffman, en effet, il n’existe que des acteurs conscients : l’ensemble de notre univers est constitué par un « réseau social » d’acteurs conscients. Le monde « nouménal » pour rester dans le vocabulaire de Kant, n’existe donc pas sous la forme « objective », même inconnaissable. Il n’y a que des consciences et des interactions entre les consciences.

Ces différents « agents conscients » sont susceptibles de se combiner entre eux pour créer des agents d’un niveau de complexité supérieur. Mais au plus bas de l’échelle, on trouve des agents conscients dotés d’un « bit unique ». Ceux-ci ne disposent que d’un catalogue de deux actions possibles, et de deux « expériences » disponibles.

Évidemment, Hoffman ne pouvait manquer de réagir au débat actuel sur l’IA et sur la possible naissance d’une « machine consciente ». Sa réponse est assez surprenante, parce qu’on pourrait penser que le paradigme actuel de l’IA (la conscience émerge à partir d’interactions matérielles et n’est donc pas à la base de toutes choses) le rendrait plutôt rétif à embrasser ce genre de spéculation. Mais pas du tout, à condition de comprendre que ce n’est pas la machine qui est consciente, celle-ci n’est autre qu’une icône, mais qu’elle peut constituer un « portail » vers la conscience.

Ainsi, un rocher n’est pas conscient, c’est juste une icône qui fait partie de mon expérience consciente. Cela ne s’applique pas qu’aux objets inanimés : « Quand je vois mon ami Chris, écrit-il, je fais l’expérience d’une icône que je crée, mais cette icône elle-même n’est pas consciente. Mon icône Chris ouvre un petit portail vers le riche monde des agents conscients ; une icône souriante, par exemple, suggère un agent joyeux. Quand je vois un rocher, j’interagis aussi avec des agents conscients, mais une icône « rocher » ne m’offre aucun indice, aucun portail vers leur expérience. » Et l’IA, donc ? Elle permettrait, selon Hoffman « d’ouvrir de nouveaux portails vers la conscience, tout comme les microscopes et les télescopes ont ouvert de nouvelles perspectives de notre interface ».

Pour autant, la thèse d’Hoffman n’est pas un panpsychisme. Cette hypothèse rendue notamment célèbre par les neuroscientifiques Giulio Tononi et Christoph Koch postule que la conscience est en quelque sorte la face cachée de la matière. Dès qu’il y a un objet matériel, il y a conscience, même si celle-ci est très primitive, comme celle que pourrait avoir un électron ou un quark. Lorsque ces éléments matériels s’organisent d’une certaine façon (Tononi affirme même obtenir un nombre mesurant cette capacité d’organisation, qu’il nomme Phi), des consciences de plus en plus élaborées apparaissent. Mais pour Hoffman, les panpsychistes tiennent les réalités matérielles pour objectives, alors que pour lui-même les atomes et les quarks sont des constructions de l’esprit. Il n’est pas enthousiaste non plus des thèses de Penrose et Hameroff qui affirment que la conscience est le produit d’une computation quantique qui se produirait à l’intérieur des « microtubules » situés dans nos neurones. Une telle hypothèse, affirme-t-il ne résout en rien le problème de l’apparition des expériences de conscience, qui restent toujours aussi mystérieuses.

La conscience partout…


Et comment Hoffman explique-t-il la conscience ? En fait, il n’a pas besoin de l’expliquer puisqu’elle devient le constituant fondamental de l’univers, sa base unique. Comme il l’indique dans son livre, le rasoir d’Occam suggère que l’explication la plus simple est que toutes choses est un monisme : l’existence d’une seule et unique cause, ou substance, à l’origine de l’ensemble des phénomènes. Le monisme le plus en cours aujourd’hui dans la communauté scientifique est le physicalisme, c’est-à-dire que toute chose émerge à partir de l’unique constituant qu’est la matière (et tant pis si cette dernière est de plus en plus difficile à définir au fur et à mesure qu’on approche du niveau quantique). Mais un autre monisme est tout aussi possible et efficace, celui-ci consiste justement à placer la conscience en bas de l’échelle des phénomènes. Ce qui ne remet en rien en cause la méthode scientifique ou les connaissances que nous possédons actuellement. Comme l’explique Hoffman, il s’agit d’un choix d’ontologie, et la science, en principe, ne se préoccupe pas d’ontologie.

Jusqu’où peut-on suivre les thèses d’Hoffman ? Sa théorie est assez extrême il faut bien le dire. De plus, il faut faire la différence entre son argument principal (la sélection naturelle nous masque la réalité) et son idée selon laquelle le monde est constitué par un réseau social d’acteurs conscients. C’est une explication intéressante, mais elle n’est pas la seule imaginable, et Hoffman est d’ailleurs le premier à admettre qu’il ne s’agit que d’une hypothèse de travail.

En tout cas, cette théorie a l’avantage de supprimer le « difficile problème de la conscience » comme l’a nommé le philosophe David Chalmers : le fait que notre connaissance des neurosciences ne nous permette pas de comprendre l’existence de notre expérience consciente, et ne permettra pas de le faire, même si, dans un futur proche ou lointain, nous établissons une corrélation entre toutes les activités neurales et tous nos états mentaux. La théorie d’Hoffman (et d’autres que nous allons examiner dans ce dossier) élimine le problème puisque la conscience se retrouve à la base de toutes choses. Petit inconvénient, c’est l’existence d’un peu tout le reste qui devient un problème difficile à résoudre. 

En tout cas, à tout prendre je trouve ce genre d’hypothèses « idéalistes » moins difficiles à avaler que les hypothèses éliminativistes qui postulent l’inexistence de la conscience. Alors, que, sans vouloir jouer à Descartes le fait que je sois conscient reste à peu près la seule chose dont je puisse être sûr.

Toujours est-il que les idées d’Hoffman s’inscrivent dans un courant d’idées pas si nouveau, mais qui connaît aujourd’hui une résurgence chez différents chercheurs, travaillant chacun dans des disciplines différentes, que ce soit la physique, la complexité ou même les relations internationales…