
À l'opposé de cette vision strictement physicaliste, Roman Yampolskiy, informaticien réputé de l'Université de Louisville, défend une position diamétralement opposée. S'appuyant sur des arguments computationnels plutôt que thermodynamiques, il estime au contraire que nous vivons probablement dans une simulation. Pour Yampolskiy, les progrès fulgurants de l'intelligence artificielle pourraient non seulement confirmer cette hypothèse, mais aussi offrir des moyens d'en sortir. Ce débat oppose ainsi deux approches fondamentalement différentes : une analyse rigoureuse des contraintes énergétiques d'un côté, et une projection spéculative des capacités computationnelles futures de l'autre.
L’hypothèse de la simulation suggère que la réalité perçue par les humains ne serait en fait qu’une illusion, une simulation informatique dans laquelle même les êtres humains seraient des entités artificielles. Ce concept a suscité de nombreux débats, allant de réflexions philosophiques à des explorations en informatique. Formulée par le philosophe Nick Bostrom, cette hypothèse s’inscrit dans la lignée des scénarios sceptiques classiques, mais elle se distingue en étant présentée comme une proposition empirique, assortie de probabilités mesurables, plutôt qu’une simple spéculation. Toutefois, elle fait l’objet de critiques.
La physicienne Sabine Hossenfelder l’a qualifiée de pseudoscience assimilable à une forme de religion, tandis que le cosmologiste George F. R. Ellis a jugé l’idée techniquement irréalisable, estimant qu’elle relève davantage de conversations de fin de soirée que d’une théorie scientifique sérieuse. L’hypothèse de la simulation a également été largement explorée dans la science-fiction, où elle constitue souvent le cœur de récits emblématiques, comme dans le film The Matrix.
Sommes-nous exécutés sur un processeur cosmique ?
L’« hypothèse de la simulation » (SH) propose une idée audacieuse : notre réalité pourrait être le produit d’un programme informatique. Bien que ses origines remontent à des philosophes comme Descartes (1641/1984) et Berkeley (1734), elle a gagné en popularité grâce à des œuvres de science-fiction et à l’article influent de Bostrom (2003). Pourtant, malgré son succès médiatique, cette théorie a rarement été explorée scientifiquement, souvent jugée infalsifiable et reléguée au statut de simple phénomène culturel.
Une exception notable est l’étude de Beane et al. (2014), qui ont examiné les implications observables de la SH en modélisant un univers doté d’une structure discrète, semblable à un réseau cubique d’espace-temps. Leurs travaux suggèrent que si notre réalité était simulée, une signature détectable pourrait se cacher dans le spectre des rayons cosmiques. Plus précisément, ils estiment que l’espacement minimal d’un tel réseau ne dépasserait pas ∼10⁻¹¹ GeV⁻¹, une limite déduite des coupures énergétiques observées dans les rayons cosmiques. Ils proposent également que la violation possible de la symétrie de rotation, liée à la structure du réseau sous-jacent, pourrait servir de test empirique à cette hypothèse.
Dans une approche différente, une équipe de physiciens de l’Université de Bologne (Italie) envisage d’utiliser les rayons cosmiques ultra-énergétiques et les neutrinos pour contraindre la SH. Leur raisonnement s’appuie sur un principe fondamental : « l’information est physique » (Landauer, 1996, 1999). Autrement dit, toute simulation nécessiterait des ressources énergétiques et computationnelles finies, imposant des limites claires dictées par les lois de la physique. En appliquant ce cadre, ils estiment qu’il serait possible d’évaluer non seulement la plausibilité d’une simulation reproduisant fidèlement notre univers, mais aussi celle d’une version simplifiée à plus basse résolution.
Ces recherches ouvrent ainsi une voie inédite : plutôt que de spéculer sur la nature simulée de la réalité, elles proposent des critères physiques mesurables pour en tester la faisabilité. Si l’hypothèse reste extrêmement spéculative, elle devient, grâce à ces travaux, un sujet digne d’investigation scientifique rigoureuse.
Méthodes : le principe holographique et l'équivalence information-énergie
Afin d'évaluer les ressources nécessaires pour simuler un système donné, les chercheurs doivent quantifier la quantité d'information qui peut être encodée dans une portion donnée de l'Univers (ou dans sa totalité). Le principe holographique (HP) représente sans doute l'outil le plus puissant pour établir ce lien. Il a été inspiré par la modélisation de la thermodynamique des trous noirs par la limite de Bekenstein, selon laquelle l'entropie maximale d'un système s'échelonne à l'intérieur de la surface qui l'englobe, plutôt que dans le volume qui l'entoure.
Le HP est au cœur de la puissante correspondance « AdS/CFT » (où AdS signifie espaces anti-de Sitter et CFT théories des champs conformes) qui relie la théorie des cordes avec gravité en cinq dimensions à la théorie quantique des champs de particules sans gravité, dans un espace à quatre dimensions. Selon le HP, une région stable et asymptotiquement plate de l'espace-temps avec une frontière de surface A est entièrement décrite par un maximum de A/4 degrés de liberté, soit environ 1 bit d'information par surface de Planck, défini comme suit :
Alors que dans une description locale de la théorie classique des champs, il y a beaucoup plus de degrés de liberté, l'excitation de plus de A/4 de ces degrés de liberté déclenchera un effondrement gravitationnel. L'entropie totale contenue dans la zone holographique A découle de la deuxième loi généralisée de la thermodynamique, donnant la limite de Bekenstein, qui s'applique aux systèmes qui ne sont pas fortement autogravitants et dont l'énergie est E ≈ Mc2 :
où R est le rayon circonférentiel de la plus petite sphère qui s'ajuste autour du système de matière, en supposant un espace-temps (presque) euclidien pour simplifier, et M est la masse du système. Il va sans dire que dans le cadre d'une recherche physique aussi complexe, plusieurs hypothèses peuvent être remises en question et quelques modèles alternatifs peuvent être explorés. Nous en examinons ici quelques-uns qui semblent pertinents, même s'il est à prévoir que les enthousiastes de la SH trouveront probablement d'autres voies de sortie.
Le calcul hautement parallèle peut-il rendre possible la simulation de la Terre à basse résolution ?
Une question raisonnable serait de savoir si l'exécution d'un calcul hautement parallèle pourrait réduire de manière significative le temps de calcul estimé à la fin de la section 3.3. En général, si le calcul à effectuer est sériel, l'énergie peut être concentrée dans des parties particulières de l'ordinateur, alors que s'il est parallélisable, l'énergie peut être répartie uniformément entre les différentes parties de l'ordinateur.
Le temps de communication à travers l'horizon du trou noir (tcom ∼ 2R/c) est du même ordre que le temps nécessaire pour retourner un seul bit (∼ πh/¯ (2E¯), voir ci-dessus). Cependant, le résultat quelque peu contre-intuitif de Lloyd (2000) est que l'énergie E est divisée entre N unités de traitementproc (chacune fonctionnant à un taux ∼ 2E/(πhN¯ proc)), le nombre total d'opérations par seconde effectuées par le trou noir reste le même : ∼ Nproc2E/(πhN¯ proc) = 2E/(πh¯).
Cela découle strictement de la relation quantique entre le temps de calcul et la répartition de l'énergie. Ainsi, si l'énergie est allouée à un plus grand nombre de processeurs parallèles, la répartition de l'énergie sur laquelle ils opèrent devient plus petite, et ils fonctionnent donc proportionnellement plus lentement. Enfin, si le calcul est réparti dans une configuration nettement moins dense qu'un trou noir, en conservant la même masse, des niveaux plus élevés de parallélisation peuvent être utilisés, mais le temps de calcul augmentera car un ordinateur de trou noir fournit déjà le plus grand nombre d'opérations par bits par seconde.
La simulation du réel confrontée aux contraintes fondamentales de la physique
L'hypothèse d'un pas de temps élargi pour la simulation des neutrinos soulève des questions fondamentales sur les limites de la physique computationnelle. Si, par des mécanismes encore inconnus, les neutrinos de haute énergie pouvaient être simulés avec un pas de temps bien supérieur à ∆t = λν/c ∼ 4,1×10-32 s, la contrainte temporelle se réduirait à ∆t' ≈ 10-20 s - la plus petite durée mesurée en laboratoire. Cependant, même dans ce scénario optimiste, les exigences computationnelles restent proprement astronomiques, avec un temps de calcul (tCPU) variant entre 40 et 104 secondes selon la température, ce qui impliquerait une simulation fonctionnant bien plus lentement que le temps réel.
La puissance requise pour une telle simulation atteindrait des niveaux vertigineux, de l'ordre de 1044 à 1047 erg/s. Ces valeurs, bien qu'extrêmes, trouvent des équivalents dans l'Univers : les fusions d'amas galactiques produisent environ 1045 erg/s, les quasars les plus énergétiques atteignent 1047 erg/s, et les supernovae libèrent jusqu'à 1052 erg/s sous forme de neutrinos durant leurs premières secondes d'explosion. Ces phénomènes cosmiques montrent que de telles puissances sont possibles, mais uniquement pendant des durées brèves et dans des conditions astrophysiques particulières, bien loin des besoins continus d'une simulation.
Pourtant, même en considérant les événements les plus énergétiques de l'Univers - comme les sursauts gamma d'hypernovae (∼1054 erg/s) ou les fusions de trous noirs (∼1056 erg/s), maintenir un flux énergétique stable à ces niveaux représenterait un défi insurmontable. Le scénario nécessiterait en effet de canaliser cette énergie colossale à travers un trou noir microscopique, une tâche qui semble physiquement impossible selon nos connaissances actuelles. Ces considérations suggèrent que, même avec des hypothèses favorables, la simulation de notre univers à quelque résolution que ce soit se heurte à des obstacles fondamentaux liés aux lois mêmes de la physique.
Qu'en est-il de l'informatique quantique ?
L'informatique quantique, exploitant la superposition et l'intrication quantiques, surpasse les ordinateurs classiques pour de nombreuses opérations mathématiques (Simon, 1994). Les algorithmes quantiques optimisent l'utilisation mémoire et réduisent considérablement les besoins en temps et énergie (Chen, 2023), réalisant des calculs en un nombre d'étapes exponentiellement inférieur aux méthodes classiques. Cependant, ces avantages révolutionnaires n'affectent en rien les problèmes...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.