Théorie et Expérimentation: plusieurs réalités objectives ?
Une nouvelle étude associée à une expérimentation a été publiée récemment dans Nature Physics, proposant un autre théorème que celui de Bell, à l'aide d'une expérimentation physique du paradoxe de l’ami de Wigner avec un scénario introduit par Brukner. La question principale posée est : La théorie quantique s'applique-t-elle à toutes les échelles, y compris celle des observateurs ?
" Il s'agit d'une expérience de réflexion abordant le problème de la mesure quantique - la difficulté de concilier l'évolution (unitaire, déterministe) de systèmes isolés et la mise à jour d'état (non unitaire, probabiliste) après une mesure. Ici, en s'appuyant sur un scénario avec deux amis séparés mais intriqués introduit par Brukner, nous prouvons que sil'évolution quantiqueest contrôlable à l'échelle d'un observateur, alors celle du 'Non-Superdeterminisme', 'Localité' ou 'Absoluité des événements observés (AOE)' - que tout événement observé existe absolument et non relativement - doit être faux. Nous montrons que bien que la violation des inégalités de type Bell dans de tels scénarios ne soit pas en général suffisante pour démontrer la contradiction entre ces trois hypothèses, de nouvelles inégalités peuvent être dérivées, de manière indépendante de la théorie, qui sont violées par les corrélations quantiques. Ceci est démontré dans une expérience de démonstration de principe où le chemin d’un photon est considéré comme un observateur. Nous discutons comment ce nouveau théorème impose des contraintes strictement plus fortes sur la réalité physique que le théorème de Bell."
La Mécanique quantique: Si les ressorts de cette discipline encore jeune (à peine un siècle) questionnent profondément les rares esprits qui s'adonnent à son étude, l'on sait néanmoins que la physique quantique décrit avec une précision confondante les comportements les plus contre-intuitifs des atomes et des particules, posant souvent plus de questions qu'elle n'en résout.
Pour les chercheurs travaillant dans le champs de la physique relativiste, le monde possède deux qualités importantes. Il est à la fois :
réaliste, c'est-à-dire que la réalité est objective et ne dépend pas d'une mesure ou d'un observateur ;
déterministe, c'est-à-dire que la réalité n'est pas aléatoire mais le fruit d'un ensemble de variables produisant des résultats systématiques et prédictibles (pourvu que l'on dispose de toutes les informations nécessaires à sa compréhension).
Or, la physique quantique nous apprend qu'il en va bien autrement en deçà d'une certaine échelle, dans le monde exotique des atomes et des particules, voire des molécules. Imaginons qu'une particule, un peu comme un interrupteur, admette deux états possibles, que nous baptiserons 1 et 0 pour un maximum de simplicité. Si l'on en croit l'interprétation de Copenhague (le consensus actuel), tandis qu'un interrupteur ne peut être que dans un seul état à la fois (allumé ou éteint), la particule, elle, se trouve dans ce que l'on appelle une superposition d'états, c'est-à-dire à la fois 1 et 0. Cette superposition ne disparaît que lorsqu'un observateur décide de mesurer son état, causant ainsi un effondrement de la fonction d'onde. Cette première idée contredit la possibilité d'une réalité unique et objective pour notre particule, mais les choses ne s'arrêtent pas là.
En effet, toujours d'après la théorie quantique, la particule ne suit pas une logique déterministe mais probabiliste. On ne peut donc pas prédire l'état dans lequel elle sera, mais seulement calculer la probabilité d'obtenir un état ou un autre. Dans notre cas, et toujours par souci de simplicité, nous dirons que notre particule a une chance sur deux d'être dans l'état 1 ou 0.
Les scientifiques ignorent encore à ce jour par quel mécanisme la particule passe d'une superposition d'états à un état fixe. Certains ont suggéré que la fonction d'onde s'effondre au moment où la mesureest faite, d'autres encore que l'intervention d'un observateur conscient est nécessaire -- cette dernière notion a amené certains à tordre la physique quantiquepour lui faire dire que nous pouvions modifier la fabrique de la réalité par la simple force de notre esprit, ce qui, pour autant que nous sachions, est complètement erroné. Aujourd'hui, les chercheurs travaillant avec des systèmes quantiques complexes savent qu'un simple coup de vent peut causer l'effondrement du fragile château de carte qu'est la superposition quantique, fragile à l'interaction avec les particules présentes dans l'air. La question de ce qui fait la valeur d'une mesure ou d'un observateur demeure donc encore en suspens. Néanmoins, cette nouvelle expérienceparvient aujourd'hui à apporter de nouveaux éléments de réponse, permettant d'affiner les impératifs et contraintes concernant cette question primordiale.
La notion d'intrication quantique. Nous savons d'ores et déjà que lorsque nous mesurons l'état d'une particule quantique, nous avons 50 % de chance de trouver 1 ou 0. Mais les particules intriquées, elles, partagent une relation particulière. Liées l'une à l'autre (suite à une manipulation volontaire ou, plus rarement, accidentellement), elles forment un tout inséparable où l'état de l'une est dépendantde celui de l'autre. Plus simplement, les deux particules se trouvent chacune dans une superposition d'états (1 et 0) jusqu'à que l'une d'entre elles soit mesurée. Cette mesure cause un effondrement de la fonction d'onde simultanépour la paire, et chacune se fixe alors dans un état opposé, et ce, peu importe la distance qui les sépare :
Cela signifie qu'en théorie, si vous placez une particule sur la Lune et sa jumelle sur Terre, la mesure de la particule terrienne (donnant par exemple l'état 1) provoquerait l'effondrement de la fonction d'onde de sa jumelle lunaire (qui acquerrait alors l'état 0) au même instant. Ceux qui se souviennent encore de leurs cours de physique protesteront alors en affirmant que cela est impossible car rien, même l'information, ne voyage plus vite que la lumière (qui met 1,3 seconde à nous parvenir de la Lune). Einstein n'était d'ailleurs pas le plus grand adepte de cette notion, qu'il surnommait la dérangeante (ou effrayante) action à distance.
Dans les années 1960, le physicien John Bell décide d'en apprendre plus sur cette communication manifestement instantanée entre les particules intriquées. Il part ainsi de deux principes initiaux, afin de respecter la vision classique du monde :
principe de localité : les particules ne peuvent pas s'influencer mutuellement plus vite que la lumière ;
réalisme : les particules suivent un fonctionnement déterministe (et non probabiliste) que nous peinons simplement à prédire à cause de variables cachées.
Sur la base de ces deux postulats, Bell calcule l'ensemble des états possibles pour la mesure d'une paire de particules intriquées dans un contexte complexe et obtient ainsi un seuil de corrélation théorique. Depuis, de nombreux « tests de Bell » ont été effectués dont les résultats ont infailliblement violé le seuil théorique calculé par Bell. Selon lui, une seule conclusion pouvait être tirée de ce constat : l'un de ses postulats de départ était faux. Mais lequel ?
Ici, nous pouvons parler de la Théorie de l'ordre implicite du physicien américain David Bohm, reprise par d'autres ensuite :
D'après cette théorie, une réalité plus profonde sous-tend l’univers, et le monde que l’on perçoit avec nos sens n’est qu’une illusion, une sorte de fantôme ou de projection de cette cohérence cachée. La notion d’ordre implicite met l’accent sur la primauté de la structure et du processus par rapport aux objets individuels. Ces derniers sont interprétés comme de simples approximations d’un système dynamique sous-jacent. Les particules élémentaires et l'ensemble des objets n’auraient ainsi qu’un degré d’individualité limité.
Le terme « implicite » dérive du latin implicatus (« enveloppé »), l’une des formes du participe passé de implicare (« plier, emmêler ») 1. Il qualifie donc une réalité dont chacune des parties est en contact avec les autres. Chaque fragment de la réalité contient en effet des informations sur chacun des autres fragments, de telle sorte que chaque élément du monde renvoie à la structure de l’univers en son entier. L'ordre implicite, qui est caché, produit la réalité phénoménale – celle que l'on perçoit avec nos sens et nos instruments – et avec elle, l'ordre de l'espace et du temps, de la séparation et de la distance, des champs électromagnétiques et de la force mécanique. Cette réalité opère elle-même selon un ordre que Bohm nomme l’« ordre explicite », monde ouvert et révélé de façon manifeste.
Pour David Bohm, l'étrangeté des phénomènes quantiques, en particulier ceux impliquant la non-localité, peut être expliquée comme une conséquence d'une activité qui échappe encore à l'investigation des physiciens. Il soutient que l'espace et le temps eux-mêmes peuvent être inférés à partir d'un niveau encore plus profond de réalité objective que celle qui se manifeste dans la physique quantique standard. C'est le point de départ de sa conception de l'ordre implicite.
Nous continuerons de parler de cette théorie de Bohm plus bas, après l'objet principal de cet article (suite en bas).
La nouvelle expérience (Bong, K., Utreras-Alarcón, A., Ghafari, F. et al. A strong no-go theorem on the Wigner’s friend paradox. Nat. Phys. (2020). https://doi.org/10.1038/s41567-020-0990-x) :
« Pour notre recherche, nous avons construit une version étendue du paradoxe de l'ami de Wigner, proposée pour la première fois par Časlav Brukner, de l'université de Vienne », écrit Eric Cavalcanti, coauteur de l'étude parue dans la revue Nature Physics. Dans ce nouveau scénario, nous faisons la connaissance d'Alice et Bob (dans le rôle de Wigner), de Charlie et Debbie (dans le rôle de son ami) et d'une paire de particules intriquées (dans le rôle de... la particule).
Charlie et Debbie se trouvent chacun dans leur propre laboratoire : tandis que Charlie a pour mission de mesurer la particule a de la paire intriquée, Debbie se charge de la particule b. (Rappelons que, conformément au principe d'intrication quantique, si Charlie mesure un état de 1, Debbie trouvera forcément 0 de son côté, et vice versa.) À l'extérieur, Alice et Bob (que nous qualifieront de superobservateurs) font chacun rouler un dé à trois faces (I, II, III) :
si le résultat est égal à I : le superobservateur ouvre la porte du laboratoire et demande à son acolyte quel résultat il a obtenu ;
si le résultat est égal à II ou III : le superobservateur laisse la porte fermée et choisit alors de mesurer la particule lui-même, en faisant fi du résultat obtenu par son acolyte.
Les duos suivent cette procédure sans se préoccuper l'un de l'autre et, à la fin de l'expérience, Alice et Bob comparent leurs résultats afin de calculer le taux de corrélation pour l'ensemble des paires de particules.
Dans le contexte plus concret d'une expérimentation scientifique reproductible, une paire de photons polarisés et intriqués est générée et passe par un système complexe de filtres, de prismes, de miroirs et de capteurs. La principale chose à comprendre est que le photon passe d'abord au niveau d'un filtre qui détermine sa trajectoire (par exemple gauche ou droite) en fonction de sa polarisation (1 ou 0). Il a ensuite deux options :
soit il poursuit sa route directement vers un interféromètre qui mesurera son état ;
soit il passe par un deuxième filtre qui annule l'effet du précédent avant que le photon ne parvienne à l'interféromètre.
Ici, le premier filtre désigne l'acolyte, tandis que l'interféromètre prend la place du superobservateur. Dans le premier cas, décrivant la situation où le lancer de dé est égal à I, le résultat obtenu par le filtre/acolyte est directement transmis à l'interféromètre/superobservateur (la porte est ouverte). Dans le second, où le lancer de dé est égal à II ou III, l'observation de l'acolyte est en quelque sorte effacée, et le photon est mesuré directement par le superobservateur (la porte reste fermée). Dans l'expérience, le lancer de dé est généré aléatoirement pour chaque interféromètre, à chaque nouvelle paire de photons.
Afin de confronter leurs résultats expérimentaux avec les prédictions de la physique classique, les chercheurs établissent leurs calculs théoriques sur trois postulats de base, formant ensemble un principe baptisé « amicabilité locale » par Cavalcanti :
absoluité des événements observés (AOE) : une fois la première observation faite, l'effondrement de la fonction d'onde est absolu est définitif, il n'y a pas de versions alternatives ou de modifications possibles ;
principe de localité : (rappel) les particules ne peuvent pas s'influencer mutuellement plus vite que la lumière ;
absence de superdéterminisme (NSD) : le libre arbitre et l'aléa sont préservés ; le résultat des lancers de dés, par exemple, ne saurait être influencé par un autre événement dans ou en dehors de l'expérience : il est entièrement aléatoire.
Une fois le seuil de corrélation théorique calculé, l'équipe a mené pas moins de 90.000 tests. Comme elle s'y attendait, les corrélations obtenues expérimentalement violent systématiquement les postulats de Bell. Mais, plus intéressant encore, les résultats ne violent le principe d'amicabilité locale (remettant en cause au moins l'un des trois postulats de départ ci-dessus) que lorsque l'intrication est suffisamment forte : en perturbant partiellement l'harmonie des paires de photons, les chercheurs ont constaté qu'au-delà d'un certain seuil, les résultats empiriques rejoignent les prédictions.
Cette distinction permet de démontrer que les postulats de Bell et ceux de l'amicabilité ne sont pas équivalents. Afin d'obtenir des résultats théoriques en accord avec les mesures effectuées dans la réalité, il nous faudra donc abandonner au moins l'un des trois postulats posés par le principe d'amicabilité locale. Et les implications d'une telle découverte sont profondes.
« L'avancée dans ce cas est que nous discernons un peu mieux quels postulats nous devons abandonner », commente Ken Wharton, un physicien de l'université de San José, qui n'a pas pris part à l'étude. En attendant que de nouveaux résultats expérimentaux nous fournissent de plus amples éléments de réponse, les théories continueront de foisonner, certains scientifiques affirmant que les événements futurs peuvent affecter des observations passées (rétrocausalité), que chaque observation provoque la naissance d'univers parallèle (hypothèse des multivers), ou encore qu'il n'existe pas de réalité objective. Prochaine étape pour les chercheurs : reproduire l'expérience à des échelles de grandeur supérieure afin de voir jusqu'où la théorie quantique tient bon, et si ses conclusions s'appliquent à notre niveau de perception.
Il aura fallu aux physiciens des semaines entières pour collecter suffisamment de données et arriver à la conclusion suivante : l'état du système mesuré par plusieurs observateurs peut être différent et ainsi, la mécanique quantique peut être incompatible avec la notion de faits objectifs. Mais ils soulignent toutefois que cette conclusion repose sur quelques hypothèses qui restent possiblement à valider. Comme le fait qu'un photon puisse être considéré comme un observateur... observé.
Par J-Wiki sur Wikipédia anglais — Entirely self-generated using computer graphics applications., CC BY-SA 4.0, https://commons.wikimedia.org/w/index.php?curid=71497983
Reprise des données sur la théorie de Bohm, qui s'ajoutent évidemment aux données ci-dessus :
Le paradoxe dit « EPR » constitue une référence essentielle pour toute la théorie de David Bohm. Ce paradoxe provient d’une expériencede pensée décrite par Albert Einstein, Boris Podolsky et Nathan Rosen (d'où l'acronyme EPR), formalisée par le physicien John Bell qui en fit un théorème, reprise par Bohm dans le cadre de sa mécanique et confirmée par le physicien Alain Aspect en 1982. Dans sa version simplifiée, elle part du raisonnement suivant : si l’on sépare un couple de particules élémentaires, par exemple un couple d'électrons sans spin (le spin représentant la caractéristique de rotation des particules élémentaires), l’une de ces particules doit avoir, d’après la loi de conservation du spin (l’une des lois de la mécanique quantique), un spin de + ½ et l’autre un spin de – ½. Elles sont dites en ce sens « intriquées ». Si l’on suppose à présent que ces particules intriquées sont envoyées chacune dans des directions contraires jusqu’à atteindre des distances très grandes, et que l’on inverse le signe du spin de l’une d’elles, l’autre particule, pour garantir la loi de conservation du spin, devra changer instantanément le signe de son propre spin. C’est ce que Bohm appelle « l’effet des spins liés ». Or, avec un tel phénomène, le respect de la loi de conservation du spin conduit à violer une loi fondamentale de la théorie de la relativité qui établit que les signaux ne peuvent se propager instantanément, mais seulement à une vitesse finie qui est celle de la lumière. La modification de l’une des caractéristiques d’une particule intriquée génère donc un événement non local incompatible avec la physique relativiste classique.
Les résultats de l'expérience EPR semblent prouver que des particules subatomiques qui sont éloignées l'une de l'autre sont en mesure de communiquer entre elles d'une manière qu'on ne peut pas expliquer par l'émission de signaux qui voyagent à la vitesse de la lumière. Par conséquent, comme l'affirmait Einstein, ou bien la mécanique quantique est fausse, ou bien les particules élémentaires doivent répondre à des variables « cachées » ou « additionnelles » qui remettent en cause la complétude de la mécanique quantique, et qu'il faut découvrir. C’est en 1964 que John Bell établit les célèbres inégalités de Bell qui pourraient être vérifiées si des variables cachées – au sens défini par Einstein (c'est-à-dire des variables dites « locales » et respectant le principe de causalité classique) – existaient, et infirmées si elles n'existaient pas. Les expériences visant justement à vérifier les inégalités de Bell purent être menées au début des années 1980, et aboutirent à une violation des inégalités, invalidant la possibilité d'existence de telles variables. Mais ce n'est pas l’ensemble des théories à variables cachées qui est réfuté par la violation des inégalités de Bell, mais toutes celles qui sont locales. Les variables non locales n'obéissant pas aux lois de la physique relativiste, et leur valeur étant déterminée à une échelle subquantique (sous l’échelle de Planck), elles échappent à l'objection de la violation des inégalités. Au lieu de se comporter de façon véritablement aléatoire comme dans le modèle orthodoxe de la mécanique quantique, les particules pourraient très bien alors évoluer dans un fluide subquantique qui agirait sur elles de façon causale – mais en un sens non classique – à l'image des molécules d’eau invisibles qui exercent une influence cachée sur les grains de pollen en suspension dans l’air en les faisant se mouvoir de manière apparemment aléatoire.
Bohm identifie ces variables non locales – dont il présuppose l’existence – à ce qu’il nomme le « potentiel quantique », principe gouvernant la matière de manière déterministe et causale, mais à un niveau de réalité qui ne se situe plus dans l’espace-temps comme c'est le cas dans la physique classique ou relativiste. Suivant cette perspective, les particules subatomiques restent en contact indépendamment de la distance qui les sépare car leur séparation est une illusion qui a lieu dans l’espace-temps. Bohm développe au fur et à mesure de ses recherches l'idée qu'à un certain niveau de réalité plus profond que celui du monde apparent, ces particules ne sont pas des entités individuelles, mais des extensions d'un même système fondamental. C'est principalement cette idée qui le conduit à concevoir sa « théorie de l'ordre implicite », qui doit connecter les événements disjoints dans l'espace et le temps :
« Dans l'ordre implicite, l'espace et le temps ne sont plus les principaux facteurs déterminant les relations de dépendance ou d'indépendance entre les différents éléments. Au contraire, une sorte de connexion entièrement différente est possible, de laquelle nos notions ordinaires d'espace et de temps, ainsi que de particules matérielles existant séparément, sont extraites en tant que formes dérivées de l'ordre plus profond. ».
Pour Bohm, puis pour Basil Hiley et Fabio Frescura avec lesquels il collabore, cet ordre implicite procède d’une « pré-géométrie » et d'une algèbre seules capables de décrire un tel « pré-espace ». Ces nouvelles mathématiques constitueraient une sorte de prolongement de la relativité générale, théorie qui se fonde également sur la géométrie pour décrire le comportement des objets qui s'y trouvent. À l'instar d'Einstein, Bohm et ses collègues remettent ainsi en question la complétude de la physique quantique non seulement en introduisant des variables supplémentaires (en l’occurrence, les particules elles-mêmes et leur dynamique déterministe) mais en articulant une nouvelle conception de l'espace-temps.
Le potentiel quantique de Bohm (Q{\displaystyle \mathbb {Q} }) n'est pas une quantité qui diminue avec l'inverse du carré de la distance comme le font tous les signaux électromagnétiques dans la physique classique ; c'est une quantité dont l'intensité ne dépend pas de la distance, mais seulement de la « forme » de l'amplitude de la fonction d'onde ψ ψ{\displaystyle \psi } deSchrödinger, ce qui génère inévitablement des effets non locaux :
« A la différence de ce qui se passe avec les potentiels électrique et magnétique, le potentiel quantique ne dépend que de la forme. Cela signifie que même lorsque ce potentiel quantique est faible, il peut influencer énormément la particule. C'est comme si l'onde d'un lac était en mesure de faire tressauter un bouchon de liège qui flotte dans l'eau, même si ce dernier est loin de la source d'onde. »
Les caractéristiques du potentiel quantique ne sont pas seulement hypothétiques dans la mesure où la physique quantique reconnaît dès 1948, avec le physicien Hendrik Casimir, l'existence d'un vide quantiqueN, autrement appelé « champ du point zéro », qui est interprété par Bohm comme un océan d'énergie infini dans lequel peut puiser son potentiel. L'énergie du point zéro implique que, même en l'absence de toute matière, le vide possède une énergie d'autant plus grande que le volume considéré est petit, ce qui a pour conséquence de conférer au vide une énergie infinie ou immense. Aux échelles macroscopiques, cette énergie est négligeable car les fluctuations s'annulent sur de grands volumes, mais elle possède cependant des effets physiques microscopiques comme l'effet Casimir, l'émission spontanée de photons par des atomes, la production de paires de particules/antiparticules, ou une agitation minimale des molécules. Pour Bohm, c'est bien dans le vide quantique de l'univers que réside toute son énergie, permettant le déploiement de l'espace, du temps et de la matière :
« Ce qu'implique l'hypothèse proposée [hypothèse de l'océan infini d'énergie], c'est que toute cette énergie est présente dans l'espace vide et que la matière, telle que nous la connaissons, n'est qu'une petite ondulation sur cet mer immense. Cette mer se situe dans l'ordre impliqué et nullement, en mode essentiel, dans l'espace et le temps. Pourtant c'est la totalité de l'univers, comprenant l'espace, le temps et la matière connus de nous, qui se manifeste dans cette ride légère. »
Les événements non locaux de la mécanique quantique s'expliquent désormais non plus comme de mystérieux signaux qui iraient à une vitesse super-liminale (supérieure à la vitesse de la lumière) ou instantanée et grâce auxquels certaines particules communiqueraient entre elles, mais par le fait que ces particules n'ont en réalité jamais bougé et qu'elles ne se sont jamais fragmentées. Les particules renfermeraient en effet une réalité unitaire profonde qui précéderait toute division de l'espace et du temps.
Le concept de potentiel quantique conduit Bohm à réinterpréter la mécanique quantique en généralisant la fonction d’onde à tout l’univers. Cette fonction a chez Bohm comme pour Schrödinger un caractère objectif, dans le sens où elle permet de décrire la réalité indépendamment de l'observateur. Mais elle révèle en plus, par sa structure et sa dynamique, une réalité invisible qui organise le monde matériel au niveau subatomique.
Bohm réactualise à partir de 1952 la notion d’« onde pilote » que le physicien Louis de Broglie forge dès 1923. S'appuyant principalement sur les travaux d'Einstein concernant les photons et leurs propriétés ondulatoires, le physicien français démontre que toute particule élémentaire (électron, proton, etc.) est associée à une onde, qu'il nomme « onde de matière » ou « onde pilote », et dont on peut calculer la longueur. Cette onde ne peut pas être envisagée comme une onde unique se propageant indéfiniment dans l'espace : elle constitue un ensemble d'ondes superposées nommé par de Broglie « paquet d'ondes » ou « train d'ondes », se propageant de façon linéaire et « guidant » l'électron dans son déplacement. Chaque phase de l'onde se déplaçant à une vitesse légèrement différente (définie par la vitesse de phase vϕ{\displaystyle v_{\phi }}), elle a donc une longueur d'onde un peu différente mais restant comprise entre deux valeurs déterminées, l'une minimale et l'autre maximale.
Bien que cette conception soit en partie reprise par Bohm et Hiley, leur propre théorie diffère de celle de Louis de Broglie sur un point majeur : l'onde pilote n'est plus chez eux interprétée comme une force qui pousserait mécaniquement la particule dans une direction donnée, mais comme un principe directeur qui « informe » le mouvement de la particule. Nommé « champ d'information », ce principe agit sur les particules non pas comme un champ de forces, mais à la manière d’un « système de pilotage » fournissant les instructions sur la façon de bouger. Les particules sont par là dotées d'une sorte de « réseau de connaissances cachées » de toutes les propriétés physiques qu'elles pourraient avoir. Ainsi, dans les expériences quantiques, leur comportement paradoxal et apparemment intentionnel s'explique par le fait qu'elles détiennent les informations relatives à l'ensemble de l'appareillage, voire à l'ensemble de l'environnement. Par exemple, dans l'expérience des fentes de Young avec obstruction de l'une des fentes, la particule qui est émise « sait » en quelque sorte où et quand l'une des fentes est obstruée.
Le champ d'information n'est pas produit dans le temps à partir d'une région précise de l'espace, mais à partir d'une réalité infinie qui transcende les limites de l'espace et du temps. Contrairement aux champs connus en physique, ce n'est pas la force, mais la « forme », qui détermine son action. Cette action ne décroît pas avec la distance et elle rend ainsi possible des effets non locaux manifestes à l'échelle quantique. Un tel champ peut être comparé à la cause formelle, telle que définie par Aristote dont le principe diffère radicalement de la cause motrice sur laquelle s'appuie la mécanique classique. Bohm compare également l'action de son onde à celle d'un message radio intimant à un bateau l'ordre de changer de direction : l'ordre vaut alors par l'information véhiculée plutôt que par une action physique du signal. Même si elle n’a jamais rallié la communauté scientifique, cette théorie est considérée encore aujourd’hui comme une interprétation cohérente des phénomènes quantiques.
L'aspect probablement le plus contesté de la pensée de David Bohm concerne sa conception « panpsychique » du rapport entre l'esprit et la matière dans laquelle l'ordre implicite n'est pas seulement une réalité hyper-dimensionnelle qui gouverne le monde de la matière, mais le siège même de la conscience et de tous les phénomènes qui lui sont liés, « l'intériorité » de l'univers.
« [L]'ordre explicite et manifesté de la conscience n'est pas, finalement, distinct de celui de la matière. Fondamentalement, ce sont deux aspects, différents par essence, d'un même ordre global. Cela explique un fait de base que nous avons déjà souligné, à savoir que l'ordre explicite de la matière est aussi par essence l'ordre sensoriel général qui imprime dans la conscience l'expérience ordinaire. »
Comme l'ordre implicite interagit directement avec le monde manifeste dont nous sommes les observateurs, la physique de Bohm présuppose non seulement l'existence d'une intériorité de l'univers comparable à la conscience, mais aussi celle d'une interaction directe et continue entre cette intériorité et l'état manifeste de l'univers dans lequel nous semblons vivre. L'ordre implicite peut en cela être comparé à l’« inconscient collectif » de Carl Gustav Jung, esprit impersonnel dont une partie essentielle interagit avec le monde alors qu'elle ne peut être révélée au niveau conscient et individuel. Bohm lui-même considère que sa pensée rejoint celle de Jung par leur affirmation commune de l'existence d'un esprit collectif qui transcende toute individualité :
« En étendant le concept de totalité à l'homme, nous voyons que chaque être humain participe de façon inséparable à la société et à la planète comme un tout. Ce qu'il est possible de suggérer ultérieurement, c'est qu'une telle participation se réalise dans un esprit collectif plus grand, et peut-être à la fin dans un esprit d'une portée encore plus vaste qui en principe soit aussi capable d'aller indéfiniment au-delà de l'espèce humaine comme un tout. Cela peut être corrélé à certaines des notions proposées par Jung. »
La théorie de l'ordre implicite semble ainsi développer sur un plan à la fois scientifique et métaphysique ce que Jung avait pressenti dans son activité de psychologue analytique. Les phénomènes psychiques aussi, même si de façon plus complexe que les phénomènes reconnus de la mécanique quantique, s'articuleraient à partir du monde implicite.
Les phénomènes paranormaux
Pour Bohm, les phénomènes dits « paranormaux », même s'ils sont en apparence impossibles à connaître selon le paradigme de la physique conventionnelle, ne font pas partie du domaine de l'irrationnel, mais peuvent être compris comme une science dans le cadre de sa théorie de l'ordre implicite. Bohm refuse l'existence de l'irrationnel, car elle est incompatible avec la connaissance de type informatif de l'univers. Ce prétendu « irrationnel dans la matière » auquel croyait son éminent collègue Wolfgang Pauli, notamment lorsqu'il étudiait avec Jung le phénomène de la synchronicité, est selon lui explicable dans le cadre d'un modèle exhaustif de l'univers, où la causalité se réalise dans l'action d'un potentiel quantique et dans ses effets non locaux.
C'est donc dans une perspective présentée comme scientifique que l'on peut, d'après Bohm, considérer les « pouvoirs psychiques » tels que la synchronicité, la clairvoyance, la vision à distance, la télépathie ou la psychokinésie. Il s'agit pour lui de manifestations de la conscience universelle dont le lieu véritable est l'ordre implicite, voire l'ordre « super-implicite ». Plus précisément, Bohm voit dans les phénomènes tels que la télépathie et la psychokinésie non pas un simple phénomène de non-localité quantique, comme celui que l'on relève dans le paradoxe EPR, mais une forme plus profonde et complexe de non-localité, une espèce de « super-non-localité » théoriquement explicable.
Dans le contexte de la nouvelle tournure que prend son travail dans les années 1960, Bohm élabore progressivement une « cosmologie philosophique » qui est en fait une métaphysique où tout l'univers finit par être pensé comme un hologramme géant avec des caractéristiques dynamiques.
Quand un hologramme – résultant d'une figure d'interférence entre deux portions de lumière laser – est impressionné sur une pellicule photographique, celle-ci peut être coupée en deux sans jamais perdre une seule moitié de l'image d'origine, qui reste complète (bien qu'avec une certaine perte de résolution). L'image complète persiste même si les deux moitiés de la pellicule sont elles-mêmes sectionnées en de plus petits éléments. Chaque partie de la pellicule contient en effet tout l'espace nécessaire à la restitution complète de l'image. Dans l'analogie de l'hologramme, la surface de la pellicule photographique contenant les informations visuelles devient alors la métaphore de l'ordre implicite, tandis que l'hologramme lui-même représente l'ordre explicite, c'est-à-dire l'explicitation dans notre réalité d'un ordre caché où chaque partie renferme l'ordre total. Le « mouvement holographique » est représenté quant à lui par la lumière laser projetée sur la plaque photographique, illustrant le caractère dynamique de la réalité holographique.
Le modèle holographique de l'univers, dans lequel l'idée de l'hologramme est associée à celle de l'ordre implicite, intéresse au moment de ses premières formulations un vaste public constitué non seulement de physiciens, mais aussi de philosophes, de psychologues, d'éducateurs, d'artistes, d'écrivains, de théologiens et même de mystiques pour qui l'analogie de Bohm représente à la perfection le concept de totalité non fragmentée. Cette analogie permet en effet de concevoir à partir d'une référence scientifique une réalité fondamentale où toute chose est contenue dans chaque chose, où chaque fragment contient des informations sur chacun des autres fragments, de telle sorte qu'on pourrait dire que chaque région de l'espace et du temps contient la structure de l'univers en son sein, à l'instar d'une plaque holographique qui contient toutes les informations de la figure représentée.
Selon cette approche, l'ordre explicite n'est rien d'autre que la projection holographique de niveau de réalité situés dans l'ordre implicite. Chaque région de l'espace-temps renvoie ainsi à l'ordre total de l'univers qui comprend non seulement tout l'espace, mais aussi tout le passé, le présent et le futur. Le mouvement holographique correspond quant à lui à l'activité implicite et non manifeste par laquelle se développe l'ordre manifeste du monde :
« Chaque chose émerge du mouvement holographique par un processus d'ouverture, avant de s'enrouler à nouveau dans l'ordre implicite. Je définis le processus d'enroulement sur soi comme "impliquant" et le processus d'ouverture comme "manifestant". L'implicite et l'explicite sont une totalité indivisible dans un flux continu. Chaque partie de l'univers est liée à toutes les autres, mais à différents degrés. »
C'est ainsi que Bohm prétend expliquer l'aspect non local des phénomènes de la mécanique quantique. De la même façon qu'en sectionnant la plaque photographique en différentes parties nous ne divisons pas l'hologramme, mais nous saisissons le tout dans chacune de ses parties, les particules élémentaires comme l'électron restent intriquées les unes avec les autres indépendamment de la distance qui les sépare. Leur séparation en des objets apparemment fragmentés n'est plus, dans cette perspective, qu'une illusion. Fragmentation, séparation, espace et temps ne sont eux-mêmes qu'une illusion résultant de notre perception limitée de la réalité.
Un aperçu de cette théorie de Bohm (à compléter pour les plus curieux par ses successeurs et contemporains en recherches, entre autres par les partisans des univers holographiques ou virtuels, dont le milliardaire Elon Musk semble faire partie, d'après ses propres recherches, moyens et affirmations) qui devrait lancer prochainement d'autres aperçus de théories cosmologiques à l'occasion de nouveaux articles.
Voici un documentaire intéressant parlant des phénomènes paranormaux étudiés par la science actuelle et sujet abordé évidemment quand on parle d'observations, études et expérimentations sur la nature de l'univers et de la réalité physique et/ou psychique des choses... documentaire éducatif gratuit valable 30 jours (renouvelable sur demande par messagerie) :
Des phénomènes encore inexpliqués par la science actuelle (mais qui progresse sur le sujet) et qui incluent évidemment le phénomène OVNI. Ce phénomène en particulier est actuellement l'objet d'un changement de considération scientifique et politique, devant les accumulations de preuves militaires notamment, tant physiques que techniques, et est actuellement devenu une priorité pour nombre d'institutions américaines, dont le Pentagone n'est pas la moindre, qui vient d'annoncer officiellement (15-08-2020) le renouvellement de l'équipe de la Navy en charge du sujet OVNI et un nouveau plan d'études subventionnées, remplaçant et complétant le précédent plan d'études révélé par ses précédents leaders (https://www.sciences-faits-histoires.com/blog/ovni-ufo/ovni-usa-des-millions-de-dans-une-etude-secrete-et-des-preuves.html). Les travaux de la cellule seront classifiés – à moins que le Congrès en décide autrement et n’oblige le Pentagone à partager ses découvertes... L’unité a été confiée à l’US Navy, qui travaillait déjà sur le sujet depuis plusieurs années. Le Pentagone, qui a pris la décision en interne le 4 août dernier, a précisé avoir créé cette cellule de travail “ pour mieux comprendre et mieux connaître la nature et l’origine ” des “ phénomènes aériens non identifiés ”, rapporte la chaîne ABC. Sa mission sera de “ détecter, analyser et cataloguer ces phénomènes aériens non identifiés qui pourraient représenter une menace pour la sécurité nationale des États-Unis ”, précise explique le Pentagone.
En particulier, et en ce qui concerne mon opinion, il apparaît que le phénomène OVNI agit bien réellement sur la réalité terrestre et probablement universelle, et continue à s'adapter et accompagner nos connaissances en faisant des démonstrations physiques qui correspondent à nos nouveaux savoirs en matière de théorie quantique. En effet, cette vidéo de 2013 authentifiée par la Navy américainenous montre de façon très claire ce que donnerait une expérience réussie d'intrication de matières à grandeur macroscopique, c'est à dire à taille humaine et donc directement visible par les yeux de l'être humain, sans intermédiaire grossissant du à la microscopie... avec un changement de "spin" séparant un objet matériel composite (au lieu d'une particule de photon par exemple) en deux parties identiques sur deux trajectoires différentes, en correspondance avec les découvertes humaines dans le domaine quantique (voir vers la fin de la vidéo à partir de 2 mn 30...). Inutile de dire que si une utilisation macroscopique des possibilités quantiques est réalisable, (en plus des possibilités informatiques et informatives déjà prouvées) dans le domaine technique, la possibilité de ne pas tenir compte de l'espace et du temps seule ferait du voyage spatial une simple formalité... même s'il faut pénétrer un domaine où la physique classique n'y est que le haut de l'iceberg, une image-reflet incomplète... :
J'en parle plus largement ici, en notant que l'OVNI a effectué son changement quantique sous l'eau, un peu comme si l'environnement ou la fluidité pouvait avoir une certaine importance :
Des gisements contenant des artefacts humains à Valsequillo, au Mexique, ont été datés à environ 250.000 ans avant le présent par la méthode des traces de fission («fission-trace-dating») de la matière volcanique et d'uranium des os d'un bassin de chameau.
Le dilemme posé par ces dates est clairement indiqué dans la citation suivante, tirée des conclusions de l'article soumis.
" La preuve présentée ici indique toujours que le site Hueyatlaco a environ 250.000 ans.
Nous qui avons travaillé sur les aspects géologiques de la région de Valsequillo sommes douloureusement conscients qu'un si grand âge pose un dilemme archéologique.
Si les datations géologiques sont correctes, des outils de pierre sophistiqués ont été utilisés à Valsequillo longtemps avant les outils analogues qui sont cependant censés avoir été développés en Europe et en Asie ".
Ainsi, notre collègue, Cynthia Irwin-Williams, a critiqué les méthodes de datation que nous avons utilisées, et elle veut que nous insistions sur le fait que l'âge de 250.000 ans est pratiquement impossible ".
( Steen -McIntyre, en Virginie, et al ; . " Preuves géologiques d'âge des dépôts à Hueyatlaco site archéologique, Valsequillo, au Mexique, " Quaternary Research, 16:1, 1981)
Commentaire
L'impasse dessus n'est pas sans rappeler l'insistance de Lord Kelvin disant que la terre a seulement environ 100.000 ans sur la base de ses calculs de capacités productrices d'énergie du soleil.
Les géologues pensaient autrement, qu'il nécessitait environ un milliard d'années pour que la nature sculpte la terre telle qu'ils l'ont vue. Kelvin n'a pas été reconnu sur l'énergie nucléaire, et les géologues ont eu le dernier mot !
Depuis la publication de Thomas Kuhn "La Structure des révolutions scientifiques" (1970), un grand nombre de personnes dans le domaine des sciences et ailleurs ont utilisé sa distinction entre les paradigmes de la science normale et les anomalies à la fois dans la science normale et les révolutions scientifiques pour expliquer l'évolution de la science contemporaine.
Tous les appels de Kuhn n'ont pas été tout aussi éclairants.
Il a parfois semblé que ceux qui sont sur les franges de la science établie crient au « détour de paradigme » pour expliquer pourquoi leur travail ne retient pas l'attention alors qu'en fait, c'est le travail lui-même qui est à blâmer. Vraisemblablement, certains éléments de preuves qui entrent en conflits avec les opinions reçues sont ignorées pour une bonne raison, et d'autres sans une bonne raison. Quand une anomalie apparente est rejetée sans raison valable, alors les scientifiques en question se comportent mal.
Mais se sont-ils comportés en " non scientifiques " ?
Dans cette étude, nous examinons en détail un cas particulier d'un ensemble de preuves anormales reçues et visibles. Dans ce cas, le point de vue reçu est une théorie sur les origines de l'homme dans les Amériques, et l'anomalie est un site du Mexique, dont l'âge est apparemment en conflit avec cette théorie reçue.
Sans essayer de décider si la vue reçue est correcte, ou si la preuve anormale est intéressante à considérer (ce qui est, après tout, une affaire de spécialistes - YH : c'est un point de vue), nous suivrons l'histoire de ce qui s'est passé pour les scientifiques impliqués, et tirerons des conclusions sur ce qui peut et ne peut être attendu de la science en tant qu'une véritable institution humaine.
En particulier, nous soutenons que, dans les périodes d'instabilité dans la science («révolution», si vous voulez), il est dans la nature même de la science de traiter la preuve anormale avec hostilité et suspicion, même quand il y a peu de raisons de soupçonner ça.
II . LE POINT DE VUE REÇU
Le point de vue reçu, accepté par une majorité des anthropologues et des archéologues, c'est que l'humanité n'a pas évolué de façon indépendante dans les Amériques, et doit donc y avoir migré d'ailleurs.
Pour diverses raisons génétiques, il semble que tous les Américains autochtones sont plus étroitement liés les uns aux autres que ne le sont d'autres populations, et sont plus étroitement liés aux peuples de l'Asie que ceux des autres régions du monde. La conclusion raisonnable à tirer de cette preuve est que les premiers Américains ont migré de l'Asie, que ce soit à travers le détroit de Béring ou à travers un pont de terre.
La migration à grande échelle par bateau estpeu probable, même si la traversée est étroite à travers un plan d'eau comme le détroit de Béring, donc l'hypothèse du pont terrestre de Bering est la meilleure hypothèse pour une route migratoire.
Cette séquence de déductions implique un nombre limité de possibilités de migration. Une route de terre était entièrement disponible seulement quand il y avait suffisamment de glaciation du niveau de la mer pour qu'elle diminue d'environ cent cinquante pieds (46 mètres), une telle baisse du niveau des mers est nécessaire pour que le pont de terre de Béring (ou, peut-être plus correctement, la masse terrestre maintenant appelée Béringie) puisse apparaître.
D'autre part, si il y avait une telle glaciation, les voies terrestres en Amérique du Nord étaient impraticables, aucune migration ne pourrait avoir lieu (YH : c'est déjà ici une affirmation douteuse : les Lapons, Inuitset autres prouvent le contraire en y vivant en permanence ! - les hommes actuels seraient en effet incapables de migrer, mais les anciens oui, très probablement !). Ces deux contraintes limitent sévèrement le nombre d'opportunités pour la migration à des périodes spécifiques pendant les périodes glaciaires (YH : limites peut-être imaginaires !)
Le meilleur candidat pour une période de la migration est généralement considérée comme une période au cours de la fin du Pléistocène, il y a environ douze mille ans. Bien que des revendications de migrations antérieures sont parfois publiées à force de découvertes archéologiques, l'idée que les humains sont arrivés relativement récemment semble être assez bien établie (YH : et oui, on établi l'idée et la théorie... jusqu'à ce que la réalité rattrape l'idée ^^).
Donc, c'est en toute confiance que ce point de vue a été jugé et que, en 1962, dans un écrit pour Scientific American, William Haag pouvait dire :
" L' occupation de l'homme du Nouveau Monde peut remonter à plusieurs dizaines de milliers d'années, mais personne ne soutient rationnellement qu'il a été ici, même pour seulement 100000 années. "
Il y a un nombre impressionnant de preuves visibles d'une récente migration, et relativement peu de toute présence humaine plus tôt dans les Amériques. Ce qui semblaient être des traces d'occupations antérieures se sont généralement avérées être trompeuses.
David Meltzer (1993) décrit la situation en ces termes :
Au début des années 1950, il y avait déjà des signes d'une présence humaine beaucoup plus tôt en Amérique. Ces traces deviendraient plus larges au fur et à mesure que les années passaient, jusqu'à aujourd'hui où une multitude de sites soi-disant anciens ont fait leur apparition, certains avec des âges réhaussés estimés de 200.000 ans.
Chaque nouveau candidat à une plus haute antiquité apporte avec lui de nouvelles revendications, mais le résultat reste le même. Les sceptiques posent des questions difficiles. Le débat s'ensuit. La demande est acceptée par les uns, rejetée par les autres, tandis que le reste "attend et voit". Jusqu'à présent, au moins, la barrière Clovis reste intacte. Un avant - 11, 500 B.P. de présence humaine en Amérique n'existe pas aujourd'hui. (YH : C'est maintenant faux au 21ème siècle...)
Il y a au moins trois types impressionnants de preuve pour une migration au Pléistocène supérieur (ou un ensemble de migrations) :
preuve de langues amérindiennes
preuve de la dendrochronologie
preuve de l'ADN mitochondrial 1
Tous les trois types de point de preuve mènent à trois vagues de migration, les premiers au Pléistocène supérieur, comme hypothèse. Les plus anciens sites clairement datables sont très loin de ceux des Clovis et de Folsom, et ils sont au plus tôt de 11.500 BP.
Ajoutez à ces éléments de preuve de l'absence de preuves claires de quoi que ce soit plus tôt, et vous avez un argument puissant pour la vision d'une récente migration, ce qui donne de bonnes raisons de se méfier des découvertes qui sont censées être plus âgées. Considérons les types de preuves à leur tour.
Linguistique amérindiennes
Les centaines de milliers de langues qui ont été parlées sur les continents américains forment une variété déconcertante, mais de nombreux linguistes pensent maintenant qu'elles se répartissent en trois familles :
amerind
Na - Dénés
Eskimo - Aléoutes
Les langues amérindiennes montrent le plus de variété, et sont géographiquement les plus répandues, étant parlées des régions du Canada jusqu'à La Terre de Feu. Ces deux faits plaident en faveur de l'ancienneté relative de la langue commune à partir de laquelle ils tirent tous la leur.
Les langues eskimo-aléoutes sont moins nombreuses et plus semblable à une autre. Elles sont également parlées dans une zone plus petite, autour des régions côtières du nord.
Le groupe Na - Déné est intermédiaire dans la variété et l'étendue. Ces langues sont également parlées dans les régions au sud de la plus grande étendue sud des langues eskimo-aléoutes, mais pas si loin au sud que les langues amérindiennes. Par ailleurs, les groupes linguistiques peuvent être organisés afin de voir des similitudes avec des langues de l'Ancien Monde, avec l'Eskimo- Aléoutes êtant plus, et l'amerindien étant moinscomme les langues parlées en Asie.
Cet agencement des langues avec les points à trois vagues distinctes de migration, avec les ancêtres des parleurs de l'amérindien qui arrivent en premier. Toutefois, ce classement relatif nous donne peu sur une manière de datation absolue pour les migrations. 2
La dendrochronologie
Dans le Hrdlicka 1920 est noté un caractère que toutes les dents amérindiennes possèdent, qui est également caractéristique des dents de la population du nord de l'Asie.
Sur la base de cette caractéristique, une particulière forme en pelle - comme la forme des incisives, appelés Sinodontie, il a conclu que les Amérindiens étaient répartis en trois groupes génétiquement distincts : Eskimos , Athabaskans et Sud-Américains.
Christy Turner (1986) fait une analyse statistique des dents américaines pour vérifier cette classification. En regardant les autres, les même caractéristiques héréditaires des dents, et en catalogant les similitudes et les différences entre neuf mille Américains préhistoriques différents, il a également conclu que les Amérindiens sont répartis en trois groupes génétiquement distincts, mais il a identifié les trois groupes plus directement avec les trois groupes linguistiques de Greenberg.
En plus de soutenir le point de vue des trois migrations, la preuve dentaire peut nous donner une chronologie absolue. Les caractéristiques dentaires qui sont identifiées dans l'étude de Turner sont génétiquement déterminées, l'environnement ayant peu ou pas d'impact.
De cette façon, les preuves fournies par les dents, comme celles fournies par les groupes sanguins, peut nous donner une image claire des relations génétiques entre les populations. Les mutations se produisent de façon régulière, nous pouvons également dire il y a combien de temps deux populations ont divergé par le nombre de gènes qu'ils partagent et combien ils diffèrent.
Quand un gène s'exprime dans une partie visible et facilement préservée d'un animal, comme une dent, alors nous pouvons utiliser les variations de cette partie pour dater l'histoire génétique de l'animal.
Dans le cas des humains en Amérique du Nord, nous pouvons dire par des distributions des caractéristiques de Sinodontie que la population nord-américaine s'est séparée de la population nord-asiatique il y a environ douze mille ans - ce qui confirme le point de vue de la migration au Pléistocène tardif.
L'horloge ADNmt
Les similitudes dans les caractéristiques anatomiques brutes, et même dans une certaine mesure dans le code génétique qui les inspire, peut parfois survenir en raison de pressions environnementales similaires, même si les deux populations ne sont pas étroitement liées.
Il y a des parties du code génétique, cependant, qui ne sont pas exprimés du tout, ou ne s'expriment que dans des caractéristiques neutres. Dans ces gènes, le taux normal de mutation n'est pas affecté par les pressions environnementales. En particulier, l'ADN mitochondrial ( ADNmt) n'est pas soumis à des forces de mélange de fertilisation, puisque l'ADNmt de toute créature vient de sa mère uniquement.
Donc, étant donné une estimation raisonnable de la rapidité et de la régularité des mutations qui se produisent dans l'ADN mitochondrial, nous pouvons assez précisément dater lorsque les populations ont divergé. Par cette mesure, les Américains se sont divisés des Asiatiques du Nord il y a quelques 20.000 ans.
C'est plus tôt que ce que les autres méthodes nous ont donné pour une première migration, mais peut être expliquée par l'estimation du taux de mutation.
La réaction aux anomalies
Compte tenu de ce nombre impressionnant de preuves, il semble tout à fait raisonnable de penser qu'une migration au Pléistocène supérieur est établie.
Même si il y a des trouvailles occasionnelles qui semblent être datables à beaucoup plus tôt, il est plus raisonnable de penser qu'il doit y avoir quelque chose de faux avec les dates de ces sites que d'accepter le prix d'un renversement d'une théorie bien fondée.
L'incapacité d'expliquer pourquoi un site semble être antérieur à la fin du Pléistocène n'est pas un obstacle à l'acceptation de la théorie de la migration tardive, surtout si l'alternative est d'accepter une migration plus tôt, tout en étant incapable d'expliquer l'évidence linguistique, dentaires et génétiques.
Meltzer ( . , 1993, p 21 ) caractérise la position de l'archéologue de cette façon :
Ce problème est aggravé par de trop nombreuses fausses alarmes. Des dizaines de sites ont été annoncés comme possédant une grande antiquité. Mais en y regardant de plus près, chacun a réussi à vivre jusqu'à la faillite de son ancienneté. Caveat emptor.
Les archéologues ont la mémoire longue - cela fait partie de notre expertise, après tout - il n'est donc pas surprenant que, dans ces circonstances, toutes les nouvelles demandes pour une grande antiquité dans les Amériques sont accueillies avec un scepticisme bordant le cynisme. La réponse n'est peut-être pas louable, mais elle est compréhensible .
La plupart des archéologues qui donnent cette réponse compréhensible sont nettement moins conciliants que Meltzer. En fait, la réponse de Haag citée plus haut, qui rejette les allégations d'extrême antiquité de la présence humaine dans les Amériques comme irrationnelles, est la norme plutôt que l'exception.
Les plus anciens sites qui ont résisté à un examen minutieux, et dont le témoignage est sans ambiguïté aucune, sont les Clovis et Folsom, tous datables d'après -12.000 AV JC, et donc complètement compatibles avec la dernière migration du Pléistocène. (YH : Mais notons qu'en octobre 2018, des outils du style pré-clovis ont été trouvés au Texas, USA... et ont été datés de -15.500 ans ! Différentes preuves trouvées en Alaska et Canada semblent bien aussi prouver une arrivée bien plus tôt des hommes en Amérique du nord... alors que des datations de -25.000 ans, voir plus, se multiplient au Brésil...)
III. L'anomalie
Parfois, une découverte archéologique semble contester ce point de vue reçu.
Le projet archéologique spécifique qui est au centre de ce travail était situé à Hueyatlaco, Valsequillo, qui est à quelques kilomètres au sud de Puebla, au Mexique. La région était devenue très connue parmi les archéologues en raison des formes animales éteintes variées.
La fouille initiale a débuté en 1962. Au cours de la poursuite du processus de fouille cinq sites ont été découverts et des coupes stratigraphiques séquencées (Irwin-Williams 1967a).
L'excavation finale à Hueyatlaco été conclue en 1973.
Le travail de terrain s'est poursuivi tout au long du processus excavational par les membres de l'équipe, y compris le Dr Cynthia Irwin-Williams et Dr. Virginia Steen-McIntyre. 3
Les Consultants ultérieurs associés au projet étaient Ronald Fryxell, BJ Szabo, et CW Naeser dans la poursuite des efforts visant à résoudre la controverse entourant la datation des preuves accumulées au cours du processus d'excavation à Valsequillo, Mexique ( Malde et Steen-McIntyre, 1981).
Il n'y a pas eu d'irrégularités dans les méthodes de l'équipe, et le site a été surveillé pour éviter toute falsification ou la destruction accidentelle de preuve ( Irwin -Williams 1967a ).
Le chercheur principal de ce projet, Cynthia Irwin-Williams (1978), a caractérisé le site archéologique comme un domaine qui contenait un "site d'abattage" et les activités indicatives du dépeçage et d'activités de camping de l' "Ancien Homme "
Les artefacts découverts ont établi clairement qu'ils sont d'origine non locale, allant d'un rude objet unifacial de percussion pour des lances ( pointes de projectile ) fabriqué par un groupe moins sophistiqué, jusqu'à des bifaces de découpe, des grattoirs et des arêtes de coupe, des outils bien faits d'un caractère avancé.
Dans son article publié en 1978, Irwin-Williams affirme que l'abondance de la faune maintenant disparues dans la région Valsequillo a attiré les premiers chasseurs.
Il y avait des endroits dans la zone appropriée pour le camping et à proximité se trouvent des sites appropriés pour l'abattage des arbres et des sites qui étaient appropriées pour l'abattage des animaux en raison de la proximité des petits ruisseaux.
Irwin-Williams reconnaît que les estimations modernes concernant la présence de l'homme dans cette localité ont une gamme de 11.000 ans à plus de 30.000 ans. La controverse a commencé en 1967, avant que les fouilles aient été réalisées. Malgré les efforts approfondis et la compétence des membres de l'équipe archéologiques à Hueyatlaco, Jose L. Lorenzo, Directeur de la Préhistoire à l'Instituto Nacional de Antropología e Historia, a lancé plusieurs allégations concernant l'intégrité du projet à Hueyatlaco, El Horno, et Tecacaxco ( communément appelé Valsequillo). :
Un groupe de plus de 200 scientifiques a examiné les recherches sur les ovnis en Alabama.
Du 6 au 8 juin 2025, la Coalition scientifique pour les études sur les PAN (SCU) a tenu sa conférence annuelle à Huntsville, une ville surnommée « Rocket City » en raison de ses liens de longue date avec la recherche aérospatiale.
Des astronomes identifient le premier « bon » candidat pour la controversée Planète Neuf au plus profond de notre système solaire.
Pour rappel, cette possible planète, d'abord surnommée Planète X (ou 10, avant l'enlèvement de Pluton comme 9ème planète de notre système solaire), est recherchée depuis au moins 9 ans par plusieurs astronomes car ce serait la seule explication possible raisonnable pour expliquer les anomalies orbitales de plusieurs mini-planètes dans la ceinture de Kuiper, aux confins de notre système solaire.
Les Scandinaves du Néolithique utilisaient des bateaux en peau d'animaux pour la chasse et les échanges, le transport à longue distance. Une étude récente menée par le Dr Mikael Fauvelle et publiée dans le Journal of Maritime Archaeology suggère que la culture scandinave antique de la céramique piquée (PWC) aurait pu construire des bateaux en utilisant des peaux d'animaux, en particulier des peaux de phoque, pour naviguer, pêcher, chasser et transporter, échanger sur de vastes distances. La PWC a prospéré entre 3500 et 2300 avant J.-C. dans les régions entourant la mer Baltique et la mer du Nord, y compris certaines parties de la Suède, du Danemark et de la Finlande actuels.
Gigès, le mystérieux inventeur de la monnaie métallique
Pièce de Lydie en Electrum
Les plus anciennes pièces de monnaie métallique, marquant peu à peu le changements définitif (pour le monde entier sauf aux Amériques, où les peuples ont continué leur économie spécifique jusqu'à l'arrivée des envahisseurs et culture dévastatrice) de l'économie de l'Humanité, passant de la dernière économie créée (le troc) aux échanges par monnaie de substitution, toujours pratiqués de nos jours, ont été découvertes en Turquie, dans l'ancien Royaume de Lydie (ou Méonie pour Homère). Les Lydiens (aussi connus comme les Lud par les Egyptiens et Assyriens) était un peuple indo-européen descendant de Lydos, fils d'Attis d'après Homère. Quand on sait qu'Attis est en fait un Dieu très connu, d'origine Phrygienne (qui dominaient les Lydiens au début) et que l'on retrouve sous le nom d'Adonischez les Grecs et Romain ou Tammuzchez les Hindoux, on devine que les origines mêmes de ce peuple sont aménagées. Et ce n'est pas mieux pour leur Roi Gigès, qui a régné (d'après la science officielle mais avec une fourchette temporelle) de entre 708 et 687 avant Jésus-Christ, sa mort étant entre 680 et 648 avant Jésus-Christ...
Crésides d'argent, attribuée à Crésus-5ième siècle av JC
Il était appelé Gugu par les Assyriens, et serait à l'origine des traditions bibliques sur Gog, prince de Magog (c'est-à-dire en assyrien mā(t) Gugu : « pays de Gygès »). En fait, on ne sait pas vraiment comment il est arrivé au pouvoir car les sources sont rares (donc à fiabilité resteinte) et divergent complètement... :
Selon Hérodote (né vers 484 avant notre ère et mort vers 420 - donc 250 ans après environ), Gygès était à l'origine le fils d'un des gardes et le confident du tyran Candaule, (ou Sadyate, ou encore Myrsile), roi très légendaire descendant d'Héraclès (Hercule), qui était un roi vantard qui ne cessait de vanter la beauté de sa femme. Ne supportant pas que Gygès puisse douter des charmes de son épouse, Candaule lui donne l'ordre de tout faire pour la voir nue et constater sa vérité. Après avoir refusé car pensant que c'est indigne, Gygès finit par céder et se cache dans la chambre royale au bon moment pour admirer le déshabillage de la Reine. Mais celle-ci le découvre sans le laisser paraître. Elle a compris que le roi ne peut être que l'auteur de cette indignité et décide de se venger de cet outrage. Elle convoque Gigès le lendemain et lui fait le chantage suivant : soit il assassine Candaule, devient son époux et le nouveau Roi, soit il est exécuté... Gigès n'a pas trop le choix, poignarde le Roi et s'empare du trône de Sardes, capitale de la Lydie...Mais selon Platon (né en 424/423 av. J.-C., mort en 348/347 av. J.-C. - donc 300 ans après environ), Gygès n'était qu'un simple berger lydien à l'origine, qui faisait paître son troupeau lorsqu'un violent orage fit s'affaisser une colline. Il s'y aventura et découvrit un énorme cheval de bronze dans les flancs duquel étaient pratiquées des portes (Cheval qui rappelle un peu le célèbre Cheval de Troie de part sa description !). Après avoir ouvert ces portes, Gygès aperçut à l'intérieur du cheval le squelette d'un géant portant au doigt un anneau d'or. Il se saisi de cet anneau, se le passa au doigt, et, sans dire un mot de son aventure, il alla rejoindre les autres bergers du voisinage. Par hasard, il remarqua que, à chaque fois qu'il tournait sa bague vers l'intérieur, il devenait invisible de tous, tout en gardant la faculté de voir et d'entendre ce qu'il se passait autour de lui. Dès qu'il retournait la bague en sens inverse, il redevenait visible. Après avoir essayé les pouvoirs de son anneau par plusieurs expériences, il se rendit au palais et séduisit la reine. Il complota avec elle la mort du roi, le tua et s'empara du trône...
Questions / Réponses
Aucune question. Soyez le premier à poser une question.
Commentaires
1
Fred
Le 01/09/2020
Comme quoi malgré toute notre technologie et sciences modernes nous en somme toujours au même point que les anciennes civilisations. Nous n'avons toujours pas d'explications "scientifique" sur la nature de l'énergie du vivant et encore moi de la nature de notre réalité. Il serait peut être temps que la science moderne arrête de se spécialiser à l'extrême et ambrasse à nouveau une vision plus globale des choses.