252 69 58MB
French Pages 396 [402] Year 2016
L'EAU ET LA PHYSIQUE QUANTIQUE Vers une révolution de la médecine
L'eau et la physique quantique Vers une réuolution de la médecine
pr Marc Henry
L'eau et la physique quantique Vers une réuolution de la médecine
Un ouurage paru sous La direction de
Cécile Carru
fkma~s EDITIONSJ
~
Tous droits de reproduction, de traduction, et d'adaptation réservés pour tout pays. Toute reproduction, même partielle, de cet ouvrage est interdite. Une copie ou toute reproduction par quelque moyen que ce soit constitue une contrefaçon passible des peines prévues par la loi du 11 mars 1957 et la loi du 3 juillet 1985 sur la protection des droits d'auteur.
© 2016 Éditions Dangles Une marque du groupe éditorial Piktos, Z.I. de Bogues, rue Gutenberg - 31750 Escalquens
www.piktos.fr EAN: 978-2-7033-1147-8
•A' propos de l'auteur Marc Henry, 58 ans, est ingénieur chimiste (1980), docteur ès sciences (1988), habilité à diriger les recherches (1993) et professeur des universités depuis 1993 avec un enseignement portant sur la chimie, la science des matériaux, la physique quantique et la symétrie moléculaire et cristalline. Il cherche à comprendre l'eau sous tous ses aspects : physique, chimique, biologique, en relation avec les phénomènes électromagnétiques, mais il s'intéresse aussi à l'histore des sciences et l'épistémologie ; il aborde également la philosophie en explorant l'émergence du phénomène de conscience en relation avec la physique quantique. Marc Henry est un conférencier apprécié du public pour sa pédagogie et sa capacité à présenter des choses complexes dans un langage clair et compréhensible par tous. Il est président de l'association Natur'Eau Quant qui milite pour une approche quantique de la nature, utilisant l'eau comme vecteur d'information (http://natureauquant.blogspot.fr/).
7
• Introduction L•eau est une substance disposant d'un statut tout à fait unique dans la pensée humaine. Pendant des siècles, elle fut ainsi considérée comme un élément, c'est-à-dire comme une substance indécomposable par les moyens de l'analyse, et que l'on retrouve en quantité plus ou moins variable dans tous les corps matériels. Dans ces conditions, parler de l'origine de l'eau n'avait aucun sens. L'eau devait déjà être là depuis la nuit des temps et serait toujours là jusqu'à la fin des temps. Quant au nombre d'éléments accompagnant l'eau, il semble régner une certaine confusion chez les auteurs de livres sur l'eau, certains se limitant à quatre éléments, d'autres parlant de cinq éléments. En fait, il devrait être clair pour tout le monde qu'il y a toujours eu cinq éléments, aussi bien chez les Occidentaux que chez les Orientaux. La seule différence, c'est que le cinquième élément en Occident est soit caché, sa connaissance étant réservée à une élite après des rites d'initiation sophistiqués, soit mis hors de portée de la nature humaine, pour que l'existence d'un dieu puisse être rendue plus tangible aux adeptes d'une religion donnée. Le ciel et le cosmos sont en effet suffisamment vastes pour qu'y cohabitent toutes sortes de dieux, censés s'intéresser aux drames de la vie terrestre. Les Orientaux sont beaucoup plus pragmatiques et parlent du cinquième élément comme des quatre autres, sans faire autant de chichis. La science ne se concevant pas, pour ce qui me concerne, sans une bonne dose de philosophie, voici une brève piqûre de rappel avant de rentrer dans le vif du sujet.
9
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
~
œ
Siddhartha Gautama
Chora
Sen•;ble+=;;;, @ (""1i~) ~E~
Q
(623-544 AEC)
0 R I E N T
Platon d'Athènes
-
'-1--\-o-- (Illusion)
Sensible Ousia
Aristote de Stagire
N
T
Lao-Tseu
(31l4-322AEC)
Forme ~------> Matière
(acte)
Intelligible
(puissance)
Figure 1 : L'eau se trouve être un élément fondamental dans toutes les traditions orientales ou occidentales. Pour le reste, il y a bien cinq éléments, aussi bien en Orient qu 'en Occident.
La civilisation occidentale est le pur produit d'un mode de pensée qui trouve son origine dans la Grèce antique, où l'empirisme des Milésiens ou des atomistes se confrontait rudement avec l'idéalisme des Éléates et où la verve oratoire des sophistes, capables de défendre n'importe quel point de vue, côtoyait le scepticisme d'un Pyrrhon d'Élis (360-275 AEC) ou l'ironie d'un Socrate d' Alopèce (470-399 AEC). Comme on le sait, cette pluralité de points de vue contradictoires, où chacun prétendait détenir la vérité absolue en pointant du doigt l'erreur des autres, allait se réduire in fine à un affrontement sans fin entre une position dualiste popularisée par Platon d'Athènes (427339 AEC), pour qui les choses sensibles ne sont que les images de formes intelligibles projetées sur une étendue matérielle (xropa, chora) et une position plus moniste préconisée par Aristote de Stagire (384-322 AEC), où matière (ÜÀ.TJ, hylê) et forme (µopqn'J, morphê) ne sont que des concepts abstraits qui coexistent dans la substance (oucria, ousia). Ce qui caractérise vraiment un esprit occidental, c'est donc cette tendance atavique à opposer sur une ligne droite matière et esprit selon un schéma qui peut être cruciforme (Platon) ou triangulaire (Aristote). Comme le montre la figure 1, le mode de pensée en croix platonicien s'adapte très bien à la vision empiriste d'Empédocle d' Akragas (490430 AEC) stipulant une réalité quadruple (feu, air, eau et terre), éléments qui se trouvent être « racines de toutes choses ». Le cinquième élément 10
INTRODUCTION
ayurvédique, l'éther, symbolisé par le centre de la croix, est ici placé sur un autre plan, au-dessus des quatre racines, générant la pyramide à base carrée égyptienne chez Platon et la sphère céleste circulaire chez Aristote. Pour ce qui concerne les quatre éléments, Aristote reprend l'idée d'Anaximandre de Milet (610-546 AEC) qui voit dans tout mouvement une monade chaleur qui tend à séparer les choses et une monade humidité qui tend au contraire à les rassembler. Ainsi, en faisant agir la dyade indifférenciée platonicienne (plus/moins) sur la monade centrifuge, on génère le chaud et le froid, tandis que l'action de cette même dyade sur la monade centripète génère le sec et l'humide. Tout élément matériel stable apparaît ainsi comme l'association intime d'un pôle séparant et d'un pôle condensant :feu à la jonction du chaud et du sec, air à la jonction du chaud et de l'humide, eau à la jonction du froid et de l'humide et terre à la jonction du froid et du sec (figure 2). De ce point de vue, la vision aristotélicienne du monde apparaît donc très proche des visions orientales qui posent également, à la base de toute chose matérielle, un principe yang centrifuge (chaleur chez Aristote) et un autre yin centripète (humidité) avec des degrés variables (dyade indifférenciée platonicienne) de yang et de yin. En plus des quatre éléments d'Empédocle qui forment la région située au-dessous de la sphère de la Lune soumise au changement permanent et aux mouvements linéaires, Aristote évoque aussi l'existence d'un cinquième élément, l'éther (m0tpaç, aitheras) ou le ciel. Ce dernier élément, qui est supérieur à tous les autres, a quant à lui un mouvement circulaire. En effet, le déplacement par translation 1 devait être le premier de tous les mouvements car c'était le seul qui avait la propriété d'être continu, l'évolution et l'altération nécessitant un arrêt, un repos permettant de passer d'une chose à son contraire. L'infini n'existant qu'en puissance et non en acte et toute forme générant un objet fini, il fallait aussi s'arrêter pour parcourir une droite physique de longueur finie. Ne restait que le mouvement circulaire uniforme qui pouvait être infini, continu et éternel. Par contraste, ce qui caractérise les civilisations orientales est un mode de pensée basé sur le cercle et non sur la ligne droite (figure l ). Ainsi, si je dis qu'un point du cercle représente la matière, l'esprit ou les idées se trouvent sur le même cercle au point diamétralement opposé à celui qui a été privilégié. Ce qui est intéressant ici, c'est que tous les points du cercle sont équivalents par principe, ce qui rend la distinction entre esprit et matière totalement vaine, l'un pouvant se substituer sans problème à l'autre. Cette non-dualité intrinsèque est nommée« vacuité» et se trouve atteinte lorsqu'on se place au centre, seul lieu d'où l'on peut saisir le cercle dans son ensemble.
1. Les termes soulignés renvoient à l'annexe technique en fin d'ouvrage.
li
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
L'air monte
Centrifuge
Fluide
Le feu monte.,6.
. /
/ /":
-;
.
• ,..~ i
~: '~:~2,ir·\ Rigide
La terre tombe
Centripète
Figure 2 Synthèse aristotélicienne basée sur une dyade indifférenciée pythagoricienne plus/moins agissant sur une autre dyade énergie/eau afin de générer les quatre éléments sensibles d'Empédocle.
Dès que l'on choisit de se placer en périphérie, le cercle nous apparaît comme une ligne droite avec un côté qui s'oppose de manière irréductible à l'autre, et le centre du cercle ne peut alors qu'être imaginé comme le sommet d'un triangle à partir duquel l'esprit contemple la dualité d'une base matérielle. Comme on l'a vu plus haut, il est parfaitement ridicule de vouloir opposer le mode de pensée occidental, insistant sur quatre éléments matériels et un cinquième élément céleste masqué à la connaissance pour des raisons politiques ou religieuses, et celui oriental où le cinquième élément coexiste avec les quatre autres, soit sous forme d'éther en philosophie ayurvédique, soit sous forme de métal en philosophie taoïste. En effet, les météorites, objets célestes par excellence, ne sont-elles pas principalement constituées de métaux, et le bois ne se fabrique-t-il pas à partir d'air? Qu'est-ce que l'éther si ce n'est cet état créé par la foudre tombant du ciel ou encore ce magnétisme émanant des aimants ? On voit bien que toutes les traditions humaines sont d'accord pour affirmer l'existence de cinq éléments, chacune amenant sa touche personnelle pour se différencier des autres. Toutes les traditions sont également d'accord pour mettre en avant trois éléments sur les cinq : terre, eau et feu. En philosophie ayurvédique, on aura ainsi les trois rajas (tamas, sattva et raja), en philosophie taoïste : yin, 12
INTRODUCTION
tao et yang, et en alchimie occidentale: sel, mercure et soufre. Ainsi, s'il faut cinq éléments pour parler des structures (matière ou chose en puissance chez Aristote), trois suffisent pour parler des fonctions (forme ou chose en acte chez Aristote). De même, il est clair que l'Occident est fasciné par la structure, alors que l'Orient est fasciné par la fonction. D'où l'impression d'un dialogue de sourds entre les deux modes de pensée, que certains exploitent sciemment pour s'assurer un pouvoir matériel et/ou spirituel. L'idéal est bien sûr d'être souple et d'avoir un mode de pensée fonctionnel dès qu'il s'agit de bouger et un mode de pensée structural dès qu'il s'agit de contempler. Chercher une structure dans un monde qui bouge ne peut en effet que générer de la nausée. De même, vouloir faire bouger une structure dont la raison d'être est de s'opposer à tout mouvement est une tâche vouée à l'échec qui ne pourra que conduire à la frustration et au désespoir. Face à une structure qui devient obsolète, la seule solution n'est pas de la faire bouger par morceaux, mais de la détruire en totalité pour que le mouvement en crée spontanément une autre, mieux adaptée aux nouvelles circonstances.
L'eau est-elle uiuante? Quel livre sur l'eau n'aborde pas ce point crucial ? Ici aussi règne une certaine confusion entre ceux qui voient ce concept comme une évidence et d'autres qui conçoivent mal comment ce truc à l'odeur nauséabonde qui sort de nos robinets pourrait avoir un quelconque rapport avec la vie. En fait, sous le même concept de « vie », on peut rassembler trois interprétations foncièrement différentes. Tout d'abord, il y a l'idée que les organismes vivants se distinguent des objets inertes ou des organismes morts par leur capacité à croître au moyen d'un métabolisme, à se reproduire et à avoir une régulation interne en réponse à l'environnement. Dans ce cadre, la vie se caractérise comme un état d'organisation distinct de celui de la matière inerte. En second lieu, la vie est aussi la période d'existence où un individu s'avère avoir un mouvement autonome, ce qui donne un aspect dynamique à la question posée. Enfin, la vie peut également être un principe d'existence conçu comme une appartenance à une âme immatérielle, ce qui pose le problème de la conscience. Il est important de réaliser que tout au long d'une grande partie de l'histoire de l'humanité, la question de savoir ce qu'était la vie ne se posait même pas. Avant l'avènement de la science, tout l'univers était vivant: les étoiles, le ciel, les rivières, les montagnes, etc. Comme il n'y avait pas de « nonvie », la définition exacte de la vie n'avait que très peu d'importance. Ce n'est que lorsque la mécanique déterministe des corps en mouvement est devenue une science que la question s'est alors posée. Si toute matière suit des lois physiques simples et si nous rejetons les explications vitalistes du
13
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
comportement du monde, quelle est la différence entre la vie et la non-vie, c'est-à-dire entre la biologie et la physique ? La science prenant comme principe que tout est mesurable, on a bien vite éliminé le vitalisme comme explication scientifique valable de la vie. Ceci a conduit la science à étudier les systèmes vivants via une approche réductionniste produisant une vision purement biochimique du fonctionnement des organismes vivants. Dans ce cas, la vie est considérée comme n'étant qu'une physique très compliquée. Cependant, la question reste posée : parmi tous les systèmes dynamiques possibles et imaginables, lesquels peuvent être classifiés comme vivants ? Quel type de complexité recherche la science ? Personne ne conteste que la vie soit une sorte d'arrangement matériel très complexe, mais à partir de quel niveau de complexité est-il possible d'affirmer que la matière devient vivante? Cette transition se fait-elle de manière abrupte ou, au contraire, la vie est-elle un concept flou? Pour répondre à cette question, est-il nécessaire de fabriquer des organisations qui ont le même niveau de complexité que les êtres vivants, ou bien suffit-il de simuler leur comportement animé ? Traditionnellement, la vie a été identifiée à des organisations matérielles qui présentent certaines propriétés comme : le métabolisme, l'adaptabilité, l'autonomie, l'auto-réparation, la croissance, la réplication, l'irritabilité, l'évolution, etc. La plupart des organismes vivants obéissent à cette liste ; toutefois, il existe aussi d'autres systèmes matériels qui n'obéissent qu'à un sous-ensemble de ces règles comme les virus, le feu, l'air, l'eau, la terre et certains robots. Tout ceci fait que la vie apparaît souvent comme un concept extrêmement flou. Cependant, que ce soit de manière objective ou subjective, nous sommes tout à fait capables de reconnaître certaines organisations matérielles comme étant vivantes. C'est peut-être cette capacité à reconnaître et catégoriser les événements qui se produisent autour de nous qui nous permet de différencier clairement entre systèmes vivants et non vivants. La vie nécessite en effet de pouvoir contrôler les événements et les hiérarchiser afin d'assurer notre survie. C'est une caractéristique commune à toutes les formes de vie, à laquelle s'ajoute la capacité à stocker et transmettre des informations concernant les événements du passé.
14
INTRODUCTION
C'est ici que se situe le fossé entre la physique et biologie. Les lois de la physique sont par définition indépendantes de tout type d'organisme. Elles sont universelles et inexorables, et ne peuvent en aucun cas être changées par quelque organisme que ce soit. Pour la physique dite classique, ces lois existent même au-delà de l'observation. Par opposition, les systèmes biologiques sont arrivés à un degré de contrôle matériel tel qu'ils sont capables de catégoriser et de manipuler de manière sélective certains aspects de leur environnement matériel. C'est cette sélectivité qui différencie les actions d'un être vivant d'avec les simples actions-réactions de nature purement physique. Autrement dit, quand un être organisé devient capable de reconnaître et d'agir sur certains aspects de son environnement qui lui semblent importants pour sa propre survie, on dit que le mécanisme par lequel l'organisme reconnaît et agit devient fonctionnel par référence à l'organisation elle-même (auto-référence). La physique ne se préoccupe pas de fonctions. Par exemple, la molécule d' ADN peut être décrite à un niveau réductionniste purement physique qui ne nous apprendra rien du tout sur la fonction de certaines molécules d' ADN, comme un gène en relation avec une organisation matérielle particulière. Ce n'est que lorsque l'on fait référence à cette organisation matérielle plus étendue qu'un brin d' ADN apparaît avoir une fonction en tant que gène pour un certain type de contrôle précédemment catégorisé, par exemple codant pour une enzyme qui pourra avoir un effet sur son environnement. Toutes ces considérations peuvent être reformulées au moyen de la notion d'émergence (figure 3). Quel que soit le type d'organisation qui existe après franchissement du seuil de complexité, que ce soit de manière discrète ou bien progressive, on dit qu'il y a eu « émergence » à un certain niveau physique dès que les attributs de ce niveau ne peuvent pas être entièrement expliqués au moyen des attributs du niveau précédent. En particulier, les fonctions, le contrôle, la catégorisation ne peuvent pas être expliqués par la physique uniquement. Remarquons toutefois que cela n'implique en aucune façon de faire intervenir le vitalisme ou le dualisme. Lorsqu'on affirme que certaines caractéristiques ne peuvent pas être expliquées uniquement par la physique, en raison de l'existence de propriétés émergentes pour certains arrangements physiques, cela signifie qu'il est nécessaire d'utiliser des modèles différents à chaque niveau et aussi, ce qui est très important, qu'il faut des modèles permettant de connecter les différents niveaux entre eux. Autrement dit, bien que les fonctions, le contrôle ou la catégorisation ne puissent pas être expliqués par la seule physique, ils doivent néanmoins suivre les lois physiques. En particulier, le problème de l'origine de la vie doit être vu comme une émergence de la capacité à catégoriser et contrôler un milieu physique.
15
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
Synthèse
t
Structures
Chimie
atomes quarks
t
Physique
Figure 3 : Le chemin qui mène de l'atome à la cellule est interrompu par un gouffre béant au niveau des protéines, premiers objets possédant une structure mais assurant aussi une fonction. Entre la protéine « structure » du biochimiste et la protéine «fonction », il y a eu émergence. Comme l'avait très bien compris le biologiste hongrois Albert Imre Szent-Gyorgyi, Prix Nobel de médecine 1937 pour sa découverte de la vitamine C, c'est l'eau qui est responsable de cette émergence (voir Szent-Gyorgyi 1972).
Vu sous cet angle, l'eau présente bien toutes les caractéristiques d'un système vivant, car lorsque l'hydrogène et l'oxygène ont réagi pour donner de l'eau, il est impossible d'expliquer les propriétés du nouveau gaz H20 obtenu au moyen des propriétés de l'hydrogène ou de l'oxygène pris séparément. En particulier, la manière dont la vapeur d'eau arrive à contrôler le climat de toute une planète comme la Terre est sans commune mesure avec ce même contrôle par le dioxygène ou le dihydrogène pris séparément. Il y a donc bien eu émergence. De même, lors du déluge universel, la vapeur d'eau a subi une transition de phase depuis l'état gazeux vers l'état liquide. Ici aussi, il est de nouveau totalement impossible de comprendre les propriétés du liquide au moyen des modèles utilisés pour décrire la vapeur, et le contrôle exercé par l'eau liquide sur les paysages terrestres n'a rien de commun avec le contrôle exercé par la vapeur d'eau. Il y a encore bien eu émergence. Lorsque le liquide se solidifie en glace, il faut mettre au point de nouveaux modèles spécifiques de l'état solide pour comprendre les nouvelles propriétés de cette matière gelée qui façonne à sa manière les paysages terrestres. Enfin, lorsque l'eau se structure en couches sur toute surface organique ou minérale, on ne retrouve aucune des propriétés de la vapeur, du liquide ou de la glace en raison de l'émergence d'un nouvel 16
INTRODUCTION
état, l'eau morphogénique, qui lui aussi façonne la planète. Placer le débat sur la notion d'émergence présente donc l'énorme avantage de s'affranchir d'un anthropomorphisme trop centré sur l'ego et ramène la science vers la position défendue par le chamanisme, à savoir que la vie se trouve à toutes les échelles et que tout niveau de conscience est relié à tous les autres niveaux par-delà les apparences que prennent les formes matérielles.
Auto-organisation et autopoïèse Parmi toutes les possibilités d'émergence et de maintenance d'un ordre dans la nature, le concept d'auto-organisation joue bien évidemment un rôle central. Ainsi la croissance, la reproduction, l'adaptation, la réactivité, l'évolution et le métabolisme sont-ils des exemples d'auto-organisation. De manière très générale, il vaut mieux éviter de définir l'auto-organisation par référence à la notion d'énergie. On a coutume de dire que des systèmes auto-organisés doivent être des systèmes thermodynamiques ouverts maintenant leur apparence grâce à un flux continu de matière ou d'énergie, grâce auquel on peut même créer de nouvelles formes de vie. Le problème de cette manière de penser est qu'elle met trop l'accent sur l'énergie, qui n'est qu'un moyen matériel, et minimise le rôle de l'information qui peut exister, même en dehors de tout support matériel. Parmi toutes les définitions possibles de la vie comme auto-organisation spécifique de la matière, le concept d'autopoïèse, c'est-à-dire d'auto-création dans un espace physique, introduit dans les années 1980 apparaît particulièrement pertinent (Maturana & Varela 1980). Cette référence à l'espace physique ne signifie pas simplement que toute chose vivante doit posséder une base matérielle, mais plutôt que le métabolisme est une propriété essentielle de la vie (Boden 2000). L'autopoïèse n'est pas un concept biologique en soi, mais plutôt une description abstraite des systèmes auto-organisés. Par contre, l'autopoièse au sein d'un espace physique signifiant auto-organisation via un métabolisme semble être l'essence même de la vie biologique. Les systèmes autopoïétiques sont définis en général par leur organisation topologique et non par leurs composants ni par les propriétés de ces composants. Ce qui importe, c'est d'abord les processus et les relations qu'entretiennent les composants matériels du système autopoïétique. De manière critique, l'autopoïèse requiert l'auto-création d'un système physique fonctionnant comme une unité par apparition spontanée d'une frontière physique qui doit être constamment entretenue par un métabolisme biologique. Il s'agit donc d'une homéostasie très particulière où ce qui doit être préservé n'est pas un flux de matière, ni un flux d'énergie, mais bel et bien l'organisation entière du système perçu comme un tout indissociable. Ainsi, le corps humain est une unité autopoïétique d'un espace physique au même titre qu'un arbre ou une simple bactérie. Peu importe donc que le système ait des bras, des jambes, des branches ou des cils, ce qui compte en dernière analyse est la génération 17
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
d'une membrane cellulaire qui distingue la cellule de son environnement en la désignant comme une entité vivante et autonome. Expliquer comment cela a pu se produire sur une Terre primitive est le problème central de la science moderne, aussi bien du point de vue scientifique que du point de vue philosophique. On entend souvent dire que les océans ont été le berceau de la vie sur la base du fait que le plasma sanguin possède une composition chimique très voisine de celle de l'eau de mer. Cette vision romantique est probablement fausse, car les biologistes qui s'intéressent au problème de l'apparition de la vie sur Terre ont une formation en chimie extrêmement rustique, voire inexistante pour certains. La biologie présente en effet cette caractéristique de raisonner en termes de fonctions et non en termes de structures comme le font le chimistes ou les physiciens. Ayant la chance d'être chimiste, je vais essayer de vous présenter un scénario possible d'émergence, sachant que ce scénario ne doit pas être considéré comme acquis et démontré, mais plutôt comme suffisamment plausible pour pouvoir être exposé.
Une soupe primitiue Tout le monde s'accorde pour dire qu'avant la première cellule, il y a eu une ère chimique. Sur la figure 4, j'ai résumé tous les ingrédients chimiques qu'il a fallu réunir pour faire naître la vie sur cette planète sans invoquer un être suprême doté de pouvoirs surnaturels. Comme il ne peut y avoir de vie sans reproduction, la toute première étape a probablement été l'émergence de molécules auto-réplicantes. Or, avec les cellules modernes, la réplication des acides nucléiques est sous la dépendance d'enzymes protéiques, ces mêmes enzymes dépendant de l'existence des acides nucléiques en question. C'est le problème inextricable de la poule et de l' œuf. Toutefois, les polynucléotides, en raison du mécanisme d'appariement des bases, sont capables de diriger la synthèse de leurs brins complémentaires à partir de mononucléotides ou de petits oligonucléotides. L'idée a donc germé en 1986 d'un organisme autonome fait uniquement d'ARN (Gilbert 1986) et capable d'assurer grâce à cette seule molécule toutes les fonctions vitales comme la catalyse, l'hérédité, la recombinaison et l'évolution, suite à la découverte de molécules d 'ARN catalytique, les ribozymes, capables de réaliser des réactions enzymatiques (Cech 1986). Cette découverte importante a marqué le début d'un monde biologique complètement dépourvu de protéines. Les ribozymes sont en effet capables de catalyser des réactions chimiques très diverses. L'acceptation de l'existence d'un tel monde simplifie grandement le problème de l'origine de la vie sur Terre, car elle évite d'avoir à se poser la question de l'origine de tous les autres composants moléculaires qu'on trouve dans une cellule comme l 'ADN ou les protéines qui ne deviennent qu'une conséquence d'un processus de sélection naturelle dans une soupe pré-biotique remplie de ribozymes. 18
INTRODUCTION
Terre frm69
---
/. e,. """""""
M•IT'ITllffiH
Dlno1aur8'
u 2 1.5 Agtt en mRUuda d'ann6ea
"'
Hadlteo 1 3,85
1 2.5
0
Prot~rœoique
j
'·'
'5î' 2 Phan~ique
__
. ...... -,.
0 .5 ~---------------------~
...,
.-........
MO,.
..... ........ .......
~ffP .. 1,6) {V•0,63111111, A •0,31 11m'.0• 1,041tfll)
fOl'~(W • o,75)
f\f•l,18111ft',A•0,651U11',D"ll.43 'll•)
·-·--
:îiiil lllliiiiiiiiîl
V~(li:l < FF
00 ,~drll;tt:.::=1~H _....,.._,_.....,_,..,.(_Go)
:l·. 4 .!
A.p Halte lq6riwr del ârœ. ..tnlims (4.ft o..>
4,0
d - d'-Cuodo(4.03Gol "'-""
~?
l'lllft~~{S.90o.,)
3.9
s.S -
Ap96dlmnb--.d'Akiti,°"'611Pd Cs.l?G.)
500
'Oil
...,_,eo
î 1
s8o--51o
h-1---...........JI~
· - .tupQtt.n... .. GrohkMI (S.76c.) ,,....,_ tncll ck . . . . . . . . •pillit• t a.ire~d ..oeblcbla.,.._plaqlMlll
s.• M
- ===-'-!:_~~
Figure 9 : Le premier milliard d'années sur Terre qui a vu apparaître le cycle de l'eau (gauche) et les principales roches qui ont probablement apporté l'eau pour former les océans.
36
CHAPITRE
l-
L'EAU, LA SUBSTANCE
Il reviendra à la proto-croûte océanique le rôle de recycler 205 bars de dioxyde de carbone dans le manteau terrestre sous forme de calcaire CaC03 • Comme l'océan primitif était en équilibre avec une atmosphère composée principalement de C02 , le pH des océans se trouvait contrôlé par la dissolution et la précipitation du carbonate de calcium CaC03 et par la fugacité du dioxyde de carbone C02 de l'atmosphère. Pour des températures initiales voisines de 200-230 °C et des pressions de co2 voisines de 10 bars, on obtient une gamme de pH comprise entre 4,8 et 6,5 confortant l'idée d'océans acides durant l'Hadéen (figure 10). L'océan n'est donc devenu basique avec un pH de 8,2 que depuis 2 milliards d'années. L'hypothèse d'un océan archéen acide est supportée par l'existence de larges dépôts, au début de l'ère protérozoïque, de roches constituées de chailles, de sidérite (FeSi03) et d'hématite (a-Fep 3) avec une quantité de fer comprise entre 30 et 45 %. La précipitation de telles roches au début du Protérozoïque peut être expliquée par l'accumulation progressive de fer sous sa forme réduite, fer(II), dans les océans hadéens et durant l 'Archéen. L'ion ferreux Fe2ED est soluble dans l'eau dans des conditions anoxiques (absence d'oxygène), réductrices et pour un pH compris entre 0 et 6. Dans un océan alcalin et oxygéné comme aujourd'hui, l'ion est oxydé en Fe3Ell insoluble qui précipite sous forme d'hydroxyde Fe(OH)3• Ces dépôts durant l'ère protérozoïque constituent donc un indice clair d'un changement majeur de pH et d'état rédox de l'eau de mer, et en particulier l'évolution depuis un état anoxique et acide vers un état oxygéné et basique. La salinité de l'océan provient de deux sources distinctes : altération de la croûte océanique et hydrothermalisme océanique. De nos jours, l'altération est la source dominante de salinité, mais durant l'Hadéen ou l' Archéen, il semblerait que ce soit plutôt l 'hydrothermalisme qui ait été dominant.
37
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
12 1000
Température océan à partir des
chai~
16 100
~ .....
20
lA
'!:
28
J
32
c5
f
1
0 ,1
0 ,001
_...._,__~~
3.0
2.5
2.0
l.l
oPment e M:Men
Cl•
Br4t SO •• t•
Na"
K•
1.0
0.5
0.0
IO'"'·t.=.;, ·IW r +IH ' ~ - ( I O""ln.o. +10-" } IW 1- IO""'·/ro, •O
Age en mllll1rd1 d'1nn6e1 10
Ma" Ca" Sr"
' Ions dissous
.._.....__.._....__.__.......... 3.5
b
0 ,01
36
4.0
'\
10
:• 1 ·'
----~----~-~ 9
~
j ........ 10· 1
~
Il::'
110'' "'
5
...·•...
io .. "--_.,:::= =:i;: s = - - !a, - - - - '1-~---1.04
1:::::::;:::=::;::::::::::;{.._-l=Î
10"
"'
Age / milliards d'annha
Milllarda d'ann6111
Figure 10 : Évolution du pH, de l'état rédox et de la salinité des océans au cours des âges. Les chailles sont des roches dures composées de grains de silice extrêmement fins (silex, jaspe, onyx, etc.). Les rapports ô180 de l'eau et des chailles décroissent au fur et à mesure que la température des océans augmente, en raison du fractionnement isotopique lié à la précipitation de la silice contenue dans l'océan. D'après Pinti (2005).
Cycle de l'eau Savez-vous que nous buvons la même eau que les dinosaures? C'est un fait qu'en raison de sa grande stabilité chimique, et contrairement au pétrole, l'eau se recycle et que ce cycle a commencé à tourner il y a environ 3,9 milliards d'années. L'eau est une substance très mobile qui circule entre deux types de réservoirs : ceux qui font office de conducteurs comme les cours d'eau et l'atmosphère et ceux qui jouent un rôle d'accumulateurs comme les glaciers, les nappes et les océans. Chaque type de réservoir possède sa propre dynamique avec, en particulier, une échelle de temps de remplissage et de renouvellement qualitatif et quantitatif spécifique à chacun. Les temps de séjour de l'eau dans les différents réservoirs de l'hydrosphère sont estimés en comparant les flux échangés entre les différents réservoirs et les volumes de chacun d'eux. Les glaciers et les calottes polaires sont les endroits où l'eau séjourne le plus longtemps : entre 1 600 et 9 700 ans selon le lieu (Marsily 38
CHAPITRE
J-
L'EAU, LA SUBSTANCE
1995). Puis, en seconde position viennent les océans avec des temps de séjour de l'ordre de 2 500 ans, tandis que l'eau souterraine se renouvelle tous les 1 400 ans en moyenne. Il faut environ 17 ans pour régénérer les lacs d'eau douce et 1 an pour l'eau des sols humides. Les taux de renouvellement des cours d'eau et de l'atmosphère se chiffrent en jours: 16 jours pour l'eau des fleuves et rivières et 8 jours pour l'eau des nuages ou au sein des organismes. Enfin, les taux de renouvellement dans une cellule vivante sont à peine de quelques heures. Le Soleil, par l'énergie que la Terre en reçoit, est le moteur principal du cycle de l'eau. Une partie de l'énergie solaire (principalement contenue dans la partie visible du spectre électromagnétique) est directement renvoyée vers l'espace par les nuages (figure 11) et la surface terrestre (albédo) ; l'autre partie est absorbée par le sol et les océans. En situation d'équilibre, ces derniers rayonnent toute cette énergie dans l'infrarouge en direction de l'espace. Mais l'atmosphère, à son tour, absorbe une partie de ce rayonnement terrestre et le réémet à la fois vers l'espace et vers le sol. La surface de la Terre est donc plus chaude qu'elle ne le serait sans atmosphère : c'est ce qui est connu sous le nom d' « effet de serre ». Les molécules responsables de cet effet sont la vapeur d'eau, le gaz carbonique et d'autres gaz comme le méthane et le protoxyde d'azote. Quand les conditions changent - que ce soit par l'énergie reçue du Soleil ou par le contenu en gaz à effet de serre - le système climatique évolue vers un nouvel état d'équilibre.
-·
-
-·
-
.......
Figure 11 : Les nuages, qui sont de l'eau liquide avec des gouttes d'eau ou des flocons submillimétriques, jouent un rôle essentiel dans le cycle de l'eau. La forme des nuages et leur taille dépendent de la température, de la pression atmosphérique et de /'altitude où se produit la condensation.
39
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
C'est ce que les climatologues désignent sous le vocable de« réponse à un forçage ». Dans cette évolution, le changement d'un paramètre entraîne des modifications d'autres paramètres : par exemple, l'élévation de température augmente le contenu en vapeur d'eau et en gaz carbonique de l'atmosphère, modifie la couverture nuageuse, diminue le volume des glaces continentales, etc. L'augmentation de température de l'océan risque de diminuer l'efficacité de celui-ci pour absorber une partie du carbone anthropique. Ces rétroactions peuvent être positives, renforçant l'effet du forçage initial, ou négatives quand elles le réduisent. Selon les paramètres qui entrent en jeu, ces effets, qui peuvent être quantitativement importants, se manifestent sur des périodes courtes, de quelques jours pour l'évolution de l'atmosphère ou, au contraire, très longues pour l'océan. Les effets potentiels de l'activité du cycle solaire sur le climat sont l'objet de controverses mais donnent lieu à des recherches actives. Certains mécanismes invoqués concernent l'effet du rayonnement cosmique galactique, fortement modulé par le vent solaire qui pourrait affecter la formation des nuages ; des couplages supplémentaires entre la stratosphère et la troposphère associés à des courants électriques sont également évoqués. Ces effets, secondaires par rapport à l'effet des conditions atmosphériques telles que la teneur en vapeur d'eau, la stabilité et la circulation générale de l'atmosphère, etc., dépendent d'une physique sous-jacente qui fait actuellement l'objet d'études expérimentales au CERN. D'autres mécanismes, qui mettent en jeu l'évolution importante de la composante UV au cours du cycle et qui modifient la distribution d'ozone stratosphérique, sont actuellement à l'étude. llun
Neige
Grésil
Pluie verglaçante
Pluie
.....•••
a
.....••.
D
, 1•
•••
D
! !
• ...-:...... Figure 12 : Mécanisme de formation de la neige, du grésil et de la pluie verglaçante.
Sous l'effet du soleil, l'eau s'évapore et monte vers l'atmosphère. On estime à 1 000 km3 l'eau des océans qui, chaque jour, s'évapore. L'eau emmagasine de la chaleur dans les basses couches atmosphériques, ce qui l'oblige à monter. Peu à peu, elle se refroidit tout en étant redistribuée par les courants 40
CHAPITRE
1-
L'EAU, LA SUBSTANCE
atmosphériques. L'action du froid condense cette eau qui retombe sous forme de précipitations (neige ou pluie) avec 1 à 100 kg par mètre carré; 61 % de cette eau s'évapore (1 kg m· 2), 16 % ruisselle (0,01 kg m·2) pour rejoindre les cours d'eau tandis que 23 % (50 kg m·2) s'infiltre pour alimenter les nappes et rivières souterraines (Newsom 1994). Toute la planète recycle en permanence son eau, via la formation de nuages pouvant générer aussi bien de la pluie que de la neige selon la température extérieure. Contrairement à une idée très répandue, les gouttes d'eau de pluie n'ont pas du tout la même forme que les gouttes qui pendent d'un robinet fuyard en raison de la longueur capillaire de l'eau. Aucune goutte d'eau de pluie terrestre ne peut dépasser la taille de 6 mm, fixée par le nombre de Weber, car au-delà de cette taille critique, il y a fragmentation en gouttes plus petites (Kostinsli & Shaw 2009). Un grêlon est une goutte de pluie qui tourne en rond dans un cumulonimbus jusqu'à ce que sa taille l'oblige à tomber sous forme de glace (figure 11). La neige se forme quand la température est inférieure à 0 °C dans l'atmosphère et au sol. S'il y a une inversion de température entre l'air et le sol, il peut y avoir formation de grésil ou de pluies verglaçantes (figure 12). Il existe tout un folklore autour des flocons de neige et des cristaux de glace. Dans le magazine New Scientist du 30 décembre 2013, Helen Pilcher nous explique que Wilson Bentley, le premier homme à avoir photographié des flocons de neige, trafiquait ses photos pour mieux révéler la structure hexagonale des cristaux de glace. Les photos de Ken Libbrecht (figure 13 à gauche) quant à elles ne sont pas trafiquées, mais correspondent à des conditions de laboratoire non naturelles obtenues en contrôlant soigneusement le taux d'humidité et la température (Libbrecht 2005). La figure 13 (à droite) montre à quoi ressemble en fait de vrais flocons de neige photographiés par Tim Garrett (University of Utah) et ses collègues avec une vitesse d'obturation de 1/40,000 de seconde- suffisamment rapide pour capturer les flocons dans l'air (Garrett 2012). On est loin des photos trafiquées de Bentley ou de celles de Masaru Emoto qui prétend que l'eau sait faire la différence entre Hitler et Mère Teresa. La glace est un milieu hostile à la vie et son apparition est généralement synonyme de mort. La plupart des flocons de neige n'ont aucune forme précise et ce n'est que lorsque l'homme intervient par maquillage (Bentley) ou par force (Libbrecht, Emoto) que les cristaux prennent des formes géométriques bien définies.
41
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
Tabulaire
Prismatique
Tabulaire
Tabulalre & prismatique
0,3
0 0
-5
-10
-15 -20 Température I °C
-25
-30
-35
Figure 13 : Forme des cristaux de glace lors d'expériences en laboratoire avec contrôle de /'hydrométrie et de la température (Libbrecht 2005) et forme réelle des flocons de neige dans/ 'air photographiés à/ 'aide de caméras spéciales (Ga"ett & al. 2012).
42
CHAPITRE 1 - L'EAU, LA SUBSTANCE
Le cas Masaru Emoto Il est extrêmement fréquent lorsqu'on parle de cristaux de glace de citer le nom de Masaru Emoto (1943-2014), homme d'affaires japonais passé maître dans l'art de photographier des cristaux de glace au microscope optique. Lors d'un séjour aux États-Unis en 1989, Masaru Emoto découvre les photos obtenues lorsque l'on observe au microscope électronique cryogénique de l'eau ordinaire, naturelle ou microclustérisée selon le procédé de Lee H. Lorenzen censé produire une forme d'eau faite d'un anneau à six molécules d'eau. Lors de ce même séjour, Lorenzen lui fait rencontrer Ronald J. Weinstock, chercheur intéressé par les applications thérapeutiques de l'énergie électromagnétique en relation avec les phénomènes de résonance magnétique ou acoustique. Weinstock est l'inventeur d'une machine à biorésonance cellulaire qu'Emoto rebaptisera MRA (Magnetic Resonance Analyzer) afin de pouvoir la commercialiser lors de son retour au Japon. L'idée d'Emoto est que chaque substance ou phénomène physique possède son propre champ de résonance d'origine magnétique lié aux mouvements des électrons autour des noyaux atomiques qu'il appelle« Hado »(mot signifiant à la fois onde et mouvement et probablement équivalent au chi chinois) et qui peut être converti en un nombre de quatre à cinq chiffres, La technique MRA peut donc servir à tester non seulement le bon fonctionnement des cellules, mais aussi la qualité de l'eau. Ainsi, quand les codes sont introduits dans l'appareil MRA, celui-ci produit un champ de résonance magnétique correspondant au code du phénomène à tester et qui peut être aussitôt appliqué au sujet au moyen de deux cathéters. Ceci permet de vérifier le bon fonctionnement des tissus et des organes et détecter la présence éventuelle de bactéries, de champignons ou de toxines (mercure, plomb, aluminium, etc.). De même, en posant un échantillon d'eau sur l'appareil et en introduisant le code de la substance à rechercher, l'appareil peut indiquer si ce produit se trouve dans l'eau testée et, si oui, en quelle quantité il se trouve présent. On peut aussi tester la qualité des aliments ainsi que le degré de résonance entre différentes substances dans le cas de mélanges. L'appareil demande environ trois mois d'apprentissage avant de pouvoir faire des diagnostics fiables. De 1989 à 1994, Emoto va donc soigner avec son appareil plusieurs milliers de personnes et, compte tenu des succès obtenus, va obtenir en 1992 un diplôme de docteur en médecines alternatives auprès d'une université internationale libre située quelque part entre l'Inde et le Sri Lanka. En 1994, suite à la lecture d'un livre lui expliquant qu'il était impossible de trouver deux flocons de neige identiques, Emoto va faire le lien entre sa pratique du Hado et les images de microscopie électronique cryogénique obtenues par Lee H. Lorenzen aux États-Unis. Après 60 jours d'essais 43
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
acharnés il va réussir à obtenir sa première photo d'un cristal de glace présentant une parfaite symétrie hexagonale. Beaucoup d'autres photos suivront jusqu'à la parution en 1999 du livre Messages cachés de l'eau, ouvrage autopublié qui va connaître un succès immense, car via sa technique de cristallisation, Emoto montre que l'eau est non seulement sensible à la musique mais également à de simples mots écrits sur des bouts de papier et surtout à des pensées conscientes. Le fait que la musique puisse avoir une action sur l'eau découle directement d'une idée de Ronald Weinstock qui pensait que si des combinaisons de résonances magnétiques pouvaient avoir un effet thérapeutique, alors des combinaisons équivalentes de résonances acoustiques pourraient avoir le même effet. En revanche, le fait que les mots puissent avoir une influence sur l'eau découle de ses observations sur l'eau Hado qu'Emoto pouvait informer en l'absence de toute présence physique de ses patients au moyen de leurs photos. Si la photo d'un patient était suffisante pour informer l'eau, alors il devait en être de même de son nom. De là l'idée qu'un mot pouvait retenir une certaine information vibratoire, et un premier essai avec le mot « arigato » signifiant « merci » en japonais qui s'avéra concluant. Puis vint l'idée de remplacer les mots écrits par la simple pensée, ce qui valut à Emoto de figurer en 2004 en bonne place dans le film de vulgarisation de la mécanique quantique très controversé What the Bleep Do We Know ?. Comme les expériences d'Emoto sont souvent citées comme des preuves scientifiques de la possibilité d'agir sur la matière au moyen de la seule pensée, positive ou négative, il est important de bien comprendre le mode opératoire. L'eau à analyser est recueillie dans un flacon en polyéthylène et conservée dans un emballage opaque réfléchissant les ondes lumineuses et électromagnétiques. Arrivé au laboratoire, le flacon est frappé plusieurs fois sur le genou afin d'activer l'eau. Puis on prélève 50 fois (les premières années Emoto faisait 100 prélèvements) 1 ml d'eau que l'on place dans des boîtes de Petri qui sont placées dans un congélateur à -25 °C pendant trois heures. Suite à cette congélation, les gouttes d'eau se transforment en une masse de glace dénuée de tout cristal ayant une épaisseur d'un millimètre environ. Les cristaux apparaissent à une température de -5 °C sous l'effet de la chaleur produite par l'éclairage du microscope et croissent pendant environ 12 secondes, temps au bout duquel ils retournent à l'état liquide. Évidemment, le résultat ne donne jamais cinquante cristaux semblables et, parfois, on n'observe aucune formation de cristaux lors de l'observation au microscope. Pour chacune des cinquante boîtes, Emoto fait un tableau indiquant le nombre de cristaux catalogués comme beaux, hexagonaux, et ainsi de suite. Ensuite il choisit de publier la photo d'un seul cristal, celui qui représente le mieux les caractéristiques de l'échantillon analysé.
44
CHAPITRE
1-
L'EAU, LA SUBSTANCE
Quelle conclusion tirer de tout ceci? Tout d'abord, comme le dit Emoto lui-même, sa formation initiale est celle d'une personne sensible aux sciences culturelles plutôt que naturelles. Emoto est donc clairement plus un esthète et un artiste qu'un scientifique. Il l'avoue d'ailleurs bien volontiers en disant que pour les cristaux de glace, il ne se préoccupe pas de faire ses tests en aveugle car c'est le caractère et le sens esthétique du chercheur qui sont la chose la plus importante pour obtenir une belle photo. Il est bon aussi de savoir que son titre de docteur a été obtenu par correspondance, moyennant finance, en une année seulement dans une université internationale libre assez obscure. Pour ce qui concerne la formation aux médecines alternatives, le programme semble dispenser des cours d'histoire, de philosophie et de principes généraux. Vu le flou savant entretenu par Emoto autour de son titre de docteur, ce dernier ne doit donc pas impressionner et le faire passer pour un scientifique, ce qu'il n'est pas. Ceci explique la légèreté de son protocole expérimental, où l'on voit l'expérimentateur ne prendre aucune précaution particulière pour que sa respiration n'atteigne pas le cristal en train de croître. En effet, comme l'ont montré des expériences en laboratoire extrêmement bien contrôlées, la moindre variation de température ou du degré d'humidité autour du cristal change sa forme de manière radicale (Libbrecht 2005). Donc, conclure sur la vue d'une seule photo judicieusement choisie et obtenue dans des conditions non contrôlées qu'une pensée peut être saisie et figée dans la forme cristalline en croissance est pour le moins osé. Il est important aussi de réaliser que ce n'est pas l'eau liquide qui donne naissance aux cristaux hexagonaux, mais plutôt la glace qui sous l'effet de la chaleur de la lampe qui l'éclaire se sublime (passage direct par l'état vapeur sans fusion) pour venir recristalliser sur une aspérité du bloc de glace congelé. S'il y avait donc eu une quelconque information mémorisée dans l'eau liquide, la congélation serait une première cause de la perte de cette information. Si l'information est malgré cela conservée dans la glace, le passage par l'état vapeur lors de la sublimation où les molécules deviennent complètement isolées les unes des autres serait une seconde cause d'effacement irréversible de toute information contenue dans le liquide. Il convient donc de rester extrêmement prudent sur le lien que fait Emoto entre la forme d'un cristal et l'état physico-chimique d'une eau liquide ayant été soumise à des mots ou à des pensées diverses. Un autre point qui doit inciter à la prudence est le fait d'associer sans aucun esprit critique beauté cristalline et vitalité. En effet, ce qui caractérise les phénomènes vitaux, c'est précisément l'absence totale de symétrie (chiralité de la matière vivante) ou bien alors la présence d'axes de symétrie incompatibles avec la formation d'un cristal. La symétrie cristalline parfaite traduit justement l'absence totale
45
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
de vie, ce qui est évidemment très gênant pour l'argumentation de base de M. Emoto. Bref, M. Emoto est un personnage extrêmement controversé, honni par les uns et porté aux nues par les autres. À chacun de se faire son opinion. Une chose est cependant sûre, c'est que même si M. Emoto n'utilise pas des méthodes scientifiques, il arrive néanmoins avec ses images bien choisies à faire parler de l'eau en relation avec la conscience. Pour cela, il doit évidemment être remercié, mais il doit rester à sa place, à savoir celle d'un esthète aux idées originales ayant un excellent sens du commerce.
Mystères de l'eau Selon la thermodynamique, les trois états de l'eau, vapeur, liquide et solide sont toujours en équilibre via la notion de pression de vapeur. Comme on le voit en figure 14, les molécules d'eau à l'état vapeur, c'est-à-dire à haute température, peuvent s'agiter dans tous les sens selon trois types de mouvement : translation, rotation et vibration. Ceci explique que la vapeur soit toujours l'état de plus faible densité pet d'entropie S la plus élevée avec un fort coefficient de diffusion D. Les molécules pouvant se déplacer dans l'espace, elles ont tendance à occuper tout le volume disponible et possèdent une vitesse v, un libre parcours moyen entre deux chocs Â. ainsi qu'une fréquence de collision Z que l'on peut évaluer avec la théorie cinétique des gaz. Solide
Uqulde
;:.:
i..... ..:,
.
g,
i
-
Gu
1 l'llllon Tempüature / K
~ ~
Figure 14: Équilibre entre eau liquide et eau vapeur et variations d'entropie entre les trois états: solide, liquide et gaz. L'entropie est une fonction qui augmente avec le volume disponible. Plus les possibilités de mouvement sont variées et nombreuses, plus l'entropie est haute. Nous reviendrons sur la notion d'entropie au chapitre 4.
Lorsque la température baisse, l'eau devient liquide et les molécules, ne pouvant plus avoir de mouvement de translation, viennent s'agglutiner les unes contre les autres. On parle alors de condensation qui s'accompagne d'une forte augmentation de la densité et d'une forte chute d'entropie. Le coefficient de diffusion D chute également car seules les rotations permettent aux molécules de changer de position, ce qui se traduit par une viscosité ri plus élevée que dans la vapeur.
46
CHAPITRE
1-
L'EAU, LA SUBSTANCE
Puis, si la température continue à baisser, les molécules se trouvent bloquées dans leur mouvement de rotation et la substance s'arrête de couler. Cette perte des mouvements de rotation entraîne une nouvelle chute de l'entropie, tandis que la viscosité T) devient infinie et se trouve remplacée par le module d'élasticité E et le coefficient de Poisson v. Pour la plupart des substances, la densité du solide se trouve être supérieure à celle du liquide, mais dans le cas de l'eau c'est l'inverse qui se produit, ce qui explique que la glace flotte sur l'eau liquide. Ceci est le premier grand mystère de l'eau liquide. Lorsqu'elle se trouve sous forme de glace, les molécules d'eau sont capables de générer selon la température et la pression une quinzaine de réseaux cristallins distincts ainsi qu'au moins trois types d'empilements amorphes que l'on étudiera plus en détail au chapitre 3. En présence de gaz dissous, d'autres arrangements sont possibles, appelés « clathrates » en fonction de la nature du gaz encapsulé dans des cages d'eau. Cette grande polymorphie cristalline ou vitreuse conjuguée à de nombreux clathrates est un autre des grands mystères associés à l'eau. On entend souvent dire que l'eau congèle à 0 °C et bout à 1OO °C à pression atmosphérique. C'est ce qui est montré par les lignes bleues dans le diagramme d'état de l'eau« pure» (figure 15). Mais ce diagramme montre aussi la présence de lignes vertes pour une eau complètement dégazée et ultra-pure, définissant le domaine de l'eau surfondue ou de l'eau surchauffée. Comme on le voit, l'eau peut en fait rester liquide entre -42 °C et +280 °C, c'est-à-dire bien en dessous de son point de congélation et bien au-dessus de son point d'ébullition. Nous avons là un autre grand mystère de l'eau liquide.
=···r· Ol.AŒ
""""
1 ·Î-· ' - --- i--·-.l. 1
i
i
1
-.i.. ..
LWAUT ! ;;----
Figure 15: Diagramme d'état de l'eau avec les limites de métastabilité.
Dans tout diagramme de phase, il y a deux points importants qui caractérisent une substance donnée. Tout d'abord, le point triple qui correspond à la température et à la pression à laquelle les trois états (solide, liquide et gazeux) peuvent coexister et au point de jonction des trois lignes bleues. Ensuite, le
47
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MtDECINE
point critique qui est le point où il n'est plus possible de faire la distinction entre état liquide et état gazeux. L'eau révèle ici des propriétés vraiment extraordinaires, car au point critique, elle présente un volume molaire extraordinairement bas de 56 cm3 mol· 1• Seules deux substances arrivent ici à battre l'eau, le néon avec un volume molaire de 42 cm3 mol- 1 et le mercure avec un volume molaire de 35 cm3 mol- 1• Toutefois, avec une température critique de seulement 45 K, le néon fait bien pâle figure par rapport au 647 K de l'eau. Seul le mercure avec une température critique de 1 751 K arrive à battre l'eau sur les deux tableaux, mais au prix d'une masse molaire 10 fois plus grande que celle de l'eau (figure 16). Cette cohésion interne de l'eau très élevée se reflète sur les courbes montrant comment varie le point d'ébullition de substances similaires en fonction de la position dans le tableau périodique des éléments de Mendeleïev. Pour comprendre les interactions entre molécules, on fait généralement appel à la notion de moment dipolaire permanent qui est la distance séparant le barycentre des charges positives et celui des charges négatives multipliée par la valeur de la charge électrique caractérisant un tel dipôle : positive à une extrémité et négative à l'autre extrémité. Si les deux barycentres coïncident, on dit que la molécule est apolaire, tandis que plus ils sont éloignés, plus le moment dipolaire est fort et plus les molécules s'attirent entre elles. C'est bien ce que montre la figure 16 avec deux graphes, l'un concernant des molécules polaires et l'autre des molécules apolaires.
48
CHAPITRE
200
100
1-
L'EAU, LA SUBSTANCE
CBrc
T""' / °C
Iode 254g·mol·1
Molécules apolaires
Rn
· 100
~ RtUIM
·200
1
2
3
s
4
Rangée du tableau périodique
Nu.trAta ~: 86
6
M~~:222
100
Molécules polaires
so
·SO ·100
Po = 1.855D
·ISO 2
3
4
Rangée du tableau périodique
Ha()
18,01528
273,18
Points critiques
0,61 173
647,1
22,06
56
374
22,1
Figure 16: L'eau est un liquide dont la cohésion interne est extrêmementforte, compte tenu
de sa masse molaire ridiculement basse. On la voit par exemple concurrencer le mercure, autre substance liquide à température ambiante extrêmement cohésive mais de masse
molaire dix fois plus élevée. Ceci se traduit par un point d'ébullition tout àfait anonnal par rapport à des substances similaires.
On remarque ainsi une autre loi très générale de la chimie, d'origine quantique, appelée « interaction de van der Waals », qui stipule que le point d'ébullition d'une substance doit être d'autant plus élevé que la masse molaire est plus grande. On voit que la loi est très bien suivie par les molécules apolaires. Elle s'applique aussi visiblement pour les molécules polaires sauf pour ce qui concerne trois molécules extrêmement polaires qui sont dans l'ordre : l'eau, le fluorure d'hydrogène et l'ammoniac. Il y a là un nouveau mystère qui n'est en rien lié à la masse molaire ni à la polarité, puisque HF possède un moment dipolaire de 1,91 D légèrement supérieur à celui de l'eau ainsi qu'une masse molaire légèrement plus élevée. Or, l'eau bat HF à plate couture ... 49
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
Coefficient de compressibilité isotherme KT
Gaz parfait PV = nR0 => J3r = l/P (Pa-1) 12 ~~~~~~~~~~~~
gu
liquide
i = 3,984 °C tandis que pour l'isotopomère Hp 18 on a p = 1 112,49 kg m- 3 à E> = 4,211 °C (Franks 2000). Pour Dp 16 (abondance naturelle 0,0000026%) on trouve p = 1 105,3 kg m- 3 à E> = 11,185 °C tandis que pour l'isotopomère Dp 18 on a p = 1 216,88 kg m- 3 à E> = 11,438 °C. La température est encore plus élevée pour avec p = 1 215,01 kg m-3 à E> = 13,403 °C.
Tp
OIAL1eu
... _(>).
POUN au.t.TIJ'I
1rtc1.-.,... (•)·
.
Binnalh, 0,0088 Plomb , o,osgS O., o,o.ga Platine •, o,o31i Euin, 0,051 ~·· o,ogs1 0,0557 Zino 1 Ttll•re, o,og 1s Culn•, ··~f l"ickel·, 0,1 '
Pierre Loula Dulong (1785-1838)
Fer, Coboh , Soa&e,
Alexia Thérese Petit (1791-1820 )
-
..~3 11,16 ~35
o,37~
1'!~ ,o3
0,37 o,37 o,ilûi5 o,3i 5
3~7
.... '1i'
o,rÛ: 0,1
1
......... t•s-
.11..... ,.,.......
o,3830 o,3~ o,37 0,3740
13,3o
0,1100
••0•11t1
d• polJe .. .........
0 13
19
::~A
o,3780
..011
,..,n1...
(o)Lo_op4el................. (•) i.. ,.W. .. ..._......,.. .. ..,,... .......
z
p' p' p' 1 H =-'- +.!:L+ ....... +- (k, ·x' + k; y' + k.·z' )+ p·V
Vibration
2111
2111
lm
2
•
Fort c, X
y H =U + p.Y => C,
Faible c,
=(: ),
Figure 22: En mesurant la chaleur spécifique par rapport à l'eau de 13 éléments dont les poids relatifs par rapport à l'oxygène allait de 2 à 13, Dulong et Petit ont pu montrer que le produit de la masse molaire par la chaleur spécifique est à peu près constant autour d'une valeur moyenne de 0,38. Le théorème d'équipartition de l'énergie qui associe à chaque degré de liberté l'énergie moyenne 1hR·B où R est la constante des gaz parfaits et la température absolue permet de prévoir les capacités à volume constant. Le calcul présenté ici montre que chaque atome d'un solide doit contribuer d'une quantité 3R. Pour la glace formée de 3 atomes, on s'attend donc à avoir une capacité Cv = 3 x 3R = 9R, soit C/R = 9. Pour l'eau vapeur, si l'on ne considère que la translation du centre de masse et la rotation autour du centre de masse, on a 6 degrés de liberté d'où Cv = 6 x (1hR) = 3R ou C/R = 3. Mais si la molécule d'eau peut aussi vibrer selon ses trois modes distincts: étirement symétrique et asymétrique des liaisons 0-H ainsi que pliage de l'angle H-0-H, on aurait Cv = (6+6) x (1hR) = 6R, soit C/R = 6.
e
58
CHAPITRE
1-
L'EAU, LA SUBSTANCE
Capacités caloriliques Le fait que le coefficient d'expansion thermique isobare s'annule à 4 °C entraîne automatiquement l'égalité à cette même température entre les capacités calorifiques à pression et volume constants. La figure 22 montre que pour une même quantité de chaleur ajoutée, une substance à forte capacité calorifique ne changera sa température de que manière très modeste, alors que pour une substance de faible capacité calorifique, il y aura de fortes variations de température. D'un point de vue technique, la capacité à volume constant mesure le taux de variation de l'énergie interne par changement de température, alors que celle à pression constante concerne plutôt le taux de variation de l'enthalpie, H, obtenue en ajoutant le travail mécanique à l'énergie interne U. Dès 1819, les chercheurs avaient remarqué un phénomène intéressant, à savoir que le produit de la masse molaire par la chaleur spécifique est à peu près constant, ce qui signifie que les atomes de tous les corps simples ont exactement la même capacité pour la chaleur (Dulong et Petit 1819). Le chimiste italien Stanislao Cannizzaro (1826-1910) utilisera cette loi de manière intensive afin d'établir un ensemble de poids atomiques cohérents entre eux (Cannizzaro 1858). La mécanique statistique permettra de justifier cette loi pour les hautes températures, tandis que pour expliquer son échec à basse température, il faudra employer les lois de la mécanique quantique. Vers le milieu des années 1980, on suspecta que certaines données n'avaient pas été réellement mesurées par Dulong et Petit, en particulier celles du cobalt et du tellure (Giunta 2002). Malgré cela, la loi reste très utile car elle permet de juger jusqu'à quel point on doit considérer que la physique classique est applicable à une substance donnée. Ainsi, pour la glace hexagonale, on prévoit une capacité rapportée à la constante des gaz parfaits de 9, alors que l'expérience donne à peine 4,4. Ceci montre que beaucoup de modes de vibrations du réseau de la glace hexagonale ne sont tout simplement pas excités à 0 = 0 °C. Pourquoi ? Tout simplement parce que l'énergie est quantifiée et que certains niveaux de vibrations sont beaucoup trop hauts en énergie pour pouvoir être peuplés à cette température. En revanche, on trouve un rapport proche de 9 pour l'eau liquide, ce qui signifie que cette dernière se comporte bien comme un solide pour ce qui est des vibrations alors qu'il s'agit d'un fluide pour les propriétés mécaniques. Pour l'eau vapeur, l'expérience donne un rapport de 3,4. La valeur légèrement supérieure à 3 montre donc qu'un seul mode de vibration (pliage) se trouve partiellement activé à 100 °C. La capacité calorifique de l'eau est très différente de celle des autres fluides. En 1879, Rowland montre que la capacité calorifique à pression constante Cp de l'eau liquide augmente lors de son refroidissement et passe par un minimum vers 30°C (Rowland 1879). En 1902, Barnes étudie la dépendance 59
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MtDECINE
en température à plus haute température ainsi qu'en dessous de 0 °C (eau surfondue) (Barnes 1902a, 1902b). La figure 23 montre comment les deux capacités varient en fonction de la température. D'un point de vue microscopique, la capacité calorifique à pression constante mesure les fluctuations quadratiques d'entropie tandis que celle à volume constant varie en sens inverse des fluctuations quadratiques de température (figure 23). Ce point est crucial pour ce qui concerne la vie, car grâce à sa grande capacité calorifique à volume constant, les fluctuations de température au sein des cellules qui sont gorgées d'eau ne peuvent être très importantes, ce qui assure au métabolisme cellulaire une excellente stabilité qu'il n'aurait pas avec un liquide de capacité plus basse. Bien évidemment, ces fortes valeurs de capacité calorifique témoignent de l'existence au sein de l'eau liquide d'une structure extrêmement souple non périodique qui empêche la quantification du mouvement oscillatoire des molécules sur ce réseau. C'est cette non-quantification qui permet d'atteindre la valeur théorique, alors que dans la glace la moitié des niveaux énergétiques vibrationnels sont hors d'atteinte à température ambiante en raison d'une bonne quantification assurée par la périodicité et la rigidité d'un réseau rigide de molécules. Dans le cas de l'eau vapeur, où ce réseau n'existe pas, on retrouve de fait une très basse capacité calorifique, ce qui démontre bien le comportement extraordinaire de l'eau liquide, puisque l'on ne gagne que 6 J mol·' K' en passant de la vapeur sans réseau à la glace hexagonale, où le réseau est là, mais parfaitement périodique.
Capacité calorifique de l'eau
c;, = Cv à 0 = 4°C Oiquides normaux: c;, = i,2·Cv) 25°C: Cp = 75,327 J.mol-1 K- 1, Cv =74,539 J.mol-1 K-1 ap(0
=4°C) = o => Cp =Cv
C, =(:) oc((ôs)
2
)
p
Glace (T = -20°C) Cp = 35,35 J.moI-1K-1 50
100
Tempirature / 'C
150
200
Vapeur (100°C) Cv = 28,03 J.mol-1K-1
Figure 23 : Les capacités calorifiques de l'eau liquide à volume Cvet à pression constante Cp sont égales aux environs de 4 °C alors que pour un liquide normal on a en général CP;::: 1,2 c~v~~~~~~~~~~~~
60
CHAPITRE
l-
L'EAU, LA SUBSTANCE
Si la capacité calorifique à volume constant diminue de manière monotone avec la température, il n'en va pas de même de la capacité à pression constante qui présente elle un minimum au voisinage de T = 36 °C. Comme CP mesure la capacité d'un système à faire fluctuer son entropie, et que l'entropie augmente avec la température, il est normal de s'attendre à ce que Cp augmente de manière monotone avec la température. Ce n'est visiblement pas le cas de l'eau liquide où en dessous de 36 °C, les fluctuations d'entropie diminuent lorsque la température augmente. Pour la biologie, cet état de fait est de la plus haute importance, car avoir une entropie qui fluctue fortement et donc un large Cp signifie être incapable de focaliser l'énergie sur des niveaux quantiques bien définis, et donc être moins efficace par exemple lors de l'activité enzymatique. Ce n'est donc peut-être pas un hasard si la température de fonctionnement normal du corps humain, T = 3 7 °C, est très proche de la valeur où C prend sa valeur minimale, garantissant par là même des fluctuations minimafes au niveau de l'entropie. Mais je ne résiste pas au plaisir maintenant de vous présenter un personnage haut en couleur et truculent qui a joué un rôle de tout premier plan, non seulement dans la reconnaissance de l'anomalie de densité de l'eau, mais aussi dans le rejet de la théorie du calorique initiée par Lavoisier, ouvrant la voie à la formulation du premier principe de la thermodynamique.
Benjamin Thompson, comte Rumford Au début du x1xe siècle, les propriétés surprenantes de l'eau en fonction de la température firent l'objet d'un débat assez vif entre John Dalton, résurrecteur de la théorie atomique, et un chercheur américain, Benjamin Thompson, comte Rumford. Il faut bien avouer que le comte Rumford était un drôle de personnage, ayant épousé à l'âge de 17 ans une riche veuve deux fois plus âgée que lui pour l'abandonner sans remords après la guerre d'indépendance, trahissant sa patrie d'origine, les États-Unis, pour se réfugier en Angleterre, où il se mit au service de tous les gouvernements moyennant rétribution financière pour les trahir aussitôt en vendant au plus offrant les secrets auxquels il avait accès. Personnage trouble donc, mais aussi expérimentateur génial, n'hésitant pas à contredire Dalton ou Lavoisier sur leurs théories respectives concernant la nature de la chaleur. Durant le printemps 1797, Rumford va réaliser des expériences simples mais cruciales qui vont le convaincre que les fluides sont de mauvais conducteurs de la chaleur (Rumford 1797). Il arrivera ainsi à la conclusion que, quoique les particules d'un fluide puissent recevoir de la chaleur des autres corps ou la leur communiquer individuellement, toute communication ou échange réciproque de chaleur entre ces particules est absolument impossible.
61
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
Son point de départ est d'arriver à comprendre pour quelle raison il se brûle la langue lorsqu'il déguste des pâtés aux pommes. Il procède ainsi à l'analyse chimique des pommes et constate avec stupeur qu'elles sont constituées à 98 % en masse d'eau. Lors d'une visite des eaux thermales de la baie de Naples, il est aussi très surpris de se brûler la main lorsqu'il la plonge dans le sable, alors que l'eau en contact avec ce même sable brûlant reste froide. Puis, un jour, il observe le refroidissement d'un thermomètre géant rempli d'esprit de vin qui vient d'être exposé à une intense chaleur. Il constate alors grâce à la poussière contenue dans la liqueur la présence de courants ascendants rapides le long de l'axe du thermomètre, associés à des courants descendants contre les parois. Il disperse alors des particules d'ambre jaune dans une eau de densité convenable pour qu'elles flottent sans couler et constate que lorsque de l'eau froide dans un tube est entourée d'eau bouillante, il apparaît un courant d'eau ascendant contre les parois associé à une autre colonne d'eau descendante au centre du tube. Dès qu'il sort le tube de l'eau chaude, il constate que les courants s'inversent, le courant ascendant se trouvant maintenant au centre du tube. Ces courants s'affaiblissent lorsque l'écart de température diminue tandis qu'il est possible de prolonger considérablement leur existence en protégeant le tube par de la fourrure. Il remarque qu'une très faible variation de température suffit à faire apparaître les courants. Si l'on applique un corps chaud sur les parois du tube, la partie du liquide en contact se met à monter tandis qu'elle descend si l'on applique un corps froid. Pour valider ses idées, il envisage alors une crucis experimentum. Pour cela, il constate tout d'abord que de la glace plongée dans de l'eau bouillante fond en moins de trois minutes. Puis, au lieu de mettre la glace dans l'eau, il fait d'abord geler de l'eau au fond d'un récipient puis place un tissu dessus. Sur la glace ainsi protégée, il verse alors très précautionneusement de l'eau bouillante et une fois l'eau ajoutée, il retire très lentement le tissu protecteur pour que la glace soit en contact direct avec l'eau bouillante. Il constate alors que la glace fond 80 fois plus lentement si on la place en dessous de l'eau bouillante et non au-dessus. Pour expliquer ces résultats, Rumford va faire référence aux travaux du naturaliste suisse Jean-André Deluc (17271817) ayant montré l'existence d'un maximum de densité de l'eau liquide vers 40 °P, soit 8 °P au-dessus du point de congélation de l'eau (32 °P ou 0 °Re) (Deluc 1772). Comme l'eau est en contact avec la glace fondante, sa température est nécessairement de 32 °P, ce qui signifie qu'elle doit être moins dense que l'eau plus chaude dans la gamme 32-40 °F. Selon la loi d'Archimède, l'eau glacée doit donc monter, tandis que l'eau chaude doit descendre, d'où l'apparition de courants d'eau chaude qui descendront dans l'eau glacée. Si l'on protège une partie de la glace par un disque percé d'un trou, on constate de fait que le trou se creuse uniquement dans la direction verticale et ne s'élargit jamais en raison du courant descendant d'eau chaude qui pèse sur lui.
62
CHAPITRE
1 - L'EAU, LA SUBSTANCE
Cela lui suggère de procéder à une deuxième crucis experimentum consistant à montrer qu'à quantité égale, l'eau bouillante fondra moins de glace qu'une eau glacée ayant une température de l'ordre de 35-36 °P. Les expériences furent réalisées entre le 16 mars et le 19 mars 1797 et furent couronnées de succès, l'eau glacée arrivant à fondre effectivement plus de glace que l'eau bouillante. En effet, ce sont les courants descendants d'eau froide dans l'eau chaude qui empêchent, lors de leur rencontre avec les courants froids ascendants qui s'élèvent de la surface de la glace, l'eau chaude de fondre plus de glace que l'eau glacée, où ces courants opposés sont quasiment inexistants. Il constate avec satisfaction que s'il retarde le refroidissement de l'eau bouillante en enveloppant sa jarre dans une garniture, la fusion de la glace se trouve accélérée car les courants d'eau se trouvent ralentis. Rumford vient donc de prouver que les liquides n'abandonnent leur feu que sous l'effet de mouvements internes qui, plus ils sont rapides, plus ils facilitent la communication de la chaleur. Ces mouvements sont dus aux changements de densité liés aux variations de température et sont d'autant plus rapides que l'influence de la température sur la densité du liquide est plus grande. Comme les variations de densité s'annulent au voisinage de 40 °P, les transferts de chaleur sont très nécessairement très faibles dans de l'eau glacée. Rumford examine alors les conséquences de ce maximum de densité en considérant un lac d'eau douce à la température de 55 °P sur lequel repose une masse d'air très froid. Les particules d'eau en surface donnant leur chaleur à l'air froid deviennent plus denses et descendent vers le bas, étant remplacées par des particules plus chaudes qui descendront à leur tour. Un tel mouvement se produira aussi longtemps que le refroidissement pourra avoir lieu. Car une fois atteinte la température de 40 °P, ce mouvement interne doit cesser. Les particules en surface y resteront et donneront peu à peu le reste de leur chaleur spécifique, puis pour finir leur chaleur latente lorsque l'eau atteindra la température de 32 °P. Une fine couche de glace se formera alors à la surface du lac qui, étant moins dense que l'eau liquide, y demeurera. La glace étant un mauvais conducteur de la chaleur, cela ralentit considérablement les échanges de chaleur entre le liquide et l'atmosphère, tout en évitant que les vents n'agitent la masse liquide. De plus, l'eau sous la couche de glace est toujours à une température voisine de 32 °P car les particules d'eau glacée sont moins denses que les particules d'eau légèrement plus chaudes qui ont tendance à redescendre vu leur plus grande densité, d'où un ralentissement d'autant plus important de la communication de la chaleur entre l'eau et la glace. La neige qui finit par se déposer sur la glace isole encore plus l'eau liquide, ce qui fait que cette dernière conservera toute sa chaleur accumulée pendant l'été, même si l'atmosphère est extrêmement froide. Au retour du printemps, toute la chaleur fournie par le sol sous l'action des rayons solaires est 63
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
employée à fondre la glace par le dessous, ce qui explique la fonte de la glace, même lorsqu'elle se trouve à l'ombre avec un air ayant une température en dessous du point de congélation de l'eau. La neige qui couvre les lacs d'eau douce dans les pays froids non seulement les met à l'abri de l'influence atmosphérique, mais accélère aussi le dégel au printemps, car les rayons solaires qui pénètrent la neige subissent de multiples réflexions et réfractions provoquant un dépôt de chaleur à l'abri du contact froid avec l'atmosphère. Le contraire arrive avec une glace lisse non recouverte de neige, car à peine une particule y a-t-elle été liquéfiée par l'action des rayons solaires que le contact avec l'air ambiant la gèle à nouveau. On remarque que si ce maximum de densité n'existait pas, comme c'est le cas dans la plupart des autres liquides, rien ne s'opposerait au mouvement interne de l'eau, entraînant que toute la masse liquide pourrait atteindre la température de 32 °P ùne fois que toute la chaleur accumulée pendant l'été aura été dissipée. Une fois atteinte cette température, la couche de glace deviendrait de plus en plus épaisse au cours de l'hiver, à une profondeur telle que toute la chaleur de l'été suivant ne pourrait pas la fondre. Au fil des hivers, ce serait alors toute l'eau liquide de la terre qui se transformerait en glace jusqu'à la fin des temps. Heureusement pour la vie terrestre, l'eau présente une telle « anomalie » qui explique également pourquoi la température prend la même valeur de 4 °C au fond de tous les lacs des latitudes moyennes, car c'est à cette température que l'eau liquide atteint son maximum de densité. Pour la même raison, les masses d'eau salée océaniques permettent de produire de la chaleur afin de contrebalancer l'influence des vents polaires dans les climats septentrionaux où les rayons solaires n'amènent pas assez de chaleur. L'eau salée étant plus dense que l'eau douce et aussi plus difficile à congeler, elle descend aussitôt après avoir donné une partie de sa chaleur en surface, obligeant l'eau plus chaude à monter en surface pour y donner sa chaleur. L'eau salée chauffe donc l'air bien plus que l'eau douce, ce qui fait que les océans doivent être considérés comme les régulateurs de la température atmosphérique. Grâce à ce mécanisme, Rumford en déduit qu'il doit donc exister au fond des océans des courants d'eau froide circulant depuis les pôles vers l'équateur associés à des courants d'eau chaude en surface se déplaçant dans la direction opposée. Rumford cite à l'appui de son hypothèse l'existence du Gulf Stream, ainsi qu'une différence de température entre la surface de l'océan (84 °P) et à 1 km profondeur (53 °P) sous les tropiques où l'air est très chaud. En 1799, Dalton explique la raison pour laquelle on doit utiliser le mercure et non l'eau comme substance se dilatant en proportion de la chaleur reçue afin de construire un thermomètre avec des traits régulièrement espacés (Dalton 1802). Bien que son mémoire vise à contrer Rumford sur le fait que l'eau
64
CHAPITRE
1-
L'EAU, LA SUBSTANCE
liquide est incapable de conduire la chaleur, il commence par des remarques sur le comportement de l'eau vis-à-vis de la chaleur. Ainsi, l'utilisant dans un mélange de neige et d'eau où le thermomètre à mercure affiche 32 °F, un thermomètre à eau affiche pour sa part une température de 53 °F, tout comme s'il était plongé dans une eau liquide chauffée à 53 °F. Impossible de différencier les deux états, pourtant très différents, avec le thermomètre à eau. Il montre de plus que si l'on se place au voisinage de 42,5 °F, l'eau ne se dilate quasiment plus lorsqu'on amène de la chaleur ou du froid. Intrigué par ce phénomène, Dalton plonge son thermomètre à eau dans un mélange de glace et de sel où le thermomètre à mercure descend jusqu'à 5-6 °F et voit avec stupeur le niveau de l'eau atteindre la graduation de 128°F. En fait, Dalton redécouvre en 1799 la courbe de la figure 22 établie par l'Académie de Florence dès 1657, et semble totalement ignorer les travaux de ses prédécesseurs en ce domaine (Du Crest 1758, De Mairan 1749 ou Deluc 1772). Le 15 décembre 1803, le comte Rumford rapporte que, lors d'une excursion dans la mer de Glace avec Mm• Lavoisier et le professeur Pictet de Genève, on trouve qu'à la surface d'une masse solide de glace, on peut observer de profonds creux parfaitement cylindriques et remplis d'eau liquide (Rumford 1804). On lui explique que ces trous se forment en été et acquièrent de la profondeur au fur et à mesure que la chaleur de la saison continue, et qu'ils disparaissent au retour del 'hiver. Comme cette eau se trouve à une température de 0 °C puisqu'elle est environnée de glace de tous côtés, Rumford se pose la question de savoir d'où vient la chaleur qui fond la glace de manière continue au fond de la cavité (Rumford 1804). Il comprend alors que les particules d'eau chauffées légèrement par le soleil en surface, étant plus denses que l'eau à 0 °C, descendent lentement jusqu'au fond du puits, où, en arrivant au contact de la glace, elles lui communiquent leurs excès de chaleur, provoquant une liquéfaction dans un sens vertical. Il rapproche ce fait de la température constante au fond de tous les lacs profonds, été comme hiver, et cite aussi son expérience favorite consistant à verser de l'eau bouillante sur de la glace, cette dernière restant intacte même avec 3 heures de contact en raison de la présence d'une fine couche d'eau froide qui protège la glace de la chaleur du dessus. Il déplore également que certains physiciens remettent en doute ses expériences visant à rendre visibles les courants d'eau chaude au-dessus de l'eau glaciale au moyen de morceaux d'ambre jaune et validant sa théorie sur la propagation de la chaleur dans les fluides.
65
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
Figure 24 : Milieu : appareil inventé en 1805 par le comte Rumford pour démontrer /'existence d'un maximum de densité de l'eau liquide. Droite : un autre appareil inventé par T. C. Hope pour vérifier les dires du comte.
Comme certains esprits savants doutent encore du fait que l'eau présente un maximum de densité vers 4 °C, Rumford met au point un nouvel instrument de mesure (figure 24) qui lui permet de confirmer que le maximum de densité se trouve légèrement en dessous de 40 °F (Rumford 1805). L'idée est d'approcher dans une eau liquide (A) à 32 °F (0 °C) car entourée de glace (E) une tige métallique en étain (F) légèrement plus chaude. Sous l'effet de cette légère chaleur, Rumford s'attend à ce que l'eau chauffée au contact du métal devienne plus dense que l'eau glacée et descende pour être recueillie dans un récipient en liège (C) muni d'un thermomètre coudé (D). Si l'eau chaude est effectivement plus dense que l'eau glacée, on doit voir la température monter dans le thermomètre, alors que si c'est le contraire, le thermomètre doit rester à la température du bain (32 °F). Lorsqu'il fit l'expérience avec une tige de métal portée à 42 °F, il constata au bout de 20 secondes une montée de la température jusqu'à une valeur de 36 °F (2,2 °C) en moins de 5 minutes. Intrigué par cette expérience étonnante, le journaliste scientifique Marc-Auguste Pictet (1752-1825) décida de construire un appareil similaire à celui utilisé par Rumford et confirma l'existence d'un maximum de densité de l'eau à une température élevée de 3 à 4 ° au-dessus du terme de la glace (Pictet 1805). Mais la communauté scientifique reste une nouvelle fois sceptique. C'était en particulier le cas de John Dalton, qui avait refroidi de l'eau dans différents récipients et trouvait une température de densité maximale qui était de 36-38 °F (2,2-3,3 °C) dans des récipients en terre cuite, de 40 °F (4,4 °C) dans de la porcelaine, de 41,5 °F (5,3 °C) dans du verre, de 42,5 °F (5,8 °C) dans du fer, de 45,5 °F (7,5 °C) dans du cuivre, de 46 °F (7,8 °C) dans du laiton ou de l'étain et de 49,5 °F (9,7 °C) dans des récipients en plomb (Dalton 1805a). Dalton avait pour sa part échafaudé une théorie expliquant
66
CHAPITRE
1-
L'EAU, LA SUBSTANCE
que l'eau devait présenter une densité maximale à son point de congélation de 32 °F (0 °C) et non à 40 °F comme l'avaient montré Rumford et l'Académie de Florence (Dalton l 805b). Il fallut donc imaginer une nouvelle crucis experimentum, qui cette fois-ci devait être sans appel. L'expérience fut aussi réalisée en 1805 par Thomas Charles Hope, consistant à mesurer la flottabilité de« l'eau dans l'eau» et qui s'affranchissait ainsi de la nécessité de prendre en compte l'expansion thermique du container ou des corps solides plongés dans l'eau (Hope 1805). Hope se propose ainsi de chauffer de l'eau dans un haut vase cylindrique muni de deux thermomètres, l'un placé au sommet et l'autre au fond du vase. Si l'eau monte en surface après avoir été chauffée, c'est qu'elle se dilate comme toutes les autres substances. De même, si l'on refroidit de l'eau chaude jusqu'au point de congélation et si l'eau froide descend au fond du vase, on arrive à la même conclusion. Dans les autres cas, force est de conclure à l'existence réelle d'une anomalie de densité. Hope prit donc de l'eau glacée à 32 °F et exposa son dispositif à un air ambiant de température 60-62 °F. Il constata alors que la partie la plus chaude de l'eau descendait, venant se placer au fond du vase, démontrant que l'eau glacée devient plus dense et se contracte donc bien lorsqu'on la chauffe. Toutefois, vers 38 °F, le mouvement de descente se ralentit pour stopper complètement vers 40 °F. Puis, lorsqu'on dépasse cette température, le fluide chaud se met à monter jusqu'au sommet du vase au lieu de descendre au fond comme auparavant, signifiant que cette fois-çi l'eau se dilate sous l'effet de la chaleur. Puis Hope fait l'expérience inverse en partant d'une eau à 53 °F qu'il refroidit jusqu'à sa congélation. Jusqu'à 40 °F, c'est l'eau la plus froide qui vient se placer au fond du vase, et en dessous de cette température, il voit que l'eau froide remonte vers la surface. Pour conclure ce chapitre, notons que notre cher comte Rumford fut aussi le premier à comprendre que tout liquide devait posséder une énergie de surface ou tension superficielle (Rumford 1807a, 1807b). Il expliqua ainsi plusieurs phénomènes naturels comme la flottaison de corps denses de petites tailles à la surface de l'eau liquide, la forme concave prise par la surface de l'eau quand on la confine dans de petits récipients, le changement de cette forme concave en forme convexe, quand, le récipient ayant été rempli à ras bord, on ajoute encore du liquide, la suspension des liquides dans des tubes capillaires, etc. Rumford fut aussi l'un des premiers à observer les propriétés tensioactives de la bile et à constater que les fluides biologiques comme le lait ou l'urine présentaient des forces de cohésion plus faibles que l'eau pure. On pourra juger de la puissance visionnaire que pouvait avoir un tel personnage lorsqu'il écrit :
67
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
Mais il est facile de voir que plus la force de cohésion entre les particules d'un liquide est grande, plus celui-ci est capable de maintenir en suspension des corps étrangers de toutes sortes. L'eau m'apparaît posséder cette qualité à un degré remarquable ; et il est certain que si le besoin se faisait sentir d'un véhicule pour l'alimentation des plantes et des animaux, un liquide capable de maintenir en suspension et de transporter d'un endroit à l'autre toutes sortes de substances, très différentes en poids et en taille, et sans les affecter chimiquement, il n'aurait pas été possible de trouver un liquide plus adapté à ce but que l'eau ( ... ) Comme il serait intéressant de connaître la force d'adhésion des particules entre elles dans les sucs gastriques, le jus pancréatique, dans la lymphe, et dans le sang, pour des individus en bonne santé et pour ceux présentant différentes maladies ! Grande serait l'importance d'une connaissance de ces faits pour le physiologiste et le médecin ! Comme cela serait utile pour tous ceux qui étudient la physiologie végétale de connaître la force d'adhésion des particules de la sève lorsqu'elle monte ou qu'elle descend et ceci au cours des différentes saisons ! Combien de lumière serait jetée sur toutes les opérations chimiques se déroulant en milieu humide, si nous pouvions estimer exactement la force d'adhésion existant entre les particules des différents agents liquides que nous utilisons !
Tension superlicielle Ces remarques du comte Rumford m'amènent naturellement à parler du phénomène de tension superficielle qui joue un rôle crucial dans tout ce qui a trait aux gouttes et aux bulles. La figure 25 montre quel' origine du phénomène tient dans le déséquilibre de forces régnant à la surface de l'eau. En effet, d'un côté les molécules sont attirées vers le volume par la puissante énergie cohésive de l'eau liquide, alors que de l'autre, il n'y a que des molécules d'air totalement apolaires. Conséquence, les molécules à l'interface sont violemment attirées vers le liquide, donnant naissance à une tension par unité de longueur, ou, ce qui revient au même, à une énergie par unité de surface.
68
CHAPITRE 1 - L'EAU, LA SUBSTANCE
Pas d'anomalie y= f(T)
Tension superficielle y (J.m-2 ) ~ Surface d'un liquide membrane élastique tendue
V=l
•@• • •
S = 7,2
S=6
S=S,4
S=5,l
S=S,7
S = 4,8
yÎ avec forces intermoléculaires y(C6H 14) = 20 mJ.m-2 (VdW) y(H 2 0) = 72 mJ.m·2 (Liaison H) y(Hg) = 480 mJ.m-2 (Liaison métallique)
Figure 25: Origine et variation de la tension superficielle de l'eau en fonction de la température. La tension superficielle joue par exemple un rôle essentiel dans le bruit que fait la pluie en tombant dans l'eau ou sur le sol, ou bien encore dans le bruit de l'eau qui coule. Les premières personnes intéressées par les sons produits par la pluie furent des militaires impliqués dans des recherches sur l'origine des sons sous-marins durant la Seconde Guerre mondiale. Ces militaires constatèrent en effet que la pluie tombant sur l'océan produisait sous l'eau un véritable vacarme avec une puissance sonore maximale dans la gamme 14-16 kHz (Prosperetti & Oguz 1993). L'origine de cette fréquence caractéristique de la pluie tombant sur l'eau fut trouvée en enregistrant de manière simultanée à la fois l'événement physique et le son émis grâce à un oscilloscope piloté par un hydrophone placé près du point d'impact des gouttes. On s'aperçut alors que l'impact produisait un signal acoustique noyé dans le bruit de fond électronique tandis que lorsqu'il se formait une bulle d'air, on obtenait un signal acoustique clair et intense. L'astronome belge Marcel Minnaert (1893-1970) fut le premier à comprendre qu'une bulle d'air dans l'eau se comportait comme un oscillateur harmonique, la bulle emmagasinant de l'énergie élastique sous la forme d'air compressé ou sous la forme d'énergie mécanique de vibration du fluide environnant. Ainsi, pour des bulles d'air évoluant dans l'eau à pression atmosphérique, on prévoit que le produit de la fréquence émise par le rayon de la bulle est égal à 3,3 kHz mm. La gamme des sons audibles par l'oreille humaine s'étendant de 20 Hz à 20 kHz, les bulles « musicales » sont celles dont le rayon est supérieur à 0, l mm et inférieur à 17 cm (en eau profonde). On notera aussi que les fréquences sont fonction de la distance L qui sépare 69
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
la bulle de la surface. Pour une même taille, le son entendu est d'autant plus aigu que la bulle se trouve proche de la surface.
10
20
Fréquence I kHz
30
5
'0
15
20
Fréquence I kHz
Figure 26 : Spectres de puissance acoustique de la pluie. À gauche : pluies présentant des tailles de gouttes variables comprises entre 0,2 mm (pluie fine) et 5 mm (pluie forte). Les décibels se rapportent à un niveau sonore de référence de 1 µPel Hr 1, excepté celui de la pluie fine (référence arbitraire). À droite (référence des décibels arbitraire) : pluie tombant sur de l'eau propre (cercles pleins) ou sur de l'eau à laquelle a été rajouté un détergent sulfonique (cercles clairs). (D'après Pumphrey & al. 1989.)
Toujours au moyen de cette relation, il est facile de voir que le maximum observé vers 15 kHz concernant le bruit de la pluie tombant sur l'océan implique une taille de bulle voisine de 0,2 mm (figure 26). Le fait que ce maximum disparaisse lorsque l'on ajoute un détergent à l'eau montre bien que ce sont des bulles d'air emprisonnées dans l'eau qui sont responsables de l'émission sonore correspondante. Des expériences plus poussées ont ainsi pu montrer que le maximum vers 15 kHz ne pouvait plus être observé en dessous d'une tension superficielle de 48 mJ m-2 (Pumphrey & al 1989). Toutefois, il reste à comprendre pour quelle raison l'on obtient toujours un maximum vers 15 kHz quel que soit le type de pluie où le diamètre des gouttes varie dans une large gamme s'étendant de 0,2 mm à 5 mm. La réponse à cette question est donnée par des mesures faites en laboratoire où il est possible de faire varier indépendamment le diamètre des gouttes et leur vitesse d'impact, montrant que toutes les bulles ne donnent pas naissance à un son audible (Elmore & al. 2001). On constate alors qu'il existe deux types de sons, l'un toujours présent
70
CHAPITRE
1-
L'EAU, LA SUBSTANCE
juste après impact, l'autre nettement plus intense qui peut être soit présent soit complètement absent.
Figure 27 : On remarquera que les comtes de France possèdent une couronne qui rappelle étrangement la couronne d'eau qui se forme sous certaines conditions. En bas à gauche, le jet de Rayleigh si souvent représenté dans de nombreux contextes.
Le premier son correspond à une onde de compression supersonique, qui, pour une goutte de rayon 3 mm arrivant avec une vitesse de 5 m s- 1, dure environ 3,3 ns, radiant une énergie de 9,8 pJ pour une pression de 42 MPa. On comprend donc aisément la raison pour laquelle un cratère s'ouvre dans l'eau puisque l'impact génère une pression équivalente à 420 atmosphères. On voit aussi que l'énergie irradiée par le son produit est tout à fait négligeable par rapport aux énergies mises en jeu lors du creusement du cratère et de la formation de la couronne. De telles pressions démontrent aussi que la pluie est un puissant agent d'érosion des sols et des roches. Pour de tels solides, il n'y a en effet pas formation de cratère comme dans liquide, mais plutôt fissuration et éclatement de la roche ou labourage du sol. Cette phase supersonique est trop brève pour expliquer la durée de la première émission sonore. Le reste du son est produit lorsque la cavité se creuse et correspond au phénomène de résonance de Helmholtz qui est celui que l'on observe couramment lorsque l'on souffle dans une bouteille vide. Toute goutte qui tombe creuse dans l'eau une cavité de rayon égal à environ 5 fois son diamètre (figure 27). Ceci est déjà un exploit en soi, mais ce qui est encore plus remarquable, c'est le temps mis pour générer le cratère qui est de l'ordre de 30 ms. La vitesse d'expansion de la cavité à t = 0,1 ms est trouvée égale à 123 m.s- 1, soit environ 444 km.h- 1• Il est donc tout à fait remarquable qu'une goutte arrivant à seulement 6 km h- 1 de vitesse soit capable de 71
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
créer un cratère qui se creuse à la vitesse d'un TGV !!! Si l'on regarde la vitesse d'expansion à t = 0,2 ms, on trouve une vitesse de 3 m.s- 1, soit environ 11 km.h- 1• La décélération déduite de ces données est phénoménale puisqu'elle vaut 1,2 · 106 m ·s-2, soit environ 120 000 fois l'accélération de la pesanteur terrestre!!! Si l'on convertit ces chiffres en pression subie par l'eau, on trouve une pression de 23 MPa, ce qui correspond à 230 fois la pression atmosphérique. Par rapport à la phase supersonique, on a donc seulement perdu un facteur 2 en pression. Puis, à partir de ce moment, la pression chute très rapidement en une dizaine de millisecondes pour s'annuler lorsque le cratère atteint sa taille maximale. Ces vitesses et ces pressions phénoménales permettent aussi d'expliquer le phénomène du jet de Rayleigh qui est observé après l'effondrement de la cavité et de la couronne. Le second signal sonore, généralement plus intense, est émis après effondrement de la cavité et juste avant le jet de Rayleigh (figure 27). On notera que le laps de temps qui s'écoule entre les deux émissions sonores est très variable pour des gouttes présentant exactement le même diamètre et tombant de la même hauteur. Des études menées avec des caméras à haute vitesse ont montré que de tels événements correspondaient aux cas où la couronne d'eau se referme sur elle-même, conduisant à la formation d'un dôme de liquide. On observe dans ces conditions la formation d'une bulle d'air flottant à la surface du liquide. Au moment de la fermeture du dôme, le mouvement de l'eau s'arrête brutalement, ce qui donne naissance à deux jets symétriques, l'un orienté vers le haut et l'autre vers le bas, en direction du cratère. C'est ce second jet, résultat d'une instabilité, qui, lorsqu'il vient frapper la surface du liquide, entraîne dans ce dernier de manière erratique et non reproductible des bulles d'air de taille variable et qui donnent naissance à la signature spectrale de la pluie en dessous de 10 kHz. Tout ceci permet de mieux comprendre ce que veut exactement dire le philosophe quand il prétend que « goutte à goutte, l'eau creuse la pierre ». On comprend aussi la folie qu'il y a à prendre des bains alors qu'une simple douche vous procure, avec ses modestes gouttes d'eau, ions négatifs ET massage au niveau de la cellule sous une pression de plusieurs centaines d'atmosphères ... Ainsi, comme se plaisait à le souligner le chevalier de Boufflers : « Le bonheur ressemble à un diamant, et le plaisir à une goutte d'eau. » Mais la force de la goutte d'eau peut aussi être orientée vers la douleur avec le supplice chinois de la goutte d'eau, où une personne est complètement immobilisée, tête comprise, et voit une goutte d'eau tomber à un intervalle déterminé et régulier toujours au même endroit sur le front ou le haut de la tête. Dans un autre registre, le simple son d'une goutte qui tombe dans l'eau peut être aussi bien un véritable bonheur qu'une véritable torture pouvant rendre fou l'esprit le plus équilibré. Pour ceux qui s'intéressent aux sons de l'eau, il faut savoir que ce n'est que très récemment que l'on est parvenu à
72
CHAPITRE
1 - L'EAU, LA SUBSTANCE
simuler de manière informatique le bruit de l'eau qui coule (Zheng & James 2009). Avec une simple goutte d'eau, on peut donc aussi bien briser une montagne ou une personnalité que procurer un plaisir extrême.
P-e0 ·x' ·Ë
Figure 28: La constante diélectrique relative e d'un milieu matériel mesure /a facilité avec laquelle il est possible de séparer le barycentre des charges positives (noyaux) et le barycentre des charges négatives (électrons). La présence du champ électrique E fait en effet que chaque molécule constituant/ 'objet macroscopique devient un dipôle électrique qui a tendance à s'aligner dans la direction de ce champ. À /'intérieur de la matière, il y a compensation exacte des dipôles, tandis qu'à /'extérieur un côté de l'objet possède une charge de surface positive avec du côté opposé une charge électrique négative, créant une polarisation totale P qui réduit la valeur du champ électrique à /'intérieur du milieu à une valeur Er
Propriétés électriques et magnétiques Un autre mystère de l'eau concerne sa très forte constante diélectrique relative e, La constante diélectrique est reliée à l'aptitude que possède une matière à aligner ses dipôles électriques sous l'action d'un champ électrique (figure 28). Pour l'eau vapeur, on trouve une constante diélectrique très voisine de celle du vide, ce qui signifie qu'il est très difficile de polariser électriquement cette vapeur, car le mouvement des molécules dans le gaz détruit l'alignement entre les dipôles. Lorsque ce mouvement cesse, comme dans le cas de la glace, on voit que la constante diélectrique est multipliée par 100, ce qui est le signe qu'il existe des électrons très polarisables et donc peu liés aux noyaux. Ceci a été confirmé par la diffusion Compton, expérience où l'on envoie un faisceau de photons possédant une certaine longueur d'onde/.., sur une matière contenant des électrons contraints dans leur mouvement par l'existence de liaisons chimiques entre les atomes. En analysant les photons diffusés ayant changé de longueur d'onde, il est possible d'avoir une idée de la taille caractéristique du volume dans lequel évoluent les électrons et, par
73
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
transformée de Fourier du profil de diffusion, de la position de ces électrons par rapport aux noyaux. Ainsi, sur la glace hexagonale, on a pu observer trois signaux à 89 pm, 172 pm et 285 pm, celui à 89 pm correspondant à des électrons qui reculent très peu sous l'impact avec le photon X (liaison covalente 0-H), les deux autres caractéristiques d'électrons subissant au contraire un très fort recul, et qui sont donc responsables de la très forte constante diélectrique de la glace (lsaacs & al. 1999, Martin & al. 1999). Il est bien connu que l'eau est très sensible aux champs électriques en raison de son fort moment dipolaire p0 = 1,85498 D mesuré à l'état gazeux. Toutefois, selon les équations de Maxwell dans le cadre de la théorie de Langevin, ce moment dipolaire prévoit compte tenu de la masse molaire et de la densité du liquide une constante diélectrique relative Er voisine de 13, très éloignée de la valeur expérimentale Er::::: 80 (figure 29). On voit donc que l'eau liquide possède les mêmes électrons très polarisables que la glace, mais sans le réseau périodique. Toujours et encore des mystères.
Paul Langevin (1872-1946)
e,(300K) = 13
Exp: e,(300K) = Bo
Figure 29 : L'eau possède une constante diélectrique qui ne peut pas être expliquée par la théorie de Langevin quis 'applique sans problème aux autres liquides.
Selon la physique classique, l'eau devrait être une molécule diamagnétique ne présentant qu'une sensibilité faible, voire nulle, aux champs magnétiques (figure 30). L'eau devrait donc se comporter comme du vide vis-à-vis des champs magnétiques et, là encore, on constate que ce n'est pas le cas. L'eau et de manière générale tous les êtres vivants qui sont constitués d'eau sont très sensibles aux champs magnétiques. Il s'agit encore là d'un grand mystère qui se doit d'être élucidé. 74
CHAPITRE
1-
L'EAU, LA SUBSTANCE
Diamagnétisme del' eau ... Densité flux magnétique B / Tesla
Champ magnétique H / A·m·• Perméabilité du vide:[µ.,] = M·L·Q-• = 4't·l0-7 H·m·•
(i)
1 A·m-1
=1,26 µT
L'eau devrait se comporter comme le vide sur un plan magnétique L'expérience montre que tel n 'est pas le cas ... Figure 30 : L'eau devrait être une substance parfaitement diamagnétique.
L'eau et Lo lumière Si l'on applique un champ électrique alternatif de fréquence variable sur une substance, la polarisation P va se mettre aussi à osciller au rythme du champ à condition que ce champ ne varie pas trop lentement. En effet, s'il varie trop vite, les dipôles électriques n'auront pas le temps matériel de se retourner, ce qui entraînera la disparition de la polarisation comme dans le cas du gaz. On s'attend donc à avoir un effondrement de la constante diélectrique vers une valeur limite e"' au-delà d'une certaine fréquence critique qui traduit maintenant l'effet de polarisation dû aux seuls dipôles induits. La lumière étant une onde électromagnétique présentant un champ électrique oscillant très rapidement, on comprend donc l'existence d'une relation directe entre la constante E"' et l'indice de réfraction n (figure 29). Pour la glace, on a e"' = 3, 16 pour des champs de type microonde, ce qui conduit à un indice n = 1,78. Ceci signifie que par rapport au vide, il existe encore une polarisation due ici à la déformation des nuages électroniques des deux liaisons covalentes 0-H. Pour s'affranchir de cette polarisation, il faut monter encore plus haut en fréquence vers la lumière infrarouge ou visible. Compte tenu de la valeur n° = 1,3091 de l'indice de réfraction de la glace pour la lumière visible, on a donc e"' = 1,71, ce qui montre bien que la polarisation induite sur les liaisons chimiques covalentes n'arrive plus à suivre le champ. Il ne reste donc plus que la polarisation en provenance des deux doublets non liants de l'atome d'oxygène pour expliquer cette différence par rapport à la valeur du vide.
75
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
0.01
0.1
-
1
10
-
-
100
-
1
10
100
~
~
~
Longueur d'onde
1
-
1
10
1
~
~
m
10'
~ ""
f "
10'
10'
~
10'
;,
100
ë
10
~
0,1
~1
0,~~fm
tnm
tµm
tan
tOOm
10001cm
Longueur d'onde
Figure 31 : Transparence de l'eau en fonction de la longueur d'onde de la lumière. Le coefficient d'absorption correspond à la partie imaginaire del 'indice de réfraction complexe.
La figure 31 montre que l'eau absorbe fortement la lumière sur quasiment toutes les longueurs d'onde à l'exception notable d'une toute petite fenêtre centrée sur la lumière visible du soleil. Pour des longueurs d'onde très courtes, c'est la radiolyse qui est responsable de la forte absorption de l'eau. C'est la raison pour laquelle on utilise des piscines d'eau dans les centrales nucléaires pour stocker les combustibles ou les déchets. Dans l'ultraviolet, ce sont les excitations électroniques qui absorbent fortement les ondes électromagnétiques jusqu'au « miracle » de la fenêtre 400-700 nm où l'eau absorbe très peu, sauf sur de très grandes épaisseurs. Puis, dès que l'on passe à l'infrarouge, la lumière excite les vibrations des liaisons 0-H (étirement et pliage). Comme il existe des harmoniques de ces vibrations 0-H dans la partie rouge du spectre, cette longueur d'onde se trouve partiellement absorbée, ce qui confère à l'eau sa très belle couleur bleue si caractéristique. Arrivée dans le domaine des microondes, la lumière excite les rotations des molécules d'eau autour de leur centre de masse, phénomène exploité dans les fours à microondes. Enfin, pour les ondes radio, c'est l'interaction avec le moment dipolaire des molécules qui provoque l'absorption. Dans l'eau pure, cette absorption chute de manière continue au fur et à mesure que la longueur d'onde augmente, mais dans l'eau de mer (et donc dans le sang aussi), cette chute est considérablement ralentie par la présence des ions dissous.
76
CHAPITRE
1-
L'EAU, LA SUBSTANCE
L'eau minérale sera donc beaucoup plus sensible à la pollution par les ondes électromagnétiques qu'une eau contenant peu d'ions dissous, d'où l'intérêt de boire une eau la moins minéralisée possible. Propriétés de transport
Q .....
_,
•
1• I
..
J
11e
J = d'Q • dAdt
Flux J , d'une qualité Q • quantité de Q traversant une surafe unité par unité de temps dans un direction z
=-C!!!l.. ~
DiNedm t
Quallt6Q
G...ii.ntG
"""""'c
M-m
llemtt'.
Coellld et qui ne peut qu'augmenter lors de toute transformation spontanée (Clausius 1854). Ce ménage à trois formé d'énergie, de température et d'entropie régit en fait le devenir de l'univers et fait l'objet de la thermodynamique, science particulièrement ingrate, redoutée de tous les étudiants en raison du manque de clarté total qui la caractérise. Ceci est évidemment lié au fait que l'on ne dispose d'aucun appareil capable de mesurer l'énergie ou l'entropie, comme on mesure la température avec un thermomètre. D'ailleurs, comme tous les étudiants, je n'ai absolument rien compris lorsque mes enseignants ont tenté d'introduire la notion d'entropie. La plupart d'entre eux s'obstinaient à présenter cette notion comme une mesure de l'état de désordre d'un système physique. En gros, lorsque je chauffe, les particules qui constituent les objets s'agitent de plus en plus vite, et lorsque leur énergie cinétique devient suffisante, les belles structures régulières que l'on peut contempler dans la Nature disparaissent à jamais pour laisser place au chaos. Pour bien appuyer ce raisonnement, une grosse majorité d'enseignants cite le cas d'une pièce bien rangée qui, au fur et à mesure que le temps s'écoule, ne pouvant qu'augmenter son état de désordre, devient de plus en plus désordonnée. Pour ma part, je trouvais cela complètement ridicule. Si mon bureau devenait désordonné après avoir été rangé, ce n'était pas à cause d'une tendance innée au désordre, car lorsque je quittais ma maison pour une longue période, il restait exactement dans l'état où je l'avais laissé en partant. .. Si par contre mes enfants étaient passés par là et surtout si je travaillais moi-même à mon bureau, il avait effectivement tendance à devenir plus désordonné. Mais il était clair pour moi que ce désordre était lié à l'énergie musculaire dépensée pour déplacer les objets et non à une quelconque augmentation d'entropie ... Bref, c'est bien l'énergie qui permet de créer l'ordre ou le désordre et en aucun cas l'entropie.
167
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
En fait, lorsqu'on regarde les différentes significations du mot grec tpom't on trouve : tour, conversion, évolution, révolution, changement ou direction. On voit donc qu'il s'agit d'un mot présentant de multiples interprétations et qui suggère en gros que quelque chose ne revient pas identique à lui-même après un tour, une révolution ou un cycle entraînant l'existence d'un sens ou d'une direction d'évolution. Avec un mot aussi lourd de sens, il n'est pas surprenant que le concept d'entropie soit la source d'une grande confusion dans beaucoup d'esprits plus à l'aise avec la notion apparemment plus claire d'énergie. Tout comme l'énergie, l'entropie peut être échangée avec d'autres systèmes, en particulier sous forme de chaleur. L'entropie, contrairement à l'énergie, peut être créée, mais elle ne peut en revanche pas être détruite. Ainsi, dans les systèmes isolés, l'entropie ne peut qu'augmenter ou à la rigueur rester constante en cas d'équilibre thermodynamique. Une réaction démarre donc lorsqu'il existe un processus disponible autorisant l'accroissement de l'entropie totale et s'arrête lorsqu'il n'y a plus aucun moyen de faire croître l'entropie, et ce, quelle que soit la quantité d'énergie disponible. La thermodynamique fut ainsi la première science à mettre en avant une loi basée sur une inégalité et non une égalité comme pour les lois mécaniques de Newton ou celles de Maxwell pour l'électromagnétisme. L'inégalité introduit de fait une ligne de démarcation très nette entre un monde qualifié de réel car observable (AS 2: 0) et un autre monde inobservable (AS< 0). C'est une des raisons pour lesquelles l'entropie nous introduit de manière directe au monde quantique. L'inégalité traduit aussi le caractère épistémologigue de toute science, par opposition au caractère ontologigue de toute philosophie ou religion. Il est cependant crucial de noter que inobservable ne signifie en rien inexistant. D'ailleurs, le x1x• siècle est aussi celui où se livre une bataille acharnée entre atomistes, partisans d'une réalité inobservable et équivalentistes qui ne croient qu'en ce qui peut se mesurer à la balance.
Un monde probabiliste Mais si l'entropie n'était pas une mesure du désordre ou du chaos, que pouvait-elle bien être? Je me souviens ici d'une discussion avec un de mes cousins parisiens plus âgé que moi ayant fait ses études dans ce que l'on appelle les« grandes écoles». Par un clin d'œil de la vie, il se trouvait que les parents de mon cousin avaient hébergé mon père lorsqu'il se trouvait à Paris pour ses études. Grâce à eux, j'avais pu trouver pour faire mes études à Paris un logement dans le même immeuble et j'étais invité à dîner le soir une fois par semaine. Le sujet de l'entropie arriva ainsi sur le tapis un soir après le repas au moment du cognac, que mon cousin dégustait accompagné d'un gros cigare. Il m'expliqua les yeux mi-clos que l'entropie était un concept très mal compris et que seule la mécanique statistique permettait de se faire une idée
168
CHAPITRE
IV -
RELATIVITÉ ET QUANTA
précise de cette notion. J'avais donc hâte d'en savoir plus sur cette fameuse physique statistique et attendais avec impatience le cours qui était prévu dans mon école d'ingénieurs. Ma déception fut grande, car l'enseignant enchaîna pendant des heures des séries de formules tout aussi abstruses les unes que les autres et incompréhensibles pour le commun des mortels. L'enseignant m'ayant définitivement écœuré du sujet, il me fallut de longues années de convalescence pour me remettre du traumatisme subi. Ce qui me motiva à remettre le sujet sur le tapis, c'est ma volonté de comprendre pourquoi la vie avait choisi l'eau comme substance de base. J'avais beaucoup lu sur le sujet, et revenait comme un refrain lancinant cette idée que la vie violerait en permanence le second principe de la thermodynamique, qui stipulait que dans tout système isolé l'entropie ne pouvait qu'augmenter de manière spontanée pour aller vers toujours plus de désordre. Comme on l'a vu plus haut, cette assimilation de l'entropie au désordre me mettait très mal à l'aise et il me semblait que, si l'entropie devait jouer un rôle dans les phénomènes vitaux, c'était pour assister ces derniers et non pour s'y s'opposer. Restait donc à franchir la redoutable barrière de la mécanique statistique, qui selon mon cousin était le point de passage obligé pour bien comprendre la notion d'entropie. Je fus aidé en cela par les remarquables articles du physicien américain Edwin Thompson Jaynes (1922-1998) qui étaient d'une clarté lumineuse. Entropie Statistique (Boltzmann) W configurations de probabilité p1 (i
=l ,... ,0)
Wabrscheinlicbkeit =probabilité Constante de Boltzmann ks"" l,38·10-23 J·K-'
n
~
S = -ks ~ P;·ln P; i=I
équiprobabilité (p1 = 11'2) • S = ks·ln '2 Troisième principe de la thermodynamique (Nernst) Q = 1àT=0 K • S = 0 (1906)
Figure 79 : Le troisième principe de la thermodynamique se base sur la définition statistique de/ 'entropie quis 'il avait été pris au sérieux aurait abouti à la découverte de la mécanique quantique dans un contexte de matière et non dans un contexte de rayonnement.
169
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
Dans ses articles, E. T. Jaynes expliquait que l'énergie et l'entropie étaient des concepts s'appliquant à ce que l'on appelle un macro-état, par opposition aux variables dynamiques que sont la position ou la quantité de mouvement définissant pour leur part des micro-états. Il existe évidemment beaucoup de micro-états qui correspondent à un macro-état donné. La réunion de tous ces micro-états s'appelle un « ensemble ». Il est important de réaliser qu'un ensemble est une collection de systèmes macroscopiques sur laquelle on effectue les moyennes statistiques et non une collection de particules formant un système macroscopique. Le nombre de micro-états compatibles avec un macroétat macroscopique donné, noté n, dépend a priori de trois variables de nature extensive qui sont l'énergie totale disponible U, le volume total accessible V et le nombre total de particules constituantes N, soit Q(U,V,N). Cette manière de voir les choses conduit de manière très naturelle à l'interprétation statistique de l'entropie S(U,V,N) comme proportionnelle au logarithme népérien de Q(U,V,N) (figure 79) (Boltzmann 1877). Le physicien allemand Walther Nernst ( 1864-1941) se basera sur ce résultat pour énoncer le troisième principe de la thermodynamique qui stipule que l'entropie d'un corps pur tend vers zéro, lorsqu'on s'approche du zéro absolu (Nernst 1906a, 1906b).
positions q
Joseph Liouville (1809-1882)
Conservation du volume dans l'espace des phases Second principe dSl!:O
Edwin Thompson Jaynes (1922-1998)
Reproductibilité des phénomènes
Inférence Bayésienne Micr=-pI -0
21f'·k4
a=--• l5h'·c 2 Froid
Max Karl Ernst Ludwig Planck (1858-1947)
a·f ' Wilhelm Wien (1864-1928)
a = 8n:·h/c' = 6,MO... kg·m"·s' hx: Il = h/k,, = 4,9·10"' K·s .l_, - 0 = - - = 2897,8 µm ·K
Pa=
exp
(
!)
f3 e
-1
4,965·k,
Figure 86 : Le spectre d'émission du corps noir est un problème sur lequel un bon nombre de physiciens se sont cassé les dents.
Le 7 octobre 1900, Planck prend le thé à Berlin en compagnie de M. et Mme Rubens. Rubens montre à Planck ses derniers résultats expérimentaux concernant le spectre d'émission du corps noir. Planck, qui avait déjà réfléchi au problème du corps noir depuis quelque temps, s'assoit et trouve par interpolation une formule empirique qui reproduit la fonction de Rayleigh à basse fréquence et qui colle à la forme exponentielle de Wien à haute fréquence. La formule de Planck présente aussi l'avantage de coller parfaitement dans la zone de fréquence intermédiaire. Planck était un excellent thermodynamicien qui était extrêmement sceptique sur la toute jeune mécanique statistique. Aussi, malgré le succès évident de sa formule empirique, il ne souhaitait pas en rester là, et voulut obtenir sa formule à l'aide des premiers principes. Heureusement pour lui, il ignorait le résultat désastreux de Rayleigh qui était parfaitement correct dans le cadre de la physique classique de l'époque. Pour son raisonnement, Planck partit du fait que le résultat à trouver ne dépendait pas de la composition chimique des parois du récipient. Il imagina donc des parois constituées d'oscillateurs
183
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
simples possédant des charges aux deux extrémités des ressorts et couvrant tout le spectre de fréquences. Par des arguments de nature électromagnétique impeccables, il arriva à relier la fonction spectrale p0 (t) à l'énergie moyenne thermodynamique U(f,0). Afin d'arriver à ses fins et en désespoir de cause, Planck introduisit une hypothèse complètement arbitraire qui allait lui éviter (sans le savoir) de tomber sur la formule de Rayleigh. Il supposa donc que l'énergie des oscillateurs pour une fréquence f donnée ne pouvait prendre que des valeurs étant des multiples entiers d'une quantité h·f. Autrement dit, les parois ne pouvaient émettre ou absorber que via des paquets ou quanta d'énergie. La constante h liant énergie et fréquence fit ainsi sa première apparition en physique comme un nouveau paramètre de la nature complètement arbitraire et dont le seul but était de pouvoir dériver une loi pour le rayonnement spectral du corps noir dans un cadre purement classique. Muni de sa nouvelle constante purement empirique h, Planck arriva à recalculer au moyen d'arguments solidement établis la valeur du nombre d' Avogadro ainsi que la charge électrique de l'électron (Planck 1900). Si Planck avait obtenu un très bon accord empirique pour la loi d'émission du corps noir, il n'en restait pas moins que le résultat théorique aberrant de la mécanique statistique restait complètement pertinent.
Implosion atomique En 1911, le physicien néozélandais Ernest Rutherford (1781-1937) supervise une crucis experimentum destinée à tester le modèle du plum pudding de son mentor J. J. Thomson, découvreur de l'électron (Rutherford 1911 ). L'expérience est réalisée sous vide. De la matière radioactive émettant des rayons a (noyaux d'hélium, He2+) est placée dans une boîte et le faisceau de particules a est orienté en direction d'une fine feuille d'or d'une épaisseur de 6 µm. Derrière cette couche d'or, un écran enrichi en sulfure de zinc est placé qui va permettre de visualiser, par un scintillement lumineux, la collision avec les particules a (figure 87). Plusieurs minutes après la disposition du matériel, différents points lumineux apparaissent sur l'écran et ces points ne sont pas dans l'orientation du faisceau, mais étalés sur de grands angles ... La majorité des particules a traversent la feuille d'or sans être déviées, car seule une partie de ces particules, de l'ordre de 0,01 %, a été déviée. Rutherford fut ainsi capable d'estimer l'ordre de grandeur de la taille d'un noyau d'atome d'or responsable des déviations aux grands angles et trouva une valeur extraordinairement petite, voisine de 3·10- 14 m. Par comparaison, la taille d'un atome neutre que l'on peut déterminer via 184
CHAPITRE
IV -
RELATIVITÉ ET QUANTA
la théorie cinétique des gaz ou via des expériences de diffraction des rayons X est de l'ordre de 10- 10 m. Il en découle donc que l'atome est une structure hautement lacunaire constituée à 99,999999999 % de vide, raison pour laquelle la plupart des particules ne sont pas déviées. Suite à cette expérience, Ernest Rutherford proposa un modèle planétaire de l'atome : les électrons, portant les charges négatives, étaient satellisés autour d'un noyau positif très petit.
Hans Geiger (1882-1945) &:ran fluoreaœnt ZnS
Figure 87: Expérience de 1911 démontrant que l'atome est essentiellement vide de matière.
À peine né, le modèle planétaire de l'atome fut cependant condamné à mort sans appel par les lois de la physique classique. En effet, selon les équations de Maxwell, toute charge électrique subissant une accélération rayonne de l'énergie avec un taux proportionnel au carré du produit de la charge par l'accélération. Or, toute masse contrainte à tourner sur un cercle de rayon R avec une vitesse v subit une accélération radiale et centripète égale au carré de la vitesse que divise le rayon de la trajectoire. Par conséquent, si, comme le prétend Rutherford, les électrons gravitent autour du noyau comme les planètes gravitent autour d'une étoile, ce dernier doit rayonner son énergie mécanique de manière continue sous la forme d'ondes électromagnétiques. Si l'on calcule la durée de vie approximative d'un atome selon la physique classique, on trouve qu'en partant d'une taille R voisine de 1 A= 10- 10 m, valeur déduite de la théorie cinétique des gaz, la durée de vie d'un tel édifice sera de l'ordre de 100 picosecondes ... Cette implosion de l'atome associée à une catastrophe ultraviolette et des capacités calorifiques capricieuses fut la goutte d'eau qui fit déborder le vase. En effet, d'un côté toute la chimie clamait haut et fort que toute matière était faite d'un assemblage d'atomes indéfiniment stables ayant une taille voisine de 10- 10 m et d'un autre côté la physique démontrait piteusement que ces mêmes atomes avaient une durée de vie ridiculement faible et qu'au lieu d'un monde fait d'atomes, on devrait avoir un monde rempli de rayonnements venant de toutes les directions. On ne pouvait évidemment pas continuer 185
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
comme cela, et une révision sérieuse des lois de la physique s'imposait. Mais comment faire pour provoquer une révolution sans toucher aux avantages acquis ? Telle était l'épineuse question de ce début de xx• siècle. n L man Il
Balmer (Ba)
il
4 3
111
2
E(eV)
Bradœlt (Br) Pfund (Pf) Humphreys (Hu)
Pascllen(Pa)
CIO
1 1 1
1 1
0 N -0,85
1
M -1,51
1
L -3,39
Orbites circulaires 2:rc·L = n·h Sauts entre orbites 1 Niels Bohr
(1885-1962)
h·c li E=E(m )- E(n)= h-J= T
_!__ liE _ m' -e'
_!._ _
À. - h-c - 8e~ ·h 3 -c
_!_)- R{_!._ _.. .!_)
n2
m2
Pa-0
8a- ô.v/m·s "" (
301 111 /
)i
Da \!ix l
1)
11
Figure 92 : Le principe d'indétermination fait que la matière n'est jamais au repos. Par exemple, dans cet anneau de 48 atomes de fer placés sur une surface en cuivre, on observe une probabilité de présence non nulle au centre del 'anneau, alors qu'on n'a rien mis en ce point.
Principe d'indiuisibilité Le fait que le quantum d'action soit non nul implique qu'il est impossible de couper un objet quantique en deux. Si d'aventure on y arrive, les deux parties séparées se réuniront aussitôt afin de reformer un objet intact. C'est ce principe qui est à l'origine de l'effet tunnel. Comme le montre la figure 93, la présence de l'obstacle n'affecte ici en rien l'énergie ou la masse, mais simplement la probabilité de passage d'un côté à l'autre. Ce mécanisme est abondamment exploité de nos jours dans le microscope à effet tunnel qui réalise le rêve d' Avogadro consistant à voir et manipuler les atomes un à un.
194
CHAPITRE
IV -
RELATIVITÉ ET QUANTA
Principe d'indivisibilité (absence de prison) Souffrance lntenliction de Nijour
...WJ7.
~ Pensée quantique effet tunnel
Réduction de la probabilité mais pas de l'énergielll
Un objet quantique est insécable... Figure 93 : Ce principe est aussi souvent appelé « effet tunnel», où un système arrive à traverser une barrière de potentiel qui aurait été infranchissable classiquement.
L'existence de l'effet tunnel fait qu'il n'existe pas de prisons hermétiques en mécanique quantique, ce qui est somme toute assez rassurant. Si l'on essaye d'emprisonner un corpuscule quantique, ce dernier s'agite comme un beau diable dans tous les sens avec une énergie d'autant plus grande que le confinement est plus sévère. C'est ce mécanisme qui fait que dans un atome, un électron peut effectivement venir s'écraser sur le noyau comme le prévoit la physique classique. Il peut le faire car le noyau est beaucoup trop petit pour espérer retenir une particule de masse aussi faible qui est un véritable zébulon. Donc, si d'aventure il se retrouve collé sur le noyau avec une incertitude Ax ;::: 10- 14 m, l'incertitude sur son énergie cinétique AU 0 sera voisine de 380 MeV (figure 94). Pour comparaison, on aura pour la même incertitude Ax, AU ;::: 1,44 MeV pour l'incertitude sur son énergie potentielle liée à l'attraction coulombienne. L'énergie cinétique étant largement dominante sur l'énergie potentielle, l'électron ne pourra jamais être emprisonné dans le noyau. Si maintenant l'électron se place à une distance plus respectable de 0,1 nm par rapport au noyau, l'incertitude sur son énergie cinétique chute à 3,8 eV tandis que son énergie potentielle vaut 14,4 eV. C'est donc maintenant l'énergie potentielle qui l'emporte sur l'énergie cinétique et tous les atomes auront donc à peu près la même taille voisine de 0, 1 nm.
195
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
Atome: .âx ... 10·10 m
Heisenberg: Ap·.âx .., h AU = Ap" = 11• c 2m 2m-(Ax)" ~ {AU /eV) = 0 ,038 c (Ax/mn)'
Noyau: .âJC..,
10·14
m
11U ,,,_a h·c P 11x 1,44 ~ (11UP /eV) "' (/1x/nm)
Figure 94 : Mécanisme de stabilisation de ! 'atome par effet tunnel.
La désintégration radioactive est un autre exemple d'effet tunnel que l'on constate à notre échelle. Un proton ou un neutron étant l 000 fois plus massif qu'un électron, il en découle une incertitude sur l'énergie cinétique qui n'est que de 0,4 MeV. Par comparaison, l'énergie de liaison de deux nucléons dans le modèle de la goutte liquide vaut (U/MeV) = 15,55 - 17,8·A 113 , où A est la masse du noyau. L'énergie potentielle de liaison est donc 10 fois plus grande que l'incertitude sur l'énergie cinétique, d'où la stabilité des noyaux. Toutefois, certains nucléons arrivent quand même à sortir de ce vaste puits de potentiel grâce à l'effet tunnel.
Principe d'indiscernobilité Dans notre monde macroscopique, il est impossible de rencontrer deux objets identiques en tout point : même masse, même composition chimique, même forme, même couleur, même charge électrique, etc. Et, même si tel était le cas, cela ne poserait aucun problème conceptuel pour le formalisme classique. En effet, en physique classique, il est toujours possible de suivre les objets de manière individuelle en utilisant des repères numériques. On dira par exemple que l'objet numéro 1 se trouve à telle position et que l'objet numéro 2 se trouve à telle autre position, et ainsi de suite. Cela n'est plus possible en physique quantique, car absolument rien ne permet de distinguer un électron d'un autre électron en raison du fait que les positions ne sont connues que de manière probabiliste. Il existe donc un traitement typiquement quantique de ce genre de situations qui ne possède aucun équivalent classique. Les implications de cet état de fait sont parfois tout à fait non intuitives et peuvent avoir des conséquences très profondes. Ce qui
196
CHAPITRE
IV -
RELATIVITÉ ET QUANTA
est en fait tout à fait remarquable, c'est que toutes les particules connues sont des copies conformes : tous les électrons sont identiques, tous les protons sont identiques, etc. Comme on le verra au chapitre suivant, seule la théorie quantique des champs est capable de fournir une explication naturelle pour cette identité particulaire extrêmement frappante. La superfluidité et la supraconductivité sont toutes deux la conséquence d'une symétrie quantique impliquant un processus d'échange au cours duquel deux particules absolument identiques en tout point échangent leurs positions spatiales respectives. Comme les particules sont rigoureusement identiques, le seul moyen de détecter cet échange est de placer des étiquettes de type « 1 » sur la particule de gauche et« 2 » sur la particule de droite (figure 95). Bien évidemment, ces étiquettes sont parfaitement arbitraires et n'importe quel autre type d'étiquette aurait pu être employé. Une fois l'échange effectué, l'étiquette « 1 » se retrouve bien sûr à droite, tandis que l'étiquette« 2 »est passée à gauche. Le point clé est que ces étiquettes sont fictives et ne servent qu'à visualiser mentalement le mouvement réel qui est appliqué aux deux particules. Après échange, il faut donc enlever les deux étiquettes, et force est de constater que l'on obtient alors une disposition matérielle absolument identique à la situation où les deux particules n'échangent pas leurs positions (identité). Par conséquent, toute mesure faite sur le système avant et après échange doit conduire au même résultat expérimental. Dans le cadre du formalisme quantique, cette invariance des observations expérimentales par permutation d'étiquettes sur des objets identiques signifie que la probabilité de trouver le système dans un état donné doit rester invariante lors du processus de permutation. Le fait d'autoriser physiquement la permutation se traduit dans ces conditions par le fait que l'amplitude de probabilité décrivant le système se trouve multipliée par un facteur de phase arbitraire. En effet, rappelons que l'espace de Hilbert possède une structure d'espace vectoriel impliquant l'ensemble des nombres complexes, c'est-à-dire que les amplitudes de probabilité de se trouver dans un état donné sont des nombres complexes. Il est très facile de constater que cette multiplication de l'amplitude de probabilité par un nombre complexe unitaire arbitraire ne modifie en rien la probabilité correspondante. Conformément au théorème de Noether, à cette indétermination de l'angle de phase
.
0,0 0 %
0%
ô
OA
0,3
Flèche résultante
.~
ABCDEFGHIJKLM
BCDEFGHIJKLM
_, 1-.......-/'//_ . . . . . , ,_ Figure 97 : La mécanique quantique par intégrale des chemins est une idée du physicien américain Richard Feynman qui permet de démystifier la dualité onde/ corpuscule. La seule chose à faire est d'additionner des nombres complexes, ou, ce qui revient au même, faire une somme vectorielle de flèche. Chaque événement se représente par une flèche à laquelle est associé un angle de phase par rapport à une direction commune, le module de chaque flèche correspondant à la probabilité de /'événement. Comme on le voit en bas, lorsque les chemins sont compliqués ou trop longs, les angles de phase varient rapidement, ce qui les rend inobservables par interférence avec d'autres chemins similaires. Par contre, il existe des chemins où l'angle de phase varie très peu, ce qui les renforce lors de la sommation, les rendant finalement observables.
Ce qui est remarquable et vraiment caractéristique d'un mode de pensée quantique est que, pour résoudre le problème, il faut considérer tous les chemins possibles, y compris ceux qui ne seront jamais réellement observés. Ceci tient précisément au fait qu'il n'existe pas de grandeur d'état dont la donnée permet de fixer les états de toutes les autres variables comme en mécanique classique. Il faut donc considérer toutes les possibilités, car on ne sait jamais à l'avance ce que la nature nous réserve comme surprises!!! En fait, tout va dépendre de la quantité d'action dépensée. Pour un corps macroscopique, l'action ramenée au centre de masse est gigantesque par rapport à la constante de Planck qui sert à définir l'angle de phase. Il suffit alors de rechercher les trajectoires où l'angle de phase 204
CHAPITRE
IV -
RELATIVJTt ET QUANTA
reste stationnaire, c'est-à-dire ne varie quasiment pas quand on modifie très légèrement la trajectoire. Il est alors facile de montrer que de tels chemins correspondent aux solutions des équations de Lagrange de la mécanique classique, c'est-à-dire d'une formulation newtonienne en termes de degrés de liberté et non en termes de forces. Bref, si la loi de Newton existe, c'est bien que le monde est fondamentalement quantique, puisqu'il faut diviser par la constante de Planck pour calculer l'angle de phase. En effet, on ne pourrait pas faire une telle division si la constante était nulle. Cette formulation permet aussi d'en finir avec l'apparente téléologie du principe de moindre action de Louis-Claude de Maupertuis, qui permettait en mécanique classique de trouver la bonne trajectoire en minimisant une intégrale d'action. Le fait qu'il faille connaître le point d'arrivée pour calculer cette trajectoire donnait l'impression que la nature avait un but et flairait le bon chemin. La mécanique quantique nous apprend que la nature ne flaire rien du tout, elle explore bêtement tous les chemins possibles et imaginables. Si, au final, on n'en voit qu'un seul, c'est que les autres font varier l'angle de phase de manière très importante, d'où une annulation par interférences destructives lors de la sommation. Maintenant, que se passe-t-il avec le même formalisme si l'action dépensée n'est pas très grande par rapport à la constante de Planck ? Dans ce cas, il n'y a plus aucune raison pour rechercher des trajectoires avec angle de phase stationnaire et l'évolution quantique montre, comme le confirme l'expérience, que le système évolue selon un faisceau de trajectoires autour de la trajectoire classique, en plein accord avec le principe d'indétermination d'Heisenberg. Dans ce cas de figure, que se passe-t-il si d'aventure on effectuait un développement de Taylor au second ordre de l'intégrale des chemins? Eh bien, on tombe alors tout bêtement sur l'équation de Schrôdinger ! ! ! (Feynman 1980, p. 255-257). C'est donc bien la phase d'un nombre complexe qui me permet de passer continûment d'un monde newtonien à un monde quantique. En fait, le monde newtonien n'existe que dans la mesure où l'on ne considère que des amas de particules impliquant la constante d' Avogadro. Dans ce cas, au lieu de sommer des actions, il devient plus commode de résoudre des équations différentielles apparemment déterministes. Mais, même dans ce cas, seule la théorie quantique permet de traiter tous les cas de figure depuis le corpuscule isolé jusqu'au corps macroscopique. Considérons maintenant le cas de l'électromagnétisme. Selon la théorie de la relativité, tout photon est décrit par la donnée de quatre nombres qui définissent son cône de lumière, c'est-à-dire l'ensemble des événements spatiotemporels sur lesquels il peut agir physiquement en un temps de propagation fini. Trois nombres sont en effet nécessaires pour définir une direction de propagation, c'est-à-dire un vecteur d'onde dans un espace à trois dimensions. L'inverse de la norme de ce vecteur d'onde multiplié par le facteur 21t fixe la 205
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
longueur d'onde du photon. Le quatrième nombre fixe l'énergie transportée par le photon ou sa fréquence si l'on divise cette énergie par la constante de Planck. Pour la théorie quantique, tout photon se caractérise par un indice d'hélicité donnant la projection du moment angulaire (+h pour la polarisation droite et -h pour la polarisation gauche) le long de la direction de propagation. Dans cette description du champ électromagnétique dans le vide au moyen de photons, deux états de base indépendants suffisent à décrire complètement l'état du photon. Or, la description classique de ce même champ fait appel à six composantes indépendantes. Il existe donc quatre combinaisons du champ classique qui ne décrivent pas des états physiques permis. Ceci impose l'existence d'un mécanisme permettant d'annihiler de telles superpositions, prenant la forme exacte des quatre équations découvertes empiriquement par Maxwell et qui traduisent donc simplement notre volonté d'ignorer la réalité quantique de la nature. Ce qui démontre une nouvelle fois que seule la physique quantique est pertinente, la physique classique n'offrant que des approximations commodes des lois quantiques lorsque les actions mises en jeu sont démesurément grandes devant la constante de Planck. Il n'y a donc aucune différence de fond entre la mécanique de Newton et celle de Schrodinger, car c'est uniquement la quantité d'action dépensée qui entraînera l'appel à l'une ou l'autre formulation. Ce qui est très satisfaisant, c'est que la dualité onde/corpuscule, qui historiquement a permis le développement de la mécanique ondulatoire, passe totalement au second plan, devenant un simple jeu numérique consistant à diviser une énergie par le quantum d'action pour obtenir une fréquence, ou bien encore à diviser ce même quantum d'action par une quantité de mouvement pour obtenir une longueur d'onde. Le fait que l'intégrale des chemins soit une simple addition de nombres complexes munis d'une phase rend exactement compte des phénomènes d'interférences observés avec des ondes. Il n'y a là qu'une astuce mathématique et tout peut se ramener à des corpuscules comme en mécanique newtonienne, la seule différence étant que l'on se limite uniquement aux nombres réels chez Newton, alors que chez Schrodinger, on travaille avec des nombres complexes. Tout ceci devient absolument trivial dès que l'on utilise le théorème de Paulette Février (Destouches-Février 1946).
Dualité onde/corpuscule La mécanique quantique de première quantification est empoisonnée par un concept qui rend cette science incompréhensible pour le commun des mortels. Je vais ici démonter le mécanisme qui, en 1930, a vu triompher cette notion de dualité onde/corpuscule qui n'est qu'un épiphénomène de peu d'intérêt. De fait, la dualité onde/corpuscule supposée des particules de la première quantification les fait apparaître comme des entités métaphysiques. 206
CHAPITRE
IV -
RELATIVITÉ ET QUANTA
Ce qui a embrouillé toute l'histoire, c'est que la quantification de l'énergie a été introduite par Max Planck pour justifier la loi du corps noir, un problème de seconde quantification, puisqu'il fait intervenir le rayonnement. Cela lui vaudra le prix Nobel de physique de 1918. Mais comme quantifier un champ qui possède un nombre infini de degrés de liberté est une chose très difficile sur le plan mathématique, on s'est bien vite rabattu sur un problème beaucoup plus simple: la quantification du mouvement d'un électron, où le nombre de degrés de liberté est juste égal à 2 : une position et une quantité de mouvement. On est donc parti d'un problème de seconde quantification et on l'a mutilé pour aboutir à quelque chose de tractable sur le plan mathématique. Les deux fautifs s'appellent Albert Einstein et Louis de Broglie. Car c'est Einstein qui a mis le feu aux poudres en suggérant que les échanges d'énergie et de quantité de mouvement entre le champ électromagnétique et un système atomique ne peuvent se faire qu'au moyen d'un quantum, qui sera baptisé « photon » quelques années plus tard par Gilbert Newton Lewis. C'est ce quantum qui permettra à Einstein d'expliquer l'inexplicable, à savoir l'effet photoélectrique, et qui lui vaudra son prix Nobel de physique en 1921. Comme on l'a vu, le dernier clou sera enfoncé par Arthur Compton en 1923 qui confirmera sans appel possible le caractère corpusculaire de cet échange d'énergie et de quantité de mouvement entre rayonnement et matière, ce qui lui vaudra le prix Nobel de physique en 1927. C'est ce qui va amener Louis de Broglie à douter de la nature corpusculaire de l'électron avec tout le brillant génie qu'on lui connaît et qui lui vaudra le prix Nobel de physique en 1929. C'est à ce niveau qu'il convient de se rappeler la phrase de Robert Brasillach, «l'histoire est écrite par les vainqueurs». Or, vaincre en science, c'est obtenir un prix Nobel, récompense la plus prestigieuse pour un chercheur. L'histoire est donc écrite par les prix Nobel, prix décernés depuis 1904 par des comités norvégiens ou suédois très restreints, pour gérer la fortune laissée par un industriel inventeur de la dynamite. Pour le problème qui nous préoccupe, il est clair que si la dualité onde/corpuscule s'est imposée, c'est en raison d'une avalanche de prix Nobel sur des chercheurs tous brillants et parfois même carrément géniaux, qui ont réussi le tour de force de pouvoir travailler tantôt avec des ondes et tantôt avec des corpuscules. Parfois même, certains arrivent à se persuader qu'ils ont affaire à la fois à des ondes et des corpuscules, tandis que d'autres disent que ce ne sont ni des ondes, ni des corpuscules. Je me souviens très bien de mon désarroi total lorsque j'étais étudiant, face à ce problème rencontré lors de mon premier cours de mécanique quantique. L'enseignant semblait très à l'aise avec ce problème épineux, et se mit immédiatement à poser une équation d'onde différentielle du second ordre aux dérivées partielles, sans justifier son origine physique, et l'on passa le reste du cours à résoudre cette équation, en long, en large et en travers, dans des tas de 207
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
situations où seule change la forme du potentiel. Puis, lors d'un cours sur la liaison chimique, un autre enseignant, tout aussi brillant que le premier, ne posa aucune équation différentielle, mais se mit au contraire à écrire des matrices carrées et chercha à les diagonaliser pour obtenir des niveaux d'énergie. Je cherchais vainement à voir le rapport avec les ondes de l'autre cours, car les deux enseignants étaient d'accord pour dire que cela importait peu. Ce qui comptait, c'était que les résultats obtenus étaient conformes à l'expérience, et si les méthodes employées présentaient des côtés incompréhensibles, c'était en raison du caractère incompréhensible de la nature atomique. J'étais évidemment très frustré, car s'il était vrai que mon corps était fait d'atomes et de molécules, alors il s'ensuivait que mon corps devait être lui aussi incompréhensible. Comme cela semblait ne pas être le cas, il y avait donc anguille sous roche et je me faisais fort de la dénicher un jour. Il me fallait remonter à la source du problème, à savoir Planck et Einstein. Einstein, dans son réalisme rigide, était persuadé que si des photons apparaissaient lors de toute interaction rayonnement-matière, c'était que le champ électromagnétique devait être physiquement fait de corpuscules. D'où l'angoisse, car si cela est vrai, comment expliquer les diagrammes d'interférence impossible à obtenir avec des corpuscules ? De son côté, Planck était tout aussi troublé qu'Einstein, mais voyait bien qu'il y avait deux problèmes. Celui du comportement de la lumière lorsqu'elle rencontre de la matière et qui se manifeste sans doute possible de manière uniquement corpusculaire. L'autre problème était celui de la nature de la lumière lorsqu'il n'y avait pas de matière pour qu'elle se manifeste. Einstein supposait implicitement que si les photons existaient lors d'une rencontre entre lumière et matière, c'est qu'ils devaient nécessairement exister aussi avant la rencontre, d'où la dualité. Planck n'était pas d'accord avec cette interprétation et pensait plutôt que le champ électromagnétique n'était pas une collection de photons, mais une entité remplissant tout l'espace à tout instant et qui devait être redéfinie pour rendre compte de l'apparition de corpuscules sous certaines conditions. Autrement dit, les photons n'existent pas en tant que tels, ils ne sont que la manière dont un champ se manifeste lorsqu'il rencontre de la matière. Dès que l'excitation cesse, les photons disparaissent et le champ retrouve un nouvel état d'équilibre. Le problème est que Planck ne voyait pas du tout comment faire pour concrétiser ses idées sur un plan mathématique et qu'il jeta l'éponge suite à l'avalanche de Prix Nobel consacrant la dualité onde/ corpuscule comme un point acquis de la réalité atomique.
En fait, comme le montre la formulation par intégrale des chemins, on peut très bien se passer de cette hypothèse, bonne à vous faire perdre la tête,
208
CHAPITRE
IV -
RELATIVITt ET QUANTA
tant il est absurde de penser qu'une particule puisse être en même temps parfaitement localisée en une position donnée et occuper aussi tout l'espace disponible. Bien sûr, il y a toujours la possibilité de former des paquets d'onde, satisfaisant au principe d'indétermination d'Heisenberg, mais toute cette physique mathématique est déjà comprise dans le développement au second ordre de l'intégrale des chemins, qui montre donc que les ondes n'ont rien de fondamental puisqu'il s'agit d'une approximation. Conceptuellement parlant, les ondes n'amènent que de la confusion dans les esprits, même si techniquement parlant elles s'avèrent très utiles pour faire les calculs.
111!1! h
~I 1 1 1 t t 11 -.r--t -t-·-f ~ --m---~H-.
lU
1-
11
2-
5-
1
.
. 40 ()()() électrons
. Ceo: m = 1 ,2·1~ kg => A= 2,8 pm
-· -
.....
140 000 électrons
*• --
.....
.~..~ t.~ 1.-
,...
6 ()()() électrons
Figure 98: Haut: expérience de 1961 de Claus Jonsson démontrant qu'un faisceau d'électrons se comporte bien comme un faisceau lumineux /orsqu 'on le fait passer dans un système de fentes. Gauche : expérience de Akira Tonomura réalisée en 1989, où les électrons sont envoyés un par un sur un cible et où l'on voit le diagramme d'interférence apparaître progressivement dès que le nombre d'électrons devient suffisamment important. Droite : expérience d'Anton Zellinger réalisée en 2003 et démontrant qu'un faisceau de molécules C60 présente bien comme un faisceau électronique un comportement de nature ondulatoire.
L'expérience la plus probante démontrant que les électrons sont capables de donner des diagrammes d'interférence fut faite par Claus Jônsson en 1961 (Jônsson 1974) en utilisant la méthode des fentes d'Young (figure 98). L'expérience fut refaite en 1989 par le physicien japonais Tonomura (Tonomura & al. 1989), mais en envoyant cette fois-ci les électrons un par un, ce qui a permis de constater que l'apparition des franges d'interférences caractéristiques d'un comportement ondulatoire était un phénomène statistique lié à la présence d'un grand nombre de particules. Bien évidemment,
209
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
toutes ces expériences avec des électrons de masse extrêmement faible sont impressionnantes et les physiciens se sont donc demandé ce qu'il adviendrait avec des objets de masse beaucoup plus grande comme une molécule. C'est ainsi qu'en 2003 on utilisa des fullerènes de type C60 qui avec une masse m = 1,2 · l 0- 24 kg, un million de fois supérieure à la masse de l'électron, devraient avoir, pour des vitesses del' ordre de 200 m s- 1, une longueur d'onde À= 2,8 pm (Nairz & al. 2003). De fait, lorsque l'on envoie un faisceau de molécules C60 monocinétique bien collimaté à travers des fentes, on observe à la sortie des franges d'interférences qui indiquent que même pour des masses aussi élevées, les molécules continuent à produire des diagrammes d'interférence. Il est donc tout à fait clair qu'il est impossible de voir un seul électron se comporter comme une onde, car ce que l'on observe dans toutes ces expériences, c'est que les électrons ou les molécules forment toujours des spots bien localisés spatialement sur l'écran. Ce n'est qu'après avoir envoyé un grand nombre de corpuscules que l'on voit apparaître les franges d'interférences traduisant l'existence d'une phase. Le fait que l'on interprète la figure d'inférence obtenue avec un formalisme ondulatoire est ici une simple affaire de goût, une manière de voir les choses et de s'exprimer. Le fait qu'il faille sommer des nombres complexes pour justifier les observations expérimentales ne vient pas d'un quelconque caractère ondulatoire intrinsèque aux objets quantiques, mais seulement de l'absence de grandeur d'état (Destouches-Février 1946).
210
Bibliographie BITBOL, M. (2001), « Jean-Louis Destouches : théorie de la prévision et individualité », Philosophia Seientiae, 5 : 1-30. BwcH, F. ( 1976), « Heisenberg and the early days of quantum mechanics », Phys. Today, 29 : 23-27. BoHR, N. (1913), «On the Constitution of Atoms and Molecules »,Phil. Mag., 26: 1-25. BOLTZMANN, L. (1877), « Über die Beziehung zwischen dem zweiten Hauptsatze des mechanischen Wlirmetheorie und der Wahrscheinlichkeitsrechnung, respective den Siitzen über das Wiirmegleichgewicht », Wiener Berichte, 76 : 373-435. BoRN, M.; HEISENBERG, W.; JoRDAN, P. (1926), «On Quantum Mechanics II», Z. Phys., 35: 557-615. CLAUSIUS, R. (1854), « Ueber eine veriinderte Form des zweiten Hauptsatzes der mechanischen Wiirmetheoriein »,Anna/en der Physik und Chemie, 93: 481-506. COMPTON, A. H. (1923), «A quantum theory of the scattering of X-rays by light elements », Phys. Rev., 21 : 483-502 DE BROGLIE, L. (1923), «Ondes et quanta», C. R. Acad. Sei. Paris, 177: 507-510. DESTOUCHES, J.-L. (1942), « Sur le principe de décomposition spectrale en Mécanique ondulatoire», C. R. Acad. Sei. Paris, 215: 523-525. DESTOUCHES-FÉVRIER, P. (1944), «Sur les rapports entre la Logique et la Physique théorique», C. R. Acad. Sei. Paris, 219: 481-483. DESTOUCHES-FÉVRIER, P. (1946), « Signification profonde du principe de décomposition spectrale», C. R. Acad. Sei. Paris, 222: 866-868. DESTOUCHES-FÉVRIER, P. ; DESTOUCHES, J.-L. (1946), (( Sur l'interprétation physique de la mécanique ondulatoire», C. R. Acad. Sei. Paris, 222: 1087-1089. DIRAC, P. A. M. (1926a), «The fundamental equations of quantum mechanics », Proc. Roy. Soc. London (A), 109: 642-653. DIRAC, P. A. M. (1926b), «The physical interpretation of the quantum dynamics », Proc. Roy. Soc. London (A), 113: 621-641. DIRAC, P. A. M. ( 1928), «The Quantum Theory of the Electron », Proc. Roy. Soc. London (A), 117: 610-624. EINSTEIN, A. (1905a), « Concerning an heuristic point of view toward the emission and transformation of light », Ann. Phys. Lpz., 17 : 132-148. Traduction anglaise in Am. J. Phys., 33: 367-374 (1965). EINSTEIN,A. (1905b), «On the electrodynamics ofmoving bodies »,Ann. Phys. Lpz., 17: 891-921. EINSTEIN, A. ( l 905c ), « Does the inertia of a body depend on its energy content », Ann. Phys. Lpz., 18: 639-641. EINSTEIN, A. ( 1915), « Feldgleichungen der Gravitation », Preuss. Akad. Wiss. Sitzungberichte, 844-847. FEYNMAN, R. P. ( 1980), La Nature de la Physique, Seuil, Paris. FEYNMAN, R. P. (1985), Vous voulez rire, monsieur Feynman!, InterEditions, Paris. GôDEL, K. ( 1931 ), « Über formai unentscheidbare Siitze der Principia Mathematica und verwandter Systeme, 1 », Monatsh. Math. Phys., 38 : 173-198. HAYASAKA, H., TAKEUCHI, S. (1989), « Anomalous weight reduction on a gyroscope's right rotation around the vertical axis of the Earth », Phys. Rev. Lett., 63 : 2701- 2704. HEISENBERG, W. (1925), « Über quantentheoretische Umdeutung kinematischer und mechanischer Beziehungen », Z. Phys., 33 : 879-893. HEISENBERG, W. (1927), «Über den anschaulichen lnhalt der quantentheoretischen Kinematik und Mechanik », Z. Phys., 43 : 172-198.
211
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
HEISENBERG, W. ( 1972), La Partie et le Tout: le monde de la physique atomique, Flammarion, Paris. HENRY, M. (2015), De l'information à l'exformation: une histoire de vide d'eau ou d'ADN ?, Éditions Natur'Eau Quant, Strasbourg. HILBERT, D. ; VON NEUMANN, J. ; NORDHEIM, L. (1927), (( Über die Grundlagen der Quantenmechanik »,Math. Ann., 98: 1-30. JAMMER, M. (1966), The conceptual development of quantum mechanics, Mc Graw Hill, New York. JAYNES, E. T. (1965), «Gibbs vs Boltzmann Entropies», Am. J Phys., 33: 391-398. JAYNES, E. T. (1989), « Clearing up mysteries - The original goal », in J. Skilling (éd.), Maximum Entropy and Bayesian Methods, Kluwer, Dordrecht, p. 1-27. JôNssoN, C. (1974), «Electron diffraction at multiples slits »,Am. J Phys., 42 : 4-11. JORDAN, P.; BORN M. (1925), «On Quantum Mechanics », Z. Phys., 34: 858-888. JoRDAN, P. (1927), «Über eine neue Begründung der Quantenmechanik », Z. Phys., 40: 809-838. MAXWELL, J. C. ( 1865), «A dynamical theory of the electromagnetic field », Phil. Trans. Roy. Soc. Lond., 155: 459-512. MOORE, W. ( 1989), Schrodinger; life and thought, Cambridge University Press, Cambrige. NAJRZ, O. ; ARNDt, M. ; ZEILINGER, A. (2003), «Quantum interference experiments with large molecules »,Am. J. Phys., 71: 319-325. NERNST, W. (1906a), « Ueber die Berechnung chemischer Gleichgewichte aus thermischen Messungen », Nachr. Kg/. Ges. Wiss. Gott., 1 : 1-40. NERNST, W. (1906b), « Über die Beziehung zwischen Wiirmeentwicklung und maximaler Arbeit bei kondensierten Systemen »,Ber. Kg/. Pr. Akad. Wiss., 52 : 933-94. NEWTON, 1. (1687), Philosophiae naturalis principia mathematica, Samuel Pepys éd., Royal Society, Londres. PAULI, W. (1925), « On the Connection between the Completion of Electron Groups inan Atom with the Complex Structure ofSpectra », Z. Phys., 31 : 765-783. PAULI, W. ( 1926), « On the hydrogen spectrurn from the standpoint of the new quantum mechanics », Z. Phys., 36: 336-363. PLANCK, M. (1900), «On the theory of the energy distribution law of the normal spectrum », Verhandl. Dtsch. Phys. Ges., 2 : 237-244. POINCARÉ, H. ( 1917), La Science et /'Hypothèse, Flammarion, Paris, chap. 8, p. 148-166. RosENFELD, L. ( 1961 ), « Foundations of quantum theory and complementarity », Nature, 190 : 384-388. RovELLI, C. (1996), « Relational Quantum Mechanics »,/nt. J. Theoret. Phys., 35 : 1637-1678. RUTHERFORD, E. ( 1911 ), « The scattering of a and ~ partieles by Matter and the Structure of the Atom »,Phil. Mag., 21 : 669-688. ScHRôDINGER, E. (1926a), « Zur Einsteineschen Gastheorie », Phys. Z., 27: 95-101. ScHRôDINGER, E. (1926b), « Quantisierung ais Eigenwertproblem », Ann. Phys., 79: 361-376; 489-527; 80: 437-490; 81 : 109-139. TANNERY, P. (1930), Pour l'histoire de la science hellène, 2•éd., Gauthier-Villard, Paris. ToNOMURA, A. ; ENDO, J. ; MATSUDA, T. ; KAWASAKI, T. ; EzAWA, H. (1989), « Demonstration of single-electron buildup of an interference pattern», Am. J Phys., 57: 117-120. UHLENBECK, G. ; GouosMIT, S. (1926), « Spinning Electron and the Structure of Spectra », Nature, 117 : 264-265. VoN NEUMANN, J. (1929), «Allgemeine Eigenwerttheorie Hermitischer Funktionaloperatoren », Math. Ann., 102: 49-131. WHEELER, J. A. ; FoRD, K. (1998), Geons, Black Ho/es and Quantum Foam. A Life in Physics, W.W. Norton & Co., New York, p. 63-64.
212
L'eau quantique •Préambule La mécanique quantique peut-elle nous aider à mieux comprendre les propriétés de l'eau ? Assurément oui, car si l'on en reste au concept de liaison hydrogène avec une définition tenant sur plusieurs pages A4, on ne pourra au cours des années futures que rallonger une liste de critères déjà bien longue. Dans ce chapitre, nous allons voir que pour comprendre vraiment ce qui se trame derrière une liaison hydrogène, il faut en fait procéder à une double quantification. La première quantification concernera le mouvement des électrons dans un objet contenant 10 protons, où 8 protons se trouvent collés ensemble et stabilisés par 8 neutrons (noyau oxygène) avec deux autres protons situés de part et d'autre de ce noyau massif soit générant une tête de Mickey, soit traçant le V de la victoire. Nous verrons qu'à ce stade de première quanti:f}cation, le mystère reste entier. Pour vraiment comprendre ce qui se passe, il nous faudra procéder à une seconde quantification, c'està-dire prendre les états quantiques issus de la première quantification et les considérer non pas comme des états mais comme des champs afin qu'ils puissent interagir via leur phase avec d'autres champs, comme le champ électromagnétique. Cela nécessitera de comprendre que le vide n'est finalement pas si vide que cela, et que c'est peut-être parce que l'on s'obstine à croire que le vide est vide que l'eau nous apparaît si mystérieuse. Mais avant de s'embarquer dans ce voyage fascinant, il peut être utile de résumer le chapitre précédent en faisant une analogie avec ce que l'on connaît de l'électromagnétisme classique. Cela a été très bien expliqué par le physicien américain Freeman Dyson, comme le révèle ce petit extrait (Dyson 1958) : L'idée fondamentale de la mécanique quantique est d'étendre à la matière la vision de la nature en double couche mise en place par Maxwell en 1865 lors de sa triple unification entre électricité, magnétisme et optique. Ainsi, selon Maxwell, on trouve une première couche inférieure où existent deux entités abstraites, le champ électrique et le champ magnétique, qui satisfont à une équation d'onde simple et qui sont capables de se propager dans l'espace sous la forme d'ondes lumineuses ou d'ondes radio. La couche supérieure est formée d'objets matériels, d'énergies et de forces et seule cette dernière couche est directement accessible aux expériences. Un champ électrique ne peut par exemple être observé qu'en étudiant les effets qu'il produit en termes de force ou d'énergie électrique sur des charges électriques de la couche supérieure. Ces énergies ont la caractéristique fondamentale d'être proportionnelles au carré de l'intensité du champ en un point donné, cette
213
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
intensité n'étant en elle-même qu'une pure abstraction mathématique. Pour ce qui concerne la mécanique quantique, on conserve cette structure en double couche en rajoutant à la couche inférieure contenant déjà Je champ électromagnétique une nouvelle abstraction mathématique appelée «fonction d'onde» permettant de décrire Je comportement de la matière pour ne laisser dans la couche supérieure que des choses observables comme l'énergie, la quantité de mouvement, les moments angulaires et des probabilités de présence des masses données par le carré des amplitudes des fonctions d'onde associées. Ainsi, il est impossible d'observer cette fonction d'onde en elle-même, tout comme il est impossible d'observer un champ électrique ou un champ magnétique. S'il existe des différences techniques considérables entre la mécanique quantique et l'électromagnétisme, l'idée générale reste donc la même et la raison pour laquelle il est aussi difficile de comprendre la mécanique quantique est que notre expérience de la nature solide de la matière est fortement ancrée en nous depuis notre naissance. Il est donc bien nécessaire de comprendre la notion de champ pour ne pas être dérouté par les aspects souvent très troublants de la dualité ondecorpuscule ou de l'aspect non local des champs par opposition à l'aspect bien localisable du corpuscule. Pour l'eau, ce point est fondamental, car si l'on s'accroche à sa formule Hp, on devra repasser par la case liaison hydrogène, et dans ce cas le recours à la mécanique quantique deviendra superflu. Si, par contre, on oublie un moment cette formule obsédante pour accepter de voir l'eau comme un champ de cohérence avec des hauts et des bas définissant des ,domaines de cohérence, on accède à un niveau supérieur, celui où elle révèle sa vraie nature de milieu capable de stocker et propager l'information. Le chemin pourra sembler dur et ardu à certains, mais les enjeux à la clé sont tels que le jeu en vaut la chandelle.
L'eau en première quantification Je vais montrer ici comment l'on quantifie le mouvement des électrons dans une molécule répondant à une formule aussi simple que Hp. En premier lieu, il convient de quantifier le mouvement des électrons dans l'atome d'hydrogène et dans l'atome d'oxygène, chacun pris séparément. Ceci peut être fait une fois pour toutes et aboutit à ce que l'on appelle pudiquement un «jeu d'orbitales atomiques» (figure 99, à droite). Ces orbitales sont des fonctions d'ondes solutions de l'équation de Schrôdinger prenant leurs valeurs dans le plan complexe afin de disposer d'une phase qui permet de créer des zones spatiales d'où sont exclus les électrons (interférences destructrices) et d'autres où au contraire les électrons s'accumulent (interférences constructives). Une fois connu le mouvement autour de chaque noyau, on utilise la propriété de superposition d'états de la mécanique quantique pour bâtir une fonction
214
CHAPITRE
V-
L'EAU QUANTIQUE
d'onde moléculaire s'exprimant comme une combinaison linéaire des états atomiques (méthode des orbitales moléculaires). On transforme ainsi N orbitales atomiques isolées en N combinaisons (orbitales moléculaires) représentant chacune une forme possible du nuage électronique délocalisé sur les 3 noyaux (2 H et 1 0 central). Chaque combinaison est affectée d'une étiquette (a 1, b 1 ou b2) représentant les propriétés de symétrie du nuage global. Par exemple, l'étiquette a 1 signifie que les couleurs affectées au mouvement des électrons restent identiques après rotation de 180° autour de l'axez ou après réflexion dans le plan miroir (xz) bisecteur de l'angle H-0-H, deux opérations qui échangent la position des protons H et H' mais aboutissent à une configuration indiscernable de la configuration de départ. S'il y a changement de couleur après rotation de 180° et après réflexion miroir, on utilisera l'étiquette b2• Enfin, s'il y a changement de couleur après rotation de 180° mais conservation de la couleur après réflexion miroir, on utilisera l'étiquette b 1• Une fois que chaque niveau possède son label, on calcule son énergie de manière à faire un classement depuis les niveaux les plus stables en bas jusqu'au niveau le moins stable tout en haut. Dans le cas présent, on a combiné sept états de valence (cinq pour l'oxygène et un pour chacun des deux atomes d'hydrogène), ce qui fait qu'on obtient sept combinaisons : quatre ayant l'étiquette a 1, deux ayant l'étiquette b2 et un d'étiquette b 1• Il reste enfin à placer les électrons par paires en raison du principe d'exclusion de Pauli en allant du bas vers le haut. Ici, il y a dix électrons à placer, soit cinq paires, ce qui fait que l'on occupe les cinq premiers niveaux. La dernière étape consiste à interpréter le diagramme sachant que chaque niveau rempli correspond soit à une liaison chimique, s'il y a étalement de la densité électronique sur tous les noyaux, soit à une paire d'électrons dite «non liante » car localisée sur seulement quelques noyaux. Ici, il y a clairement trois paires d'électrons non liantes (la, et lb 1 près de l'oxygène et 3a1 qui évite l'oxygène pour se répartir entre les deux protons). Cela laisse deux paires complètement délocalisées sur les trois noyaux : 2a 1 qui enrobe les trois noyaux de manière homogène sans changement de signe de la fonction d'onde et 1b2 qui se partitionne entre deux moitiés de signes opposés mais bien délocalisée à part égale entre la droite et la gauche de la molécule. L'image quantique que l'on obtient en procédant de la sorte peut se noter (la 1) 2(2a 1) 2(lb 2) 2(3a 1) 2(lb 1) 2(4al(2bz)° et se trouve être en parfait accord avec ce que les chimistes ont appris sur la manière dont la molécule d'eau se comporte. Il y a ainsi un doublet de cœur non liant (la,) qui ne participe à aucune interaction chimique, deux liaisons 0-H covalentes correspondant à la paire (2a 1, 1b2) très stables, deux doublets non liants correspondant à la paire (3a"lbJ La grande stabilité de la molécule d'eau provient d'un 215
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
premier niveau vide, appelé LUMO (4a 1), très haut en énergie empêchant les agents réducteurs donneurs d'électrons de briser les liaisons 0-H selon la réaction : H-0-H + 2 ee--+ H-oe + 8H. De même, la molécule d'eau possède un dernier niveau occupé, appelé HOMO (l b 1), très bas en énergie empêchant les agents oxydants avides d'électrons de briser les liaisons 0-H selon la réaction : H-0-H--+ H-OEB + EllH + 2 ee. Oxygène: 1s2 ·2s 2 ·2p• = 8 électrons Hydrogène: 1s•x2 = 2 électrons Total = 10 électrons
Orbitales moléculaires Plans nodaux cœur valence 0 3 2
-
2b
-
4a 1
2
LUMO
HOMO 0
-#- 1bl
0
0
0
•
-#- 3a1 +
Orbitales atomiques
1b2
-tf- 2a
1
•
Figure 99: La molécule d'eau en première guantitication. Les couleurs représentent la phase positive (orange) ou négative (bleu) de la fonction d'onde décrivant le mouvement des électrons attirés par les noyaux. On appelle plan nodal une zone spatiale où la fonction change de signe et où la probabilité de présence de/ 'électron est donc nulle. Plus une fonction d'onde présente de plans nodaux, plus l'état devient instable en raison des répulsions internucléaires non écrantées par les charges négatives des électrons. Les niveaux en rouge sont des niveaux hautement instables qui doivent rester vides, sauf en cas de réaction chimique. Un réducteur viendra alors placer ses électrons dans le premier niveau vide, noté LUMO, tandis qu'un oxydant retirera deux électrons depuis le plus haut niveau occupé, noté HOMO.
Par contre, rien ne semble expliquer dans ce diagramme la raison pour laquelle certaines molécules d'eau en l'absence de tout oxydant ou de tout réducteur s'amusent à briser une liaison 0-H selon le schéma : H-0-H--+ H-08 + EllH (auto-protolyse). Rappelons que cette réaction est quand même à l'origine de la notion de pH, grandeur cruciale qui régule tous les équilibres acido-basiques aussi bien au niveau des êtres vivants (figure 100) qu'au niveau d'une planète. 216
CHAPITRE
Substance
pH app1oxlma11f
V-
L'EAU QUANTIQUE
Les pH d4ons l'organl.,,,. en bonne santé
Acide chlorhydrique molai11
E....,,..
1.2-3,Q
Drainage minier acide (OMA)
"°il•
3.4-4.2
Batterie acide
s-.
4.0-6.8
Acide gastrique
Urtno
4.8-7.5
~
... ...
Jus de citron
Cola Vinaigre Jus d'orange ou de pomme Bièrti Café
Thé
Pluie acide Lah Eau pure
Salive humaine Sang
Eau de mer SiM>n
Ammoniaque Chaux
Soude molaire
--
-
6.3-7.3
~
6.5- 7.2
Collulo
6.9
Pluma.--
1.0
EtytlvocylOs
7.2
5.5-6,5
c..Mbuccolo
6.2-1.2
l . l q l * » - 7.3-1.4 Corjondlvo
7. ~-e.o
Song
7.35- 7.42
Poumons
7.6
~
.....,_
log 0,1 = -1 log 1=0 log 10 = 1
4.8-8.2
Sein
,_
log ton= n
_.... 7.6 7.8
7.t-1.0
2 H 20 +:± H 30
61
+ OH 0
2·µ(H 20) = µ(H 3QG>)+ µ(H0 9 ) T
= 25°C => Kw = [H3QG>l[H0 8 ] "'10-.. [HaQG>]
pH
= [H06 ] = ..fK; • 10·'
= -log,. [H3QG>] => pH =7 à T = 25°C
• 1 11Ill ACIDE
ALCALIN
•
Figure 100: Quelques points de repère concernant l'échelle de pH associée à l'eau.
De même, notre diagramme d'orbitales moléculaires est complètement muet sur une autre propriété encore plus cruciale que le pH qui est l'auto-électrolyse selon la réaction : 2 H-0-H ~ 2 H2 + 0 2 qui est en fait la réaction inverse de la synthèse de l'eau et qui est à l'origine du potentiel rédox et de ce que l'on appelle rH2 • La figure 101 montre la gamme de potentiel rédox des eaux naturelles ainsi que le rH 2 extraordinairement bas atteint par certains appareils du commerce réalisant l'électrolyse de 1' eau grâce au courant électrique afin de produire une solution diluée de soude sursaturée en dihydrogène contenant des nanoparticules de platine. Ceci explique son potentiel rédox extrêmement bas ainsi que ses propriétés thérapeutiques (Henry & Chambron 2013, 2014). Ici aussi, l'on aimerait comprendre pourquoi l'eau se comporte de la sorte et prétendre que le diagramme d'orbitales moléculaires de la figure 99 permet de rendre compte des figures 100 et 101 n'est pas très sérieux. Bien sûr, que ce soit avec l'auto-protolyse ou avec l'auto-électrolyse, on pourra toujours dire que les constantes d'auto-dissociation sont extrêmement faibles et que la majorité des molécules d'eau sont bien intactes et non dissociées. Mais alors, comment expliquer que si le pH du sang passe au-dessous de 7 ou au-dessus de 7, 7, c'est la mort assurée ? De même, on constatera en figure 102 que si le rH2 est proche de 6, c'est la mort par prolifération cancéreuse, alors qu'audessus d'un rH2 de 9, c'est la nécrose par stress oxydatif... Ici aussi, on voit l'importance de ces équilibres mineurs mais cruciaux.
217
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
14
0
21
milieu milieu très fortement anti-oxydant anti-oxydant
28
milieu anti-oxydant
42
milieu oxydant
1000
800 600
rzf >
2
3a1
~
Symétrie C2 v
48 1
...
r
(1a,)"(2a.) 2(1b2) 2(3a,) 2(1b,)2(4a,) 0 (2b,) 0
2b2
I'
"
théorie hv
15
10
5
tnergie de liaison/ eV
535
540
545
3a,)
..... S>O
~
~.
Symétrie C5
la1> - la'> lb1> - la">
tnergie du photon
Figure 111 : La spectroscopie d'émission des rayons X montre très clairement que le niveau de symétrie 3a1 (HOM0-1) est fortement affecté par la formation des liaisons hydrogène, alors que la HOMO de symétrie 1b1 plus haute en énergie n'est quasiment pas affectée. D'après Nilsson & al. (2005).
Le concept même de liaison hydrogène gouvernant les propriétés de l'eau liquide est aussi à l'origine de la très obscure « interaction hydrophobe » des livres de biologie. En effet, certains auteurs n'hésitent pas à classer cette interaction hydrophobe comme un lien énergétique, alors qu'il s'agit en réalité d'un problème purement entropique qui a peu de choses à voir avec l'énergie. Le terme hydrophobe est d'ailleurs très mal choisi, car il se trouve que l'eau et l'huile s'attirent mutuellement au lieu de se repousser (Chandler 2002). Il n'y a donc aucune répulsion entre l'eau et l'huile, mais seulement le fait que le coût énergétique pour creuser une cavité dans l'eau afin d'accueillir l'huile est prohibitif en raison de la très forte cohésion de l'eau. L'interaction hydrophobe d'ailleurs ne peut se produire que dans l'eau et reste encore à l'heure actuelle pleine de mystères (Meyer & al. 2006). Il y a aussi le problème de forte sensibilité de l'eau aux champs électromagnétiques qui est elle aussi une véritable énigme. Or, en première quantification, on ne quantifie que le mouvement des électrons tandis que les champs électromagnétiques créés par ces mouvements électroniques sont traités de manière classique par le biais des équations de Maxwell. Cette asymétrie dans le traitement physique des charges électriques d'une part et des champs électromagnétiques associés d'autre part ne remet donc nullement en question le caractère diamagnétique de la molécule d'eau qui devrait donc rester une substance très peu sensible à la présence de champs magnétiques. Or, il existe dans la littérature scientifique une multitude de résultats expérimentaux qui 230
CHAPITRE
V-
L'EAU QUANTIQUE
montrent que des champs magnétiques même très faibles peuvent modifier le comportement de l'eau liquide. Rappelons aussi qu'il existe une équivalence de principe entre la physique de Newton et celle de Schrodinger, ce qui nous permet de mieux comprendre l'échec de cette première quantification pour décrire l'eau. En effet, comme la description des propriétés de l'eau était déjà insatisfaisante en physique classique, il y a peu à attendre en gardant le même mode de pensée, basé sur des corpuscules inaltérables en substituant simplement des nombres complexes (première quantification) aux nombres réels (physique classique).
Seconde quantification Pour sortir de toutes ces impasses théoriques, il n'existe en fait qu'une seule issue qui consiste à quantifier simultanément le mouvement des charges électriques et celui des champs électromagnétiques couplés à ces mouvements (seconde quantification). Le corpuscule type de la seconde quantification, le photon, n'a en fait absolument rien à voir avec le corpuscule type de la première quantification, l'électron. La mécanique quantique de première quantification, qui est non relativiste, ne peut pas en effet traiter le cas des photons qui sont des particules se déplaçant à la vitesse de la lumière. Il faudra donc attendre 1927 pour que P. A. M. Dirac développe l'électrodynamique quantique en considérant le champ électromagnétique comme une collection infinie d'oscillateurs harmoniques. L'idée fut ensuite reprise et développée par Jordan, Heisenberg, Pauli, Fermi et Fock qui montrèrent que les photons devaient être considérés comme des excitations quantifiées du champ électromagnétique. L'intérêt de la mécanique quantique de seconde quantification est donc qu'elle se place d'emblée dans un cadre relativiste, ce qui lui permet de traiter aussi bien le cas des photons que celui des électrons, clarifiant ainsi la notion de spin (Dirac 1928). Dans ce mode de pensée, le photon se borne à être la réponse qu'apporte le champ électromagnétique lorsqu'on l'excite ou on le sollicite. Le champ pour sa part décrit de quelle manière une certaine région spatiale sondée diffère de l'état fondamental de plus basse énergie, le vide, où toute mesure donnera par définition un résultat nul. En seconde quantification, les notions d'espace et de temps sont donc rattachées à un observateur à travers ses différents appareils de mesure et n'ont plus le caractère absolu d'existence qu'on leur prête en mécanique classique ou en première quantification. Au niveau formalisme, ceci nécessite de remplacer la notion d'espace de Hilbert individuel par un espace de Fock collectif décrivant les états quantiques d'un champ unique vu comme une collection infinie d'oscillateurs harmoniques présents en chaque point de l'espace. Chaque oscillateur peut être excité depuis son état fondamental d'énergie non nulle, égale à la 231
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
moitié du produit de la constante de Planck par la fréquence d'oscillation, appelée une énergie de point zéro. Chaque mode d'excitation du champ est caractérisé par son vecteur d'onde et chaque état de l'espace de Fock décrit une configuration du champ où les modes d'excitation sont recensés via le nombre de quanta qu'ils mettent en jeu. On peut changer le nombre de quanta d'un mode donné au moyen d'un opérateur de création qui fait apparaître un quantum du vide et un opérateur d'annihilation qui renvoie un quantum au vide. Le vide apparaît ainsi comme un état fondamental commun à tous les modes d'excitation. Dans ces conditions, le nombre de quanta devient la valeur propre d'un opérateur de dénombrement défini comme le produit des deux opérateurs de création et d'annihilation. Cette capacité de pouvoir faire fluctuer le nombre de quanta au sein d'un espace de Fock est le point central sur lequel la seconde quantification diffère de manière radicale de la première quantification où le nombre de quanta est donné une fois pour toutes et ne peut jamais changer (conservation de la norme dans un espace de Hilbert approprié). Une autre différence remarquable avec la première quantification est que les opérateurs associés à l'énergie et à la quantité de mouvement totale du champ quantique peuvent être diagonalisés simultanément sur la même base de Fock, alors que cela était impossible en première quantification. Il est ainsi facile de voir qu'en l'absence de toute excitation du champ quantique, le champ a comme attendu une quantité de mouvement totale nulle car, pour chaque mode de vecteur d'onde p, on a un mode de vecteur d'onde opposé-p. Toutefois l'énergie totale n'est pas nulle dans un tel état, car chaque oscillateur harmonique se trouve alors dans son état fondamental avec son énergie de point zéro. En fait, cet état fondamental de plus basse énergie où le champ n'est pas excité mais possède néanmoins une énergie moyenne de fluctuation non nulle s'appelle hélas le « vide », car si l'on retire les opérateurs de création/annihilation le champ coïncide avec le vide de matière et de rayonnement de la première quantification. On est ainsi conduit à parler d'énergie du vide, ce qui est très troublant pour quelqu'un qui raisonne de manière classique ou dans un cadre de première quantification et qui ne voit pas ce qui pourrait bien sortir du vide. Dans ce qui suit,j 'appellerai donc «vide quantique » le vide de matière rempli de rayonnements virtuels de la seconde quantification et « vide » tout court le vide de la première quantification et de la physique classique dénuées de matière ET de rayonnement. La première chose à faire en seconde quantification est donc de définir le vide, c'est-à-dire l'état fondamental d'énergie minimale. En effet, comme il est dans la nature des champs quantiques de fluctuer, tout état quantique dans une certaine région finie de l'espace finira par relaxer après un temps approprié, dépendant des interactions avec d'autres champs, vers un état d'énergie minimale, le seul état stable. Le vide est donc une réalité tangible 232
CHAPITRE
V-
L'EAU QUANTIQUE
absolument nécessaire pour que l'on puisse savoir dans quels états précis se trouvent les champs quantiques présents dans une région spatiale donnée. Autrement dit, c'est la structure du vide qui détermine le type d'excitations physiques ou« quanta» qu'un appareil de mesure détectera ou excitera dans le champ, suite à des échanges d'énergie entre le champ et les appareils de mesure. Il découle de ceci que toute mesure dans une région localisée d'espace-temps provoque une transition du champ entre deux états, dont la différence d'énergie est fonction du type de mesure effectuée, l'excitation se présentant sous la forme de quanta tous identiques et indiscernables. Il est donc impératif de comprendre qu'en seconde quantification, c'est le champ qui définit l'absence ou la présence de matière via ses deux opérateurs de création/annihilation, et ce qui apparaissait comme vide de manière classique devient en réalité peuplé d'une infinité de modes d'excitations virtuelles du champ qui se compensent exactement à tout moment en tout point. Cela signifie qu'un champ quantique est capable de produire à partir du tissu spatio-temporel autant de quanta qu'on veut. Bref, le champ est une véritable corne d'abondance, d'où peut sortir à peu près n'importe quoi. Étant tous produits par le même champ, les quanta sont tous rigoureusement identiques, qu'il s'agisse de fermions (matière) ou de bosons (rayonnement). Si des particules élémentaires peuvent être distinguées, cela signifie bien sûr qu'elles sont produites par deux champs quantiques de nature différente. Comme les quanta ne font que refléter l'état d'excitation du champ, ils perdent toute réalité physique et n'ont plus de dynamique autonome, et il est impossible de leur attribuer une fonction d'onde au sein d'un espace de Hilbert comme on le fait en première quantification. Toute la réalité physique est donc contenue dans le champ qui est une entité non locale et non séparable par principe. L'intrication de ce fait devient permanente au lieu d'être éphémère.
Résolution du paradoxe EPR On sait qu'Albert Einstein s'est toujours opposé à l'interprétation probabiliste de la mécanique quantique de première quantification, ses critiques culminant dans une expérience proposée en 1935 avec ses collègues Boris Podolsky et Nathan Rosen, dans le but de mettre en évidence des contradictions supposées de la mécanique quantique (paradoxe EPR). La situation resta confuse jusqu'en 1982, lorsque le physicien français Alain Aspect montra que la mécanique quantique avait bel et bien raison et que la nature était foncièrement non locale et non séparable. L'avantage de la seconde quantification est qu'elle permet clairement d'expliquer l'origine de cette non-localité et cette non-séparabilité qui caractérisent la mécanique quantique. 233
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
En effet, si l'on pose que le champ existe et contient toute la réalité, la mécanique quantique de première quantification apparaît alors comme la limite d'une extrême dilution de la matière dans le champ. Extrême dilution signifie ici que lorsqu'on observe le champ dans un volume fini, où le nombre de corpuscules, valeur propre de l'opérateur dénombrement, correspond à un nombre petit et fini. Cette mécanique quantique ne concerne donc que des gaz dilués d'atomes ou de molécules, d'où le piège de la dualité onde/corpuscule avec une intrication quantique perçue comme étrange et non naturelle. L'avantage de se placer en seconde quantification est de concevoir le carré de la fonction d'onde, solution de l'équation de Schrôdinger, comme une simple fonction de corrélation par rapport aux mesures de la densité du champ en N points disjoints de l'espace-temps réel. De fait, en seconde quantification, les coordonnées spatiales ne sont plus des observables associées aux différents corpuscules quantiques indiscernables, mais se trouvent être en correspondance parfaite avec les positions spatiales où l'on est susceptible à un moment donné d'acquérir une information via des systèmes capables de mesurer la densité du champ. Que le système soit observé ou pas n'y change rien, il continue donc son évolution selon l'équation de Schrôdinger, jusqu'à ce qu'il atteigne son état d'énergie minimale. Pour ce qui concerne la critique EPR, elle peut être réduite au fait que la fonction d'onde d'un système à deux quanta ne se factorise pas comme le produit de deux fonctions, dans une région spatiale où les deux quanta sont observés et où ils ne peuvent échanger del 'information via un signal lumineux. Si l'on attribue aux corpuscules une réalité physique, cette intrication entre les fonctions d'onde des deux quanta pose alors des problèmes insurmontables qui ont fait couler de l'encre et de la salive. Pour la seconde quantification, l'intrication quantique ne cause aucun souci puisque les corpuscules quantiques n'ont aucune réalité physique indépendante du champ, ni aucune localisation physique précise comme en première quantification. Tout corpuscule qui se manifeste ne fait que refléter la présence d'un système d'acquisition de l'information (observateur) localisé dans l'espace en train de sonder le champ quantique qui répond à l'excitation locale en émettant des quanta au point où il se trouve sondé. La grande illusion, c'est donc de croire que, lorsque j'observe un corpuscule quantique aller d'un point A à un point B, c'est le même corpuscule qui se déplace, car ce faisant, on lui attribue une réalité physique qu'il ne possède pas. Ce qui se passe en réalité, c'est que mon appareil de mesure excite le champ en A et ce dernier répond en créant un quantum pour manifester son état actuel. Ce quantum ayant joué son rôle de pourvoyeur d'information est aussitôt détruit dès que l'appareil de mesure est déplacé ailleurs. Au point B où la mesure est répétée, le champ recrée un autre quantum puisqu'il se trouve à nouveau sollicité par l'appareil de mesure. Bien sûr, le quantum qui apparaît
234
CHAPITRE
V-
L'EAU QUANTIQUE
en B n'est pas celui qui était apparu en A lors de la première mesure, mais un autre quantum créé par le champ quantique. Toutefois, comme un champ ne sait que créer des quanta tous parfaitement identiques et indiscernables, l'observateur peut avoir l'illusion qu'un corpuscule« réel» s'est déplacé de A en B. Ceci pour faire comprendre qu'en seconde quantification, la seule réalité physique se situe dans le champ quantique. L'intrication quantique est donc permanente et présente à toutes les échelles de mesure. Si l'on réalise que les corpuscules sont systématiquement créés et détruits à chaque mesure, le problème EPR ne se pose plus, et la non-localité clairement validée par les expériences ne fait simplement que refléter l'existence du champ qui est par définition non local et non séparable.
Le uide quantique Les quanta ne sont donc observés que lorsqu'un champ entre en interaction avec d'autres champs. Quand il n'y a pas d'interaction, il n'y a pas de quanta et seul existe le champ. Ainsi, lorsque le champ n'est pas excité, c'est-à-dire lorsqu'il se trouve dans son état fondamental d'énergie minimale non nulle, une conscience extérieure qui observerait le champ de très loin ne percevrait absolument rien et en particulier aucun mouvement donnant l'illusion d'un milieu parfaitement vide de matière et de rayonnement. En fait, même le temps et l'espace sembleraient ne pas exister, le spectacle étant semblable à une mer parfaitement lisse lorsqu'on la regarde de très haut. Mais si l'on observe le champ de très près, on s'apercevrait que cette immobilité n'est qu'apparence et qu'en réalité la surface de ce vide serait parcourue de nombreuses rides qui s'agitent dans tous les sens. C'est en fait cette agitation incessante qui donnerait naissance à l'idée d'une étendue spatiale tridimensionnelle évoluant de manière unidimensionnelle dans le temps. Ce sont donc les fluctuations inévitables du« vide »qui créent les notions d'espace et de temps que l'on perçoit à notre échelle macroscopique. Tout comme l'océan possède des zones calmes et d'autres parcourues par des tempêtes violentes, le champ peut dans certaines zones spatiales apparaître extrêmement agité ou excité, donnant naissance à deux types de choses: des vagues que l'on perçoit à notre échelle comme des ondes qui se propagent dans l'étendue du champ et de l'écume que l'on perçoit à notre échelle comme des corpuscules qui naissent, vivent et meurent dans un ballet incessant. Chaque corpuscule semble être fils du vide, apparaissant soudain à un moment donné, et est condamné à retourner à un moment ultérieur plus ou moins long dans ce vide qui lui a donné naissance. Mais, tout comme il est impossible de détacher l'écume des vagues qui la génèrent, il est absolument
235
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
impossible de dissocier ces corpuscules du champ, car ils sont eux-mêmes le champ qui, au point de formation de l'écume, concentre une énorme quantité d'énergie ou, ce qui est équivalent, une très haute fréquence. Ceci signifie en particulier qu'à tout moment des bosons ou des fermions peuvent apparaître ou disparaître spontanément dans une région qui était considérée comme « vide ». En raison de la finitude de la constante de Planck h, les quanta d'un champ donné peuvent être soit « virtuels », soit « observables » selon la valeur du produit de leur durée de vie Llt par leur étalement en énergie LlE. Ainsi, un quantum est qualifié de « virtuel » et donc inobservable tant que l'action reste inférieure au quantum d'action et il devient observable et donc bien réel si l'action dépasse la valeur du quantum d'action. Même s'ils ne peuvent pas être détectés par principe, les quanta virtuels sont néanmoins bien réels, comme on va le voir maintenant. Pour fixer les idées, la constante de Planck est telle qu'un laps de temps d'environ 1 femtoseconde, soit 10- 15 s, donne la liberté de faire fluctuer le vide jusqu'à une énergie de l'ordre de 0,66 eV. Une paire électron/positron possédant une masse de l'ordre de 1 MeV, le vide apparaîtra comme un milieu grouillant d'électrons et de positrons dès qu'on l'observera avec un temps inférieur à la zeptoseconde (10-21 s). Les muons et les anti-muons, étant environ cent fois plus massifs que les électrons, bouillonneront à leurs tour si le temps d'observation descend en dessous de la dizaine de yoctoseconde (I0-24 s). Enfin, si l'on descend en dessous d'un temps d'observation de 0,01 ys (I0-26 s), des bosons cent fois plus massifs que les pions comme le boson Z 0 peuvent à leur tour entrer dans la danse. Bien évidemment, des temps aussi brefs sont liés au fait que l'on demande au vide de créer de la matière et non du rayonnement. Après avoir vu comment l'atome se stabilise en première guantification, il est très instructif de voir la différence avec le mécanisme de stabilisation de la seconde quantification, où à l'échelle de taille du noyau, le vide apparaît comme bouillonnant d'électrons et de positrons virtuels ayant une énergie pouvant aller jusqu'à 200 MeV (figure 112). Ce sont bien sûr ces électrons virtuels présentant une charge électrique de même signe que l'électron réel qui repoussent ce dernier très loin du noyau, assurant une stabilité éternelle à tous les atomes de la classification périodique. Toutefois, il est vrai qu'un électron virtuel a forcément été créé avec son antiparticule qui elle attirera l'électron. Mais c'est ici que la chose devient magnifique. Car rien ne peut s'opposer à l'attraction de deux particules exactement identiques en tout point et ne différant que par leurs charges électriques qui sont de signes contraires. L'électron n'atteindra donc jamais le noyau car il sera happé au passage par tout positron surgissant du vide comme un diable hors de sa boîte. La collision électron-positron fera retourner au vide la nouvelle paire, laissant 236
CHAPITRE
V-
L'EAU QUANTIQUE
sur le carreau l'électron qui accompagnait le positron qui vient juste de se désintégrer. Ce dernier profitera alors de l'énergie créée par la désintégration pouvant aller jusqu'à 200 MeV pour échapper à l'attraction du noyau. Le vide quantique : ~U·~t < h :::: o,66 eV·fs füiergie t.U Dwéet.t Taillet.x Diamant t.U • 4 eV Eau t.U • 20 meV Huile t.E • 1 meV
t.t • t.x/c => t.U·t.x < h-c • 2 00 eV·run
Quantum d'action c • 1 => (L aT) => h • M·L'·T"' • M·L Universalité: h • M·L • 1=>M • L"'• 1''
Masse (M), Espace (L) et Temps (T) sont nne senle et meme chose Plus l'échelle est petite, plus il y a d'énergie ...
Figure 112 : En seconde quantification, le vide est rempli d'excitations virtuelles et s'identifie à la matière, puisque cette dernière peut surgir du vide à tout moment. L'image classique que l'on peut associer aux particules virtuelles est celle de lignes de champ autour de toute charge statique ou en mouvement.
Bilan du processus : un électron observable s'annihile avec un positron inobservable pour faire passer de la virtualité à la réalité un autre électron initialement inobservable. Tout cela se déroule à une échelle de temps de l'ordre del' attoseconde, laissant tout observateur potentiel dans l'illusion d'un électron impérissable échappant« par miracle» à l'attraction coulombienne du noyau (modèle atomique de Rutherford). Ce qui rend le phénomène miraculeux est bien sûr la croyance en l'indestructibilité de la matière, et il suffit d'abandonner cette croyance pour que tout devienne simple et trivial. Les exigences énergétiques et temporelles sont évidemment bien moindres en ce qui concerne la création de rayonnement, puisqu'en observant le vide à l'échelle de la femto-seconde, on voit qu'il fourmille déjà des photons infrarouges. Pour une durée d'observation de l'ordre de la microseconde, il n'y a plus de rayonnement infrarouge mais plein d'ondes radio avec une fréquence maximale de 1 MHz. Enfin, à l'échelle de la seconde, il n'y a plus d'ondes radio mais il reste un grouillement d'ondes dites ELF avec des fréquences maximales de 1 Hz. Si l'on continue à augmenter l'échelle de temps, on ne fera que baisser encore plus la fréquence du rayonnement 237
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
disponible dans le vide, mais ce dernier ne disparaîtra jamais. Le vide se comporte donc comme un corps noir matériel. En physique quantique, le vide complet, c'est-à-dire le néant, n'existe donc pas, ce qui résout de manière très élégante la question de savoir pourquoi il y a quelque chose plutôt que rien. &ectron: masse m.. charge électrique -e Noyau charge
.)
L'atome grossit (~R) lorsqu'il avale du vide Noyau
=protons (Z) EB neutrons (A-Z)
électrique
Atome = noyau (A) EB électrons (Z)
+Ze
.
m.• 10-;90 kg e•
0 ,16
ac
!
Couplage vide (e0 , c) matière (h, m,) via la charge électrique e
m
États atomiques
-++10·'5 in 10·•0
Photon virtuel
A ,k
~t,
Déplacement de Lamb ('1E) des niveaux d'énergie
ôR=
p
~ lli'2 >
a=
e2
4Tœ0 ·1i·c
transition
137
m\· (~}in~ ·
,,,/' _..______ "1E Photon virtuel
A,k
lwl> Probab~i.té de
"' -
(1-, IA·p-10 _, k
JJF · 'f" 1
k
JJF ) 'f" 2
Figure 113 : Effets du vide quantique sur l'énergie des atomes (déplacement de Lamb).
Bien évidemment, le vide quantique apparaît très différent de l'éther relativiste. Or, il se trouve que les fluctuations électromagnétiques virtuelles qui subsistent dans le vide ont des effets observables bien réels et qui sont connus parfois depuis bien longtemps. Par exemple, les particules virtuelles expliquent pourquoi la permittivité électrique e0 et la perméabilité magnétique ~du vide ne sont pas nulles (Urban 2013). De plus, comme il existe une relation topologique bien connue selon laquelle e0 µ 0 c2 = 1, il en découle que ce sont ces mêmes particules virtuelles qui fixent la valeur de la vitesse de propagation de la lumière dans le vide. La lumière voit donc très clairement que le vide n'est pas vide. Pour la matière, un atome isolé dans le vide peut très bien interagir avec les fluctuations incessantes de ce dernier. C'est précisément cette interaction qui est responsable des processus d'émission spontanée qui font passer l'atome de ses niveaux d'énergie élevée vers son niveau fondamental. Toute radioactivité est donc une manifestation tangible de l'énergie du vide. Dans un niveau excité, l'atome est encore couplé au
238
CHAPITRE
V-
L'EAU QUANTIQUE
vide et ce couplage est accompagné d'effets tels que le déplacement de Lamb (Lamb 1947) des fréquences d'absorption, phénomène qui a pu être vérifié expérimentalement (figure 113). Quand deux atomes sont couplés aux mêmes fluctuations du vide, l'interaction des atomes avec les fluctuations du champ induit une attraction entre eux, que les chimistes appellent la force de van der Waals (voir équation de van der Waals). L'existence du vide quantique a aussi pour conséquence que la masse des particules n'est plus une propriété intrinsèque de ces dernières, car cette masse est étroitement liée à la manière dont la particule interagit avec la structure quantique du vide. Ceci est très bien illustré par le cas du proton et du neutron. Prenons l'exemple du corps humain dont la masse est constituée à 45 % de neutrons, à 54,97 % de protons et à 0,03 % d'électrons. Comme le montre la figure 114, si l'on admet que la masse des nucléons provient des quarks constituants, ces particules devraient avoir une masse ne dépassant pas 2 % de la masse mesurée expérimentalement. Il est donc clair que la majeure partie de notre masse ne vient pas des quarks, mais d'autre chose. Comme cette masse ne peut en aucun cas provenir des électrons, il ne reste que le vide pour expliquer cette masse très élevée par rapport à la masse des constituants matériels ... Cette hypothèse peut être testée en appliquant la relation d'incertitude d'Heisenberg aux quarks confinés à l'intérieur du proton ou du neutron d'extension spatiale Ax::::: 0,9 fin. Ainsi, en« habillant» chaque quark d'un nuage virtuel de photons, on trouve que 99 % de la masse des nucléons vient de leur vide interne. Il en découle que 99 % de notre masse corporelle vient du vide et non de la matière ... Quark 'up': 1,5 s m(u) s 3,3 MeV/c 2
m(e-) = 0,51 MeV/c2
Quark 'down': 3,5 s m(d) s 6,o MeV/c2
no MeV/c2 m(udd) s 15,3 m(n°) = 940
MeV/c2 m(uud) s 12,6 m(p+) = 938
proton ÂU·~
neutron
=hc =197 MeV·fni & 6R(n°, p+) =0,9 fui
AU(u,d)"' .J3 hc, "'380 MeV/ c 2
AR
::::}
6U(p+,n°) ::: 1140 MeV/c2
Conclusion: protons et neutrons sont faits de vide ... Figure 114 : Effets du vide quantique sur les masses des corpuscules.
239
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
Si l'on change d'échelle, le physicien néerlandais Hendrik Casimir découvrit en 1948 qu'une force s'exerce également entre deux miroirs placés dans le vide, car les fluctuations du vide sont modifiées par la présence de la cavité et leur énergie dépend de la distance entre les deux miroirs (Casimir 1948). Le vide exerce donc une force universelle qui attire les deux miroirs l'un vers l'autre. Puisqu'elle est issue du vide quantique, cette force doit donc nécessairement faire intervenir la constante de Planck h et la vitesse de la lumière dans le vide c. Or, il se trouve que le produit de ces deux constantes est homogène au produit d'une énergie par une distance, tandis qu'une pression est une énergie par unité de volume. Si L désigne la distance entre les deux miroirs, on s'attend donc à ce que cette pression du vide varie comme l'inverse de la puissance quatrième de la distance (figure 115). Cette pression de radiation du vide est aussi responsable d'une force de réaction de rayonnement qui tend à s'opposer à tout mouvement du miroir, dès que celui-ci subit une accélération non uniforme. En raison de la conservation de l'énergie, cet effet crée des paires de photons réels directement à partir du vide, chose qui a été effectivement observée en 2011. Ce rayonnement lié au mouvement dans le vide est aussi appelé effet Casimir dynamique ou rayonnement de Casimir (Wilson 2011 ).
Bateaux dans les ports
Attraction mutuelle par exclusion des vagues de grande longueur d'onde entre deux surfaces
Effet Casimir (Exclusion des grosses bulles)
{
(hc]=M·L3 T
2
[p]=M·C' ·r-2
hc
~ poc d'
EffetFulling-Davies-Unruh Le vide rayonne .comme un corps noir...
l
[li lc ) = M-L [r) ,. L·T"'
[k, e] s M·L'·r-'
=> k, -0 ~ li7
c
Figure 115 : Effet Casimir démontrant la réalité des excitations virtuelles du vide quantique.
240
CHAPITRE
V-
L'EAU QUANTIQUE
Ces mêmes fluctuations du vide quantique sont aussi responsables de l'effet Unruh, parfois aussi appelé radiation de Fulling-Davies-Unruh, qui prédit qu'un observateur en mouvement uniformément accéléré verra un environnement plus chaud qu'un observateur placé dans un référentiel d'inertie. En effet, comme le rapport de la constante de Planck et de la vitesse de la lumière est homogène au produit d'une masse par une longueur, on obtient une énergie en le multipliant par une accélération, qu'il suffit alors de transformer en température en divisant par la constante de Boltzmann à un facteur Yzn près (figure 115). Cet effet est à l'origine del' évaporation des trous noirs (radiation de Hawking). On remarquera d'ailleurs que la loi d'émission du corps noir de Max Planck peut être dérivée de manière rigoureuse moyennant la donnée de seulement trois hypothèses : homogénéité du vide, isotropie du vide et invariance de Lorentz de l'énergie du vide (Boyer 1984). Il existe donc une thermodynamique du vide qui coïncide parfaitement avec la thermodynamique des systèmes matériels. L'effet Aharonov-Bohm est un autre exemple spectaculaire des propriétés du vide quantique (figure 116). Dans la théorie physique des champs, les objets mathématiques représentant les champs sont décrits comme pouvant « dériver» d'un potentiel. Les physiciens classiques ont longtemps cru que ces potentiels n'étaient qu'une construction mathématique abstraite utile pour faire certains calculs, mais qui n'avaient aucune existence physique. Or, en 1959, les physiciens Yakir Aharonov et David Bohm proposent une expérience dans laquelle une particule se déplaçant dans un champ électromagnétique nul pourrait être influencée par les potentiels dont dérivent les champs magnétique et électrique correspondants, ce qui signifie que les champs électrique et magnétique seuls ne suffisent pas à décrire ce que nous observons. Ceci découle du fait que le rapport de la constante de Planck h à la charge électrique élémentaire e est homogène soit à un potentiel électrique que multiplie un temps, soit à un potentiel vecteur magnétique que multiplie une distance. En conséquence, tout gradient spatial de phase quantique génère un potentiel vecteur magnétique et réciproquement. De même, toute variation de la phase quantique dans le temps génère un potentiel électrique et vice versa. Les potentiels à l'origine des champs électromagnétiques peuvent donc influencer directement les phases quantiques, même lorsque les champs correspondants sont nuls, fait confirmé expérimentalement en 1986 par le physicien Alcira Tonomura. Il est donc temps de réaliser un renversement de vision consistant à cesser de regarder le vide depuis la matière pour examiner cette dernière depuis le vide ! Si c'est le comportement de la matière à petite échelle qui nous a permis de découvrir les propriétés du vide, il nous faut maintenant admettre que les propriétés de la matière découlent de celles du vide, car la matière est en interaction permanente avec le vide. 241
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
Effet Aharonov-Bohm (1959) Phase quantique: 'P(x ,y,z,t) oc e;"' Yakir Aharonov (1932-)
-..
Potentiel vecteur
:
B=V x Â=>ll.ip=!IJ ·as 11 p
Potentiel scalaire V
q·V·t E = - Vv = o=> ll.ip = - 11
DavidBohm (1917-1992)
Vue de
Champ magn~que
B
B• o Potentiel vecteur A • o
La phase quantique est affectée par les potentiels et non par les champs
Figure 116 : Effet Aharonov-Bohm ou effet des champs électromagnétiques sur la phase quantique.
Spin, rotation et échange Le fait qu'un quantum puisse « manger » du vide et devenir plus massif fait qu'en seconde quantification la masse ne peut plus être utilisée pour identifier un corpuscule, car selon la quantité de vide qu'il aura avalée, il pourra présenter différentes masses. Comment dans ces conditions différencier un quantum de matière d'un quantum de rayonnement puisque le champ est invisible ? Heureusement, il reste le spin et dans une moindre mesure la charge électrique qui peut elle aussi varier. En effet, avoir un spin a signifie que lors de toute rotation spatiale d'angle e, la phase de l'état quantique se trouve additionnée d'une quantité égale au produit de la valeur du spin rapporté au quantum d'action h par l'angle de rotation (figure 117). Cette propriété du spin associée au caractère indiscernable des quanta issus d'un même champ permet d'établir une distinction claire entre quanta de matière et quanta de rayonnement. Ceci provient du fait que dans le cas de deux particules identiques en tout point, une rotation de 21t est équivalente à un échange de position spatiale. Pour vous en convaincre, considérez une paire de clones qui se tiennent la main et, par une rotation de 180° autour de l'axe médian, superposez spatialement le clone A au clone B (figure 117). Comme nous avons affaire 242
CHAPITRE
V-
L'EAU QUANTIQUE
à des clones parfaits dans la paire superposée, il est parfaitement légitime de tourner à nouveau d'un angle égal à 180° pour séparer à nouveau la paire, mais en prenant non pas le clone A, mais le clone B qui était resté immobile. C'est donc maintenant A qui reste à sa place et B qui tourne pour aller occuper la place initialement occupée par A. Ce faisant, les deux clones ont donc échangé leurs positions spatiales respectives et on constate que toute rotation spatiale d'angle 7t + 7t = 27t revient donc à une permutation spatiale de deux clones. Il me faudra donc tourner encore une fois de 27t pour retrouver le clone A à gauche et B à droite comme au départ. En mécanique quantique de seconde quantification, l'opération identité correspond donc à une rotation de 47t et non à une rotation de 27t comme c'est le cas en mécanique classique ou en première quantification. Identité: 0 • o ou 4"
~ o•
270•
l
540•
~
... 90•
360°
;Ir 180° ~
450•
~ 630°
720°
bras humain est un exemple de spineur
Le
M"
Rotation d'angle 0 et spin a
•
lwCOJ> = cos(a·8/bll1P(O)>
11Py> - 111'(0)> + 111'(2..)>
* ~ MA ~~ e .. o: ldentit6
~ ·•
~ (A mut llUl'B)
11P(2")> • OOS(0·2,./b)l1P(O)> 111'(4..)> = C08(0·2"/b)lip{2,.)> 111'(4,.)>= C08'(o•2,./b)l1P(O)> 111'(4")> - 111'(0)> oos'(a·2,./b) • l C08(0·2,./b) - ±1
rttr y
61~ _,.
r. .
q:P>
Albert Einstein (1879-1955)
Boson: cos(a·2,./b) • +1 o • n·h, n • o, 1, 2 . .. 11P(2")> = C08(D•2")1ip{o)> •lljJ(O)> 111',.> • 111'(0)> + l1P{2,.)> • 2·11jJ(O)> - 0 - 0
filectron, quark, neutrino: Photon: a/b • ,....
Figure 117 : En mécanique quantique de seconde quantification, c'est le spin et la charge électrique qui permettent d'identifier les quanta et non la masse qui varie selon la manière dont le corpuscule interagit avec le vide. En raison de/ 'équivalence entre une rotation de 21c et l'échange de position spatiale de deux quanta, le spin ne peut prendre que des valeurs entières (bosons) ou demi-entières (fermions). Pour la même raison, /'identité correspond à une rotation de 47C comme le montre la danse du verre (à gauche) ou la ceinture de Dirac.
Comme le montre la figure 117, il existe plusieurs manières de montrer que l'identité est bien une rotation de 720° et non 360°. Il existe un truc qui était utilisé par Dirac pour expliquer ce fait et qui consiste à prendre une ceinture attachée par sa boucle à un objet fixe. Si l'on prend l'autre extrémité et qu'on la tourne de 360° selon n'importe quel axe, on induit une torsion dans la ceinture qui sera toujours présente tant que l'on ne fera pas une rotation inverse de -360°. Toutefois, si l'on tourne à nouveau dans le même sens, la double torsion obtenue n'est qu'une illusion puisqu'on peut manipuler la ceinture pour la rendre à nouveau plate sans jamais tourner. En fait, le corps humain 243
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
possède lui aussi une telle ceinture : le bras. Pour le comprendre, prenez votre main et posez un objet dessus, un verre par exemple, puis tournez la main de 360°. Vous verrez que votre bras acquiert une torsion. Pour revenir à votre état initial non tordu, faites une deuxième rotation de 360° dans le même sens en passant la main au-dessus de votre tête. Vous êtes bien redevenu identique à vous-même. Ceci étant acquis, le fait que l'on travaille avec des clones parfaits aboutit après une simple rotation de 360° à une situation mentalement distincte mais physiquement rigoureusement équivalente. Si vous préférez, j'aurais très bien pu après la première rotation de 180° amenant le clone A à la même position que le clone B reprendre pour la deuxième rotation le même clone A. Auquel cas la situation obtenue après rotation de 360° est bien celle de départ avec le clone B à droite puisqu'il n'a pas bougé et le clone A à gauche qui a fait sa rotation de 360°. On aurait pu aussi revenir en arrière après la première rotation de 180°, montrant qu'absence de rotation ou rotation de 360° sans échange d'étiquettes sont équivalentes. Mais comment diable savoir s'il y a eu échange d'étiquette entre les deux clones ou pas lorsqu'ils se trouvent ensemble ? La réponse est claire : cela est absolument impossible à partir du moment où l'on a bien deux clones identiques jusque dans les moindres détails. La réponse de la physique quantique à ce sujet est aussi également très claire et tient à sa structure même qui impose une superposition des états concernés dès qu'une même situation physique finale se trouve pouvoir être réalisée selon plusieurs modalités mentalement distinctes. Voyons ce que cela donne pour une rotation de 360° impliquant deux corpuscules parfaitement indiscernables et dont le spin se trouve être un multiple entier du quantum d'action. Si l'on superpose l'état quantique avant rotation de 360° à celui après rotation de 360°, on constate que l'amplitude de probabilité est doublée. On voit donc que le fait de ne pas savoir ce qui se passe lors de la rotation fait que la probabilité d'avoir deux quanta de spin entier dans le même état quantique est quatre fois plus élevée que celle correspondant à un seul quantum. On appelle « boson » tout quantum de spin entier qui se comporte de la sorte. Ceci signifie que les bosons peuvent s'agréger tous sans problèmes dans le même état quantique, un phénomène donnant naissance au laser, à la supraconductivité ou à la superfluidité ainsi qu'à l'eau liquide. L'effet laser, impliquant un rayonnement, fait que l'on attache le caractère « boson » de spin entier à tout ce qui se comporte comme un rayonnement ou comme une force attractive ou répulsive. Le même raisonnement réalisé avec deux corpuscules de spin demientier aboutit à une situation très différente. Ici aussi, on doit superposer l'état quantique avant rotation de 360° à celui après rotation de 360°, mais on trouve ici une amplitude de probabilité nulle. On voit donc que le fait
244
CHAPITRE
V-
L'EAU QUANTIQUE
de ne pas savoir ce qui se passe lors de la rotation fait que la probabilité de trouver deux quanta de spin demi-entier dans le même état quantique est rigoureusement nulle. On appelle « fermion » tout quantum de spin demi-entier qui se comporte de la sorte. Ceci signifie que les fermions ne peuvent contrairement aux bosons s'agréger entre eux et se repoussent donc violemment comme le fait la matière lorsqu'on essaye de les superposer. Pour cette raison, on attache le caractère « fermion » de spin demi-entier à tout ce qui se comporte comme des corpuscules matériels impénétrables. Cette distinction entre matière et rayonnement est donc ancrée au cœur même de la physique quantique dans la valeur du spin qui doit être impérativement spécifiée en plus de la masse et de la charge électrique. Si je connais le spin, je sais si j'ai affaire à du rayonnement ou au contraire à de la matière.
Cohérence Le rôle central joué par le vide en mécanique quantique de seconde quantification doit nous inciter à regarder l'opérateur d'annihilation de seconde quantification d'un petit peu plus près. En effet, c'est lui qui, en détruisant les quanta un à un, nous permet d'atteindre l'état fondamental. Si l'on cherche quels sont les vecteurs propres de cet opérateur, on constate qu'ils possèdent la caractéristique très intéressante d'avoir une phase bien définie. C'est la raison pour laquelle on parle d'états « cohérents ». Ainsi, dans la limite de la matière condensée, où le nombre de quanta devient infini, on trouve que la trajectoire de la mécanique classique donne à chaque instant les valeurs numériques des phases de l'état cohérent dans lequel le système quantique se trouve au moment de l'observation. Dans ces conditions, le champ évolue selon une trajectoire classique autour de laquelle il s'autorise des fluctuations d'amplitude inversement proportionnelle à la racine carrée du nombre de quanta. Il en découle que les états cohérents de l'opérateur annihilation représentent la meilleure approximation quantique de la physique classique. Autrement dit, tout ce que vous voyez autour de vous, et que l'on analyse au moyen des lois de Newton ou de Maxwell, peut aussi s'analyser comme des états cohérents basés sur les vecteurs propres de l'opérateur, annihilation du formalisme de seconde quantification. Avant de montrer le rôle que joue la notion de cohérence pour l'eau, précisons de quoi on parle. Parler de cohérence signifie qu'il existe au moins deux acteurs identiques en tout point et parfaitement non distinguables l'un de l'autre. Cette condition est impérative, car si jamais on peut mettre une étiquette non ambiguë sur l'un ou l'autre acteur, c'est que la décohérence s'est déjà produite et que l'on a affaire à une situation incohérente. Une autre manière de comprendre cela est d'essayer de compter avec une certitude absolue une collection d'objets tous rigoureusement identiques. Si vous
245
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
n'arrivez pas à compter ou que vous faites toujours de grandes erreurs, c'est que vous êtes face à un état à phase cohérente. Si au contraire vous pouvez compter sans erreur, c'est que vous avez affaire à un état à phase incohérente, et c'est précisément parce que les phases sont incohérentes entre elles que l'objet vous apparaît fait de parties séparées. Avoir une cohérence de phase signifie apparaître comme une unité non divisible en parties. Autrement dit, lorsqu'on parle d'un domaine de cohérence constitué de plusieurs objets tous identiques entre eux, la notion même d'objet constitutif perd son sens. La seule réalité que je puisse percevoir de ce domaine est que tout se passe comme si l'on avait pris un seul objet et qu'on l'avait gonflé pour que sa taille soit celle du domaine de cohérence. Ou, si vous préférez, chaque objet possède la taille de tout le domaine, ce qui fait que compter n'a plus aucun sens. Par opposition, une collection d'objets incohérents sera perçue comme un ensemble d'entités indépendantes ayant toutes la même taille et pour obtenir la taille du domaine, il faudra additionner toutes les tailles. Il est en fait assez facile de voir des exemples de domaines de cohérence dans la nature. Les nuées d'étourneaux, les bancs de poissons ou les figures de Chladni fournissent en effet d'excellents exemples de systèmes faits de parties qui se comportent comme un tout (figure 118). Le domaine de cohérence est donc avant tout une structure temporelle et non une structure spatiale, car tout domaine de cohérence implique trois ingrédients : une collection d'objets identiques en mouvement, une fréquence caractéristique et un milieu apte à propager les ondes. Pour les oiseaux, la fréquence est fixée par le battement des ailes et le milieu de propagation des ondes est l'air. Pour les poissons, la fréquence est donnée par le battement des queues et le milieu de propagation des ondes est l'eau. Enfin, pour de simples grains de sable, c'est un générateur qui impose une fréquence de vibration à un support solide. Peu importe l'échelle ou la nature matérielle des choses, car ce qui compte, c'est la phase qui en tant qu'angle est invariant d'échelle et ne possède pas de contenu dimensionnel. Peu importe aussi la nature exacte des ondes mises en jeu, la cohérence pourra émerger à partir du moment où des objets indiscernables les uns des autres peuvent échanger leurs positions respectives. Cela empêche de mettre des étiquettes sur les choses comme on pourrait le faire en cas d'incohérence.
246
CHAPITRE
f = 1225 Hz
V-
L'EAU QUANTIQUE
f = 1450 Hz
•• Figure 118 : Exemples de domaines de cohérence dans la nature. En haut, des nuées d'étourneaux dans le ciel et en bas des figures de Chladni sur une plaque vibrante et des bancs de poissons dans l'eau. L'absence de la constante de Planck dans la relation d'indétermination entre nombre d'entités Net phase rp fait que cette relation, qui se trouve à la base du processus de seconde quantification, est valable à toutes les échelles y compris l'échelle macroscopique. Nous vivons donc dans un monde quantique à toutes les échelles.
Pour que la cohérence émerge, quelque chose doit impérativement accepter de fluctuer. Ainsi, pour les objets macroscopiques, si je découpe l'espace en cellules numérotées pouvant accueillir chacune un oiseau, un poisson ou un grain de sable, ce qui fluctue est le nombre d'entités qui peuvent visiter cette case. Lorsque la cohérence de phase s'installe, chaque case peut être visitée par l'ensemble des entités, ce qui correspond bien à une indétermination maximale. Comme l'indique la relation d'indétermination liant nombre et phase (figure 118), la phase devient bien définie dès que le nombre fluctue. C'est ce que l'on peut clairement voir sur la nuée d'étourneaux, puisqu'à un moment donné, ils vont tous dans la même direction, c'est-à-dire qu'ils possèdent le même angle de phase. Ce qui donne l'aspect saisissant au spectacle, c'est que l'angle de phase change au cours du temps, en raison des variations de température ou de pression de l'air, ou du changement de fréquence du battement des ailes. Il existe une vidéo très instructive sur internet, où l'on voit 32 métronomes, disposés avec ordre (cohérence spatiale) et battant la même cadence (cohérence temporelle) sur un support mobile. L'expérimentateur lance alors les 32 métronomes, mais comme il n'a que deux mains, il est obligé de les 247
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
lancer les uns après les autr.es et non simultanément. Ce faisant, on obtient une véritable cacophonie auditive et visuelle, car chaque métronome, même battant au même rythme que ses voisins, n'est pas parti en même temps qu'eux, ce qui fait qu'il n'arrive pas en bout de course en même temps que les autres. Dans cette situation, on a affaire à une collection d'objets tous parfaitement identiques mais en incohérence de phase, ce qui permet de suivre le mouvement de chacun d'entre eux de manière individuelle. Puis, au cours du temps, il va se passer un phénomène merveilleux, car tous les métronomes partagent le même support qui ne peut aller que dans une seule direction, alors qu'au-dessus de lui, au même moment, certains métronomes vont vers la droite et d'autres vers la gauche en raison de leur incohérence de phase. Intuitivement, on comprend qu'une telle frustration ne peut pas durer car de la quantité de mouvement s'échange en permanence entre les métronomes et leur support commun. Comme toujours en pareille situation, c'est la cohérence qui finit par l'emporter et au bout de quelques minutes une belle harmonie s'impose, car tous les métronomes se sont comme par magie tous synchronisés sur la cohérence faible mais persistante du support.
Domaines de cohérence aqueux (DCs) Rappelons que pour comprendre le comportement de l'eau liquide, il est nécessaire qu'un proton, particule de charge positive, se déplace parmi les molécules d'eau avec un temps de résidence moyen de l'ordre de la picoseconde à T = 300 K qui augmente jusqu'à 20 ps à T = 250 K (Teixeira & al. 1985). Ce mouvement de charge doit donc nécessairement créer un champ électromagnétique ayant une fréquence voisine de 10 12 Hz et il est tacitement admis en première quantification que ce champ « interne » à l'eau car lié à la fluctuation incessante des liaisons hydrogène est de nature locale et complètement incohérente, ce qui provoque sa disparition très rapide par interférences et l'empêche de se manifester à un niveau macroscopique. Ne reste donc que les champs électromagnétiques « externes » à l'eau qu'il est parfaitement légitime de traiter classiquement vu les énergies mises en jeu. Mais que se passerait-il si le champ interne, au lieu de disparaître par interférences comme on le suppose, était de nature cohérente et non incohérente ? De fait, si l'on associe à chaque molécule d'eau quatre liens disposés au sommet d'un tétraèdre, il apparaît alors que si tous ces liens fluctuent en nombre, l'on pourrait alors avoir selon la relation d'indétermination nombre/phase apparition d'une phase commune. En effet, les objets en mouvement seraient les liens qui par leurs fluctuations génèrent des ondes électromagnétiques se propageant dans le vide quantique.
248
CHAPITRE
Incohérence spatiale et temporelle
V-
L'EAU QUANTIQUE
Cohérence spatiale, incohérence temporelle
Cohérence spatiale = même direction Cohérence temporelle = même fréquence Cohérence de phase = même origine Cohérence spatiale, temporelle et de phase
Figure 119: Mise en cohérence d'ondes électromagnétiques dans un vide quantique.
On peut aussi partir de l'exemple des métronomes en remplaçant mentalement chaque métronome par une molécule d'eau et en substituant le vide quantique au support. Ce vide est bien sûr rempli d'ondes incohérentes mais par contre, chaque fois que l'on excite les électrons de la molécule d'eau vers un de ses états d'énergie discrets situés en dessous du seuil d'ionisation, c'est toujours la même fréquence qui est extraite du vide et rendue au vide après relaxation vers l'état fondamental. Imaginons maintenant qu'au lieu de relaxer vers le vide, la molécule d'eau transfère son énergie vers une autre molécule. Comme les deux molécules sont rigoureusement identiques, l'énergie qui a excité l'une pourra exciter l'autre avec un rendement de 1OO %. De plus, en raison de règles de sélections liées à l'opérateur moment dipolaire, les transferts se feront toujours dans la même direction, c'est-à-dire avec cohérence énergétique et spatiale. Il ne reste alors plus qu'à attendre que le temps fasse son travail (comme dans le cas des métronomes), en synchronisant le tout pour faire émerger la cohérence de phase. Pour que tout cela fonctionne, les molécules doivent rester à proximité les unes des autres (énergie de liaison) dans une certaine orientation (directionnalité) en synchronisation avec le vide qui les sépare (dilatation). La figure 119 montre 249
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
quel serait l'état du vide si l'on pouvait voir les ondes électromagnétiques échangées entre les molécules. La situation e~ haut à gauche correspondrait au vide quantique sans molécules d'eau, ceUe de droite au vide physique aqueux perturbé par la présence des molécules d'eau. Au milieu à gauche, il y a eu accordage sur une fréquence commune entre le champ électromagnétique du vide et le champ de matière représenté par son état fondamental et un état excité. Au milieu à droite, les molécules d'eau s'orientent pour maximiser l'efficacité des transferts, ce qui amène la cohérence spatiale. Une fois établie la cohérence spatio-temporelle, la cohérence de phase apparaît spontanément (en bas à gauche). Cette nouvelle conception du vide dans le cadre de la seconde quantification va évidemment profondément bouleverser la vision que nous pouvons avoir de la molécule d'eau. En effet, les propriétés physiques et chimiques des molécules en première quantification sont essentiellement gouvernées par le dernier niveau d'énergie électronique occupé (HOMO) et par le premier niveau d'énergie électronique vide (LUMO). Les autres niveaux d'énergie qui sont non peuplés dans l'état fondamental n'interviennent que lorsque la molécule absorbe ou émet un rayonnement électromagnétique provenant soit du milieu matériel environnant (phénomène de relaxation), soit d'un expérimentateur qui irradie volontairement la molécule par le biais de l'acte spectroscopique. En aucun cas, la molécule ne peut s'exciter ellemême sans l'aide de l'extérieur, car cela violerait le premier principe de la thermodynamique qui interdit la création spontanée d'énergie à partir d'un milieu vide de matière ou de champ. La finitude de la constante de Planck et l'existence de quanta virtuels lèvent bien sûr cette contrainte, car le premier principe ne s'applique qu'à ce qui peut être observé. Or, une particule virtuelle présente la propriété de pouvoir exister pendant un laps de temps inférieur au rapport de la constante de Planck et de l'énergie nécessaire pour sa création sans pouvoir être détectée. Dans ce cas, le premier principe peut très bien être temporairement violé sans changer la réalité concrètement observable. Toute molécule devient donc susceptible d'auto-excitation en absorbant via n'importe lequel de ces niveaux excités, aussi haut en énergie soit-il, un photon virtuel emprunté durant un bref instant au vide. Il n'y a donc plus besoin d'excitation externe pour que la molécule explore à chaque instant la totalité de son spectre d'énergie, depuis les niveaux occupés les plus profonds jusqu'au potentiel d'ionisation de la molécule, voire même au-delà. Bien sûr, plus l'énergie d'auto-excitation mise enjeu sera importante, plus la durée de cette auto-excitation sera courte. Avec ces nouvelles règles du jeu, les propriétés physiques et chimiques deviennent fonction non seulement du spectre d'énergie total (et non plus uniquement de la paire HOMO-LUMO
250
CHAPITRE
V-
L'EAU QUANTIQUE
comme en première quantification), mais également du rapport entre le nombre de molécules total et le volume disponible, c'est-à-dire de la densité du milieu matériel. En effet, le vide avec son océan de particules virtuelles occupant tout l'espace « vide » entre les molécules devient maintenant un partenaire à part entière qui ne peut plus être négligé. Pour fixer les idées, imaginons qu'une molécule d'eau donnée A absorbe à un certain instant un photon virtuel emprunté au vide quantique (figure 120). Ce photon doit nécessairement être tel que le produit de sa fréquence par la constante de Planck soit égal à la différence d'énergie entre l'état fondamental et un certain niveau excité de la molécule d'eau. Selon la relation d'indétermination d'Heisenberg, la durée de vie maximale de cet état excité sera donnée par l'inverse de la fréquence absorbée. Comme il s'agit d'une excitation virtuelle, la molécule peut très bien relaxer vers son état fondamental en réémettant un autre photon virtuel de même énergie que celui qui a été absorbé. Durant son existence éphémère, le photon virtuel peut se propager jusqu'à une distance égale à sa longueur d'onde. Ainsi, pour ..une excitation vers un état situé 12 eV au-dessus de l'état fondamental, le photon virtuel pourra ainsi parcourir une centaine de nanomètres et donc rencontrer sur son chemin, selon la densité du milieu, soit du vide, soit une ou plusieurs autres molécules d'eau. Tout va donc dépendre de la distance moyenne entre deux molécules d'eau et qui correspond en moyenne à la racine cubique de l'inverse de la densité. Si cette distance moyenne est supérieure à la longueur d'onde du photon, les excitations virtuelles ne concernent qu'une molécule isolée et le vide, cas qui correspond à de la vapeur d'eau en équilibre avec un champ électromagnétique interne fluctuant de valeur moyenne nulle. Dans ce cas, le« vide» entre les molécules d'eau n'est plus le vide, mais un état perturbé par la présence de la matière, que j'appellerai« vide physique aqueux». Par contre, si la distance moyenne entre molécules d'eau se trouve être inférieure à la longueur d'onde du photon virtuel, les excitations peuvent prendre un caractère collectif, impliquant plusieurs molécules d'eau pour un même photon virtuel emprunté au vide physique aqueux. Dans ce cas, on aura soit un gaz de van der Waals si les excitations collectives sont incohérentes et déphasées, soit un état condensé si des cohérences de phase apparaissent entre les différentes molécules d'eau impliquées dans l'auto-excitation. S'il y a cohérence de phase, le «vide» entre les molécules d'eau n'est plus le vide physique aqueux, mais un état oil rayonnement et matière sont en cohérence de phase, que j'appellerai« vide Physique cohérent». Pour cet état qui n'est possible que dans le cadre de la seconde quantification, N molécules d'eau auparavant indépendantes adoptent un mouvement collectif piloté par la création/destruction incessante de photons virtuels empruntés à l'espace vide qui les sépare et qui assure que les phases du champ de matière et celles du 251
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
champ électromagnétique piégé restent constamment rivées l'une à l'autre. Ce bloc de N molécules soudées par un champ électromagnétique sur une échelle de taille donnée par la longueur d'onde de l'auto-excitation s'appelle un domaine de cohérence. État excité a'q(t)·aq(t) Bq= 12.07 eV (10%) : 15d(O)>
s"
~
Il
~ ~ 4)
·Si
13 ~
:\
·:a0=
e .,0 8
~ ~ 4)
'O
~Q.
~
'4)
bQ
;;::'·
è"'of ·..,80"
~
~~
Q.
t'
IP
4)
~
p$ \ . "'· ort:I.
.Ë ;..
HOMO
Figure 120 : Mise en cohérence de la molécule d'eau par interaction avec des photons virtuels en provenance du vide quantique. Maintenant, au lieu d'utiliser comme base de description quantique les vecteurs propres de l'opérateur position de la représentation de Schrôdinger (fonctions d'onde) ou ceux de l'opérateur hamiltonien (matrices) dans la représentation de Heisenberg comme en première quantification, on peut utiliser la représentation « cohérente » basée sur les vecteurs propres de l'opérateur annihilation. Ce faisant, il devient possible de décrire des états dont la cohérence quantique se manifeste à une échelle macroscopique et non plus microscopique (Preparata 2002). Il suffit alors d'appliquer le formalisme de l'intégrale des chemins dans le cadre d'une représentation cohérente des champs quantiques associés aux niveaux d'énergie d'une molécule donnée d'une part et au rayonnement électromagnétique d'autre part. On aboutit ainsi pour chaque niveau d'énergie décrivant la matière à trois équations de cohérence où interviennent deux constantes de couplage, qui dans l'approximation dipolaire sont fonction des forces d'oscillation associées respectivement aux transitions discrètes entre l'état fondamental et l'état excité concerné ainsi qu'aux transitions vers le continuum énergétique de la molécule (Arani & al. 1995, Bono & al. 2012). Si l'on néglige la dépendance spatiale des champs de matière et du champ électromagnétique piégé dans un domaine de cohérence, la première équation de cohérence est du premier ordre et décrit l'absorption d'un photon virtuel d'énergie en provenance du vide physique par une molécule dans son état fondamental provoquant son excitation vers un état discret avec un facteur de pondération dépendant de la force d'oscillation de la transition et de la fréquence associée (figure 120). 252
CHAPITRE
V-
L'EAU QUANTIQUE
La deuxième équation de cohérence, qui est également du premier ordre, décrit l'émission d'un photon virtuel depuis l'état excité discret vers le vide physique et qui ramène la molécule dans son état fondamental avec évidemment le même facteur de pondération que précédemment. La troisième équation est quant à elle du deuxième ordre et décrit l'état du champ électromagnétique fluctuant du vide perturbé par la présence des molécules d'eau dans leur état fondamental (même facteur de pondération) auquel s'additionne le champ électromagnétique créé par le courant électronique circulant entre les deux niveaux couplés soit via des transitions directes, soit de manière indirecte via le continuum d'énergie. Ces dernières transitions indirectes sont donc affectées d'un facteur de pondération intégral car dépendant de la force d'oscillation avec l'ensemble du continuum. Ainsi, partant d'une configuration initiale où toutes les molécules d'eau sont dans leur état fondamental (vapeur d'eau) et où le champ électromagnétique est lui dans son état fondamental (vide physique aqueux), on peut par différentiation par rapport au temps obtenirune équation du troisième ordre pour l'amplitude du champ électromagnétique couplant matière et vide quantique. La recherche d'un état stationnaire pour ce champ électromagnétique interne à l'eau conduit à considérer une équation du troisième ordre. Si cette équation possède trois racines réelles, ce qui dépendra des valeurs relatives des forces d'oscillation, l'amplitude du champ variera de manière sinusoïdale, décrivant un état où le vide physique est stable, c'est-à-dire où le champ interne fluctue autour de sa valeur initiale. Si par contre il n'existe qu'une seule racine réelle, cela entraîne l'existence de deux autres racines complexes conjuguées l'une de l'autre, ce qui déstabilise le vide physique aqueux. En effet, dans ce cas, l'amplitude du champ électromagnétique interne peut croître de manière exponentielle jusqu'à atteindre une valeur macroscopique. Cette avalanche de photons virtuels est très similaire à ce qui se produit dans un laser, sauf qu'ici c'est le vide quantique qui fournit l'énergie nécessaire pour quitter le vide physique et se retrouver dans le vide cohérent où matière et champ électromagnétique oscillent avec la même phase. On notera que contrairement aux lasers qui utilisent une inversion de population afin d'obtenir des photons réels capables de sortir de la cavité résonnante où ils ont été créés, les photons associés au champ interne de l'eau restent eux virtuels car piégés dans le domaine de cohérence qui leur a donné naissance. Ces photons virtuels ne se manifestent donc pas comme un rayonnement cohérent comme avec un laser optique ou un maser radio, mais plutôt comme une énergie de liaison entre les molécules d'eau. Il s'agit bien sûr de la fameuse liaison hydrogène des chimistes et des biologistes qui apparaît ici sous sa vraie nature, c'est-à-dire comme une énergie de condensation trouvant son origine dans le vide physique aqueux et obligeant les molécules
253
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
à rester proches les unes des autres afin de maintenir en permanence une
cohérence de phase quantique avec un champ électromagnétique interne de valeur moyenne non nulle. Comme le phénomène est en fait très général et non spécifique à la molécule d'eau, il conviendrait d'utiliser le terme « liaison de cohérence » plutôt que le terme « liaison hydrogène ». On comprend donc ici très bien tous les problèmes rencontrés en physique classique ou en première quantification pour comprendre les propriétés de l'eau liquide à partir de l'hypothèse que l'énergie du vide est nulle. Comme on refuse de considérer le vide et sa structure quantique virtuelle, on est obligé d'introduire un concept ad hoc, la liaison hydrogène, pour rendre compte des observations expérimentales. En prenant explicitement en compte la structure vibratoire du vide quantique, il n'y a plus besoin de faire une telle hypothèse et l'eau redevient un liquide parfaitement normal qui se distingue des autres simplement par le fait que le niveau d'énergie qui donne naissance par autoexcitation au liquide conduit à un gap de cohérence relativement profond. De plus, comme la cohérence de phase ne peut être maintenue qu'au prix de créations et d'~nnihilations incessantes de photons virtuels, on explique très bien que ces associations entre molécules d'eau à l'état liquide ne peuvent être que très fugaces et fluctuantes comme on l'observe bien expérimentalement par diffusion des neutrons.
Lo liaison de cohérence D'un point de vue quantitatif, la résolution des trois équations de cohérence conduit à trois paramètres, une fois connues les forces d'oscillation électromagnétiques de la molécule d'eau. Le premier paramètre est l'angle de mélange entre l'état fondamental de la molécule d'eau et l'état excité atteint par absorption d'un photon virtuel en provenance du vide physique aqueux. Le deuxième paramètre est l'amplitude finaleA 0 du champ électromagnétique piégé. Le dernier paramètre est le gap énergétique de cohérence qui s'exprime comme la somme de trois termes : l'énergie empruntée au vide physique et stockée dans le champ électromagnétique (terme positif), l'énergie empruntée au vide physique et utilisée pour exciter la molécule d'eau vers un état discret (terme positif) et l'énergie de couplage entre le champ et les courants électroniques circulant dans la matière (terme négatif).
254
CHAPITRE
V-
L'EAU QUANTIQUE
~
0 ,25
~QI ........
25
20
...ge-
15
.cl
0 ,15
s:I 0
·~
..
F.3u
0,10
10
~
8...
0
0
~ Q,
~
0
i:i:.
s:I 0
situé à 12,07 eV au-dessus de l'état fondamental (figure 121) avec un gap de cohérence de 0,16 eV, un angle de mélange de 18° et une amplitude A0 ::::: 20 mT. L'eau cohérente apparaît donc comme un état quantique superposé avec une probabilité de 90 % pour un électron d'être dans l'état fondamental prévu par la première quantification et une probabilité de 10 % de se trouver localisé sur une orbitale 5d de l'atome d'oxygène. Ces orbitales 5d sont bien sûr beaucoup plus diffuses que les orbitales moléculaires de la molécule d'eau, ce qui fait que les molécules d'eau au sein d'un domaine de cohérence sont plus volumineuses (rayon de l'ordre de 1,5 À) que celles d'une eau incohérente 256
CHAPITRE
V-
L'EAU QUANTIQUE
(rayon de l'ordre de 1,1 A). On remarquera également que parmi les cinq orbitales d, un couple (z2 et x2-y2) se transforme comme la représentation complètement symétrique a 1 du groupe C2v et peut donc se mélanger avec les deux orbitales moléculaires (2a 1 et 3a1) impliquées dans la formation des liaisons covalentes 0-H et/ou des paires non liantes (figure 122). Avec quatre niveaux de symétrie a 1 impliqués, on s'attend donc à un arrangement spatial des molécules d'eau plus ou moins tétraédrique afin de minimiser les répulsions électroniques. La structure tétraédrique de la glace ou de l'eau liquide découle naturellement de cet état de fait et rend parfaitement compte de la non-participation de la HOMO 1b1 aux liaisons de cohérence (Del Giudice & al. 1995). sd(O) = 12,07 eV
Eau incohérente HOMO ltb,> état-p 8E = o,16eV
Eau cohérente o,9!1b1> + o,1lsd(O)> état mixte-(p,d)
Figure 122 : Changement de taille et de forme de la molécule d'eau suite à sa participation à la formation d'un domaine de cohérence stabilisé par rayonnement infrarouge compte tenu de la valeur du gap de cohérence.
Pour ce qui concerne les domaines de cohérence eux-mêmes, on peut les modéliser comme des sphères d'un certain rayon emprisonnant un champ électromagnétique interne non nul. Pour toute molécule d'eau à l'intérieur d'une telle sphère, le fort couplage entre le champ interne et les molécules d'eau réduit la fréquence d'excitation vers une nouvelle fréquence signifiant que l'interface vide/matière se comporte comme un miroir parfaitement réfléchissant pour le champ interne. Cette renormalisation de la fréquence d'excitation empêche le champ de rayonner à l'extérieur du domaine de cohérence où il se propagerait avec la fréquence d'excitation. Comme on peut le voir sur la figure 123, l'empilement compact des domaines de cohérence avec une distance minimale inter-domaines conduit à une superposition du champ interne piégé et des parties évanescentes entre domaines voisins. À l'extérieur du domaine de cohérence, le champ électromagnétique est libre et doit donc avoir une amplitude obéissant à l'équation de Poisson. En imposant une continuité du champ en amplitude et pour la dérivée première entre le champ interne et celui externe qui décroît de manière exponentielle, on trouve que le champ passe par une valeur minimale entre deux domaines de cohérence pour un rayon inversement proportionnel à la fréquence d'excitation (figure 123). 257
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
R.ec:ouvremenc
&B • 0,16eV f • 3,9'10 11 Hz
0.1
entre deux OC.
0.1
A. • 7,7,.m
~ o~
~ µr = 1 + X.,, => B = µr µ 0 • H = µ H, où x.,, et µr sont des nombres sans dimension caractérisant le comportement magnétique d'une substance matérielle appelés respectivement susceptibilité magnétique et perméabilité magnétique relative. Contenu dimensionnel [Q 1' 1 L- 1], Unité SI= A m- 1• Charge électrique Q : quantité physique qui peut être positive ou négative et susceptible de produire des champs électriques ou magnétiques. L'unité internationale de charge électrique est le coulomb (C) en honneur au physicien français Charles de Coulomb (1736-1806) qui trouva que deux charges électriques s'attirent ou se repoussent selon le produit des charges que divise le carré de la distance qui les séparent. Produit de la capacitance C par le potentiel électrique V (Q = CV).
312
ANNEXE TECHNIQUE
Coefficient de dilatation thermique isobare a,. , coefficient gouvernant la variation de volume V à pression p constante suite à une augmentation ou une diminution de température 0 : V a,.= (8V/80)P. Pour un système à l'équilibre, mesure les fluctuations croisées d'entropie et de volume = kB 0 V a,.. Complexe (nombre) : nombre bidimensionnel, généralement noté z, qui peut être considéré comme une flèche de longueur r pointant dans une direction donnée du plan et faisant un angle de phase 0 avec l'axe des abscisses, x, qualifié de réel. L'axe des ordonnées est pour sa part qualifié d'imaginaire car la projection de la flèche le long de cet axe se trouve affectée d'un nombre i, ayant la propriété étrange de devenir son opposé lorsqu'on le multiplie par lui-même : i x i = i2 = -1. On a donc l'équivalence suivante : z = x + i y= r exp(i·0), puisque x = r cos 0 et y= r sin 0. En fait, le choix du terme « imaginaire » fait par les mathématiciens au xvme siècle est très malheureux, car le nombre i (pour imaginaire) représente en fait une chose bien réelle, à savoir une rotation de l'axe réel de 90° dans le sens inverse des aiguilles d'une montre. De fait, si j'effectue deux fois une telle rotation, je me retrouve à nouveau sur l'axe réel mais avec un signe opposé puisque l'axe se trouve maintenant orienté vers la gauche s'il était orienté vers la droite avant rotation. Donc, si d'aventure vous voyez un nombre complexe quelque part, l'image qui doit vous venir en tête sera celle du cercle, alors que si vous voyez un nombre réel, ce dernier symbolise une droite. Ceci étant acquis, il devrait être facile de comprendre que la physique classique qui ne considère que des nombres réels est un mode de pensée typiquement occidental où l'on s'obstine à vouloir tout analyser en termes de droites. Bref, au lieu de prendre le monde tel qu'il est, on cherche à le rectifier, ou si vous préférez on l'empêche de s'exprimer dans une direction orthogonale. C'est la raison pour laquelle ce mode de pensée classique est une aberration purement intellectuelle qui marche à une certaine échelle et échoue lamentablement dès que l'on va vers l'infiniment grand ou l'infiniment petit. Par opposition, en physique quantique et en physique relativiste, on s'autorise à penser en cercles et non en droite. Ces deux théories peuvent donc a priori s'appliquer à toutes les échelles.
313
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
ei"l =
cos q + i·sin q j2
eO =eï·:vt = 1 = eï·n/2.ei-1 B, = 1 + x., => D = B, B0 • E = B E, où x., et B, sont des nombres sans dimension caractérisant le comportement diélectrique d'une substance matérielle appelés respectivement susceptibilité diélectrique et constante diélectrique relative. Contenu dimensionnel [Q L-2], Unité SI = C m-2 • Densité de flux ou induction magnétique B : pseudo-vecteur pouvant varier
dans le temps et existant en tout point de l'espace, y compris en l'absence de matière. Toute densité de flux magnétique exerce une force f sur toute charge électrique q se déplaçant avec une vitesse v: f = q v B sin 0 où 0 est l'angle entre le vecteur v et le pseudo-vecteur B. Contenu dimensionnel [M T 1 Q- 1], Unité SI = tesla (T). Diamagnétisme : propriété de la matière qui provoque une raréfaction des lignes de champ magnétique en raison d'une perméabilité magnétique relative inférieure à celle du vide (µ, < 1). Dulong et Petit (loi de) : loi empirique énoncée par les physiciens français Pierre Louis Dulong (1785-1838) et Alexis Thérèse Petit (1791-1820) stipulant que le produit de la masse molaire par la chaleur spécifique des solides est à peu près constant. Le chimiste italien Stanislao Cannizzaro (1826-1910) utilisera cette loi de manière intensive afin d'établirun ensemble de poids atomiques cohérents entre eux qui n'est valable toutefois que pour des températures suffisamment hautes.
Eau juvénile: eau terrestre qui n'existe que sous forme hydroxylée Mg-OH,
Fe-OH ou Si-OH au sein des pores de roches de type (Mg,Fe) 2Si04• La surface terrestre à sa naissance était donc parfaitement« sèche» et il n'y avait encore aucune atmosphère. Cette forme d'eau pétrifiée, sous la forme de minéraux de type wadsleyite ou de ringwoodite, existe toujours au sein de la zone de transition entre le manteau supérieur et inférieur terrestre situé à une profondeur allant de 410 à 660 km. Très récemment, beaucoup de sites internet ont ainsi évoqué la présence d'une« masse d'eau» sous nos pieds équivalente à près de trois fois la quantité d'eau dans tous les océans réunis. Ce chiffre est douteux, car si l'on suppose une densité de 3,3 g cm-3 pour le manteau supérieur, la masse de roche comprise entre une profondeur allant de 410 km à 660 km est de l'ordre de 320
ANNEXE TECHNIQUE
3 102 1 kg. Si l'on admet un taux d'hydratation des roches de 1,5 pds % retenu dans l'article original, on trouve une masse d'eau de 4,5 1019 kg, soit à peine 3 % de la masse d'eau terrestre. On a vu ainsi fleurir sur le net de belles images évoquant des océans souterrains parfaitement inexistants. Il s'agit en fait d'une eau existant à l'état potentiel, et ne pouvant apparaître sous forme 8i0 vapeur que lors de la disparition des pores lors de la fusion de ces roches poreuses. Fermeture des pores selon la réaction : M-OH + HO-M - M-0-M + HPî, avec M = Mg, Fe ou Si.
Eau primordiale : la molécule d'eau Hp ne peut pas exister en tant que telle dans le vide interstellaire, où elle se trouve complètement dissociée en deux atomes d'hydrogène et un atome d'oxygène. Toutefois, en présence de poussières, un atome d'oxygène peut s'unir à un atome d'hydrogène pour former le radical •OH. Ce radical •OH peut à nouveau réagir avec un autre atome d'hydrogène pour former ce que l'on appelle de l'eau primordiale. Vu le froid intense qui règne dans l'espace, cette eau primordiale ne peut exister qu'à l'état solide sous forme de glace amorphe (LDA, HOA, VHDA), enfouie au plus profond des comètes. L'eau peut également entrer en réaction avec les ions métalliques présents dans les roches sous forme d'oxydes pour former des roches poreuses emprisonnant les gaz primordiaux. Selon la réaction : M-0-M + Hp - M-OH + HO-M. Les gaz piégés dans les pores sont essentiellement de l'hydrogène, des gaz nobles comme l'hélium (He), le néon (Ne), l'argon (Ar), le krypton (Kr) ou le xénon (Xe) ainsi que du diazote N 2 ou du dioxyde de carbone C02 • Les groupements hydroxyles M-OH formés lors de cette hydratation intime des roches permettent ainsi à l'eau de traverser les espaces sidéraux intergalactiques sous forme de météorites. Les principaux cations métalliques transporteurs d'eau entre les galaxies, les étoiles et les planètes sont le magnésium (Mg2+), le fer (Fe 2+) ou le silicium (Si4+) interagissant au sein d'une roche météoritique de formule brute (Mg,Fe)2Si04 existant sous trois principales formes cristallines : olivine, wadsleyite et ringwoodite. Si les olivines, formes basse pression, ne s'hydratent pas au-delà de 1 pds %, la wadsleyite (pauvre en magnésium) ou la ringwoodite (riche en magnésium), formes haute pression, peuvent contenir jusqu'à 3 pds % d'eau dans leurs pores. Échelle de Planck : considérons une fluctuation du vide d'énergie AE = ~ c 2 sur une région d'extension spatiale AR = c At. Pour qu'une telle masse devienne observable, il faut que la condition AE At ~ h/2 soit satisfaite, soit Am ~ h/(2c AR). Exigeons maintenant que cette même masse Am ne soit pas un trou noir, ce qui impose une extension spatiale supérieure au rayon de Schwarzschild associé, soit AR~ 2G Am/c 2, ou de manière équivalente Am :5 c2 AR/2G. Toute masse observable dans l'univers doit donc satisfaire à la double inégalité h/(2c AR) :5 Am :5 c2 AR/2G. Ce raisonnement montre qu'il sera physiquement impossible de distinguer entre vide et trou noir dès que
321
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE REVOLUTION DE LA MÉDECINE
h/(2c·~R)
= c2 ~R/2G, soit (~R) 2 = LP 2 = h G/c 3 (LP ~ 1,7 10·35 m). L'échelle de temps associée à une telle longueur est bien sûr 1r2 = L//c 2 = h G/c 5, soit 1r ~ 5,5 I0-44 s. La masse associée s'obtient en écrivant MP = 2 ~m = h/(c LP)= LPc 2/G, d'oùM/=hc/G, soitMP~22 µg. Enfin, la charge électrique s'obtient en écrivant que QP2/(4m:0 LP) = MP c 2, d'où Q/ = 4m;0 h c = e2/a, soit QP ~ 1,9 aC. La taille de Planck LP et le temps de Planck 1r fixent respectivement l'échelle spatiale et temporelle à partir de laquelle il devient impossible de distinguer entre du vide ne contenant aucune matière et un trou noir infiniment massif. La masse de Planck est la masse maximale que pourra avoir une particule élémentaire pour ne pas être un trou noir. Enfin, la charge de Planck QP est la charge électrique maximale que peut posséder une particule élémentaire, au-delà de laquelle elle devient un trou noir.
Eau« para»: la mécanique quantique impose que la fonction d'onde totale de la molécule d'eau soit antisymétrique lors de la permutation des deux atomes d'hydrogène en raison du spin demi-entier 1 = h/2 des noyaux des deux atomes d'hydrogène. Or, il se trouve que les états quantiques de spin total 1 = h/2 - h/2 = 0 (singulet de spin) sont antisymétriques par rapport à la permutation des deux atomes d'hydrogène puisque la projection des deux moments pointe dans des directions opposées. Il en découle que tous les états quantiques ayant des fonctions d'onde rotationnelles de type antisymétrique, c'est-à-dire où la somme (K. + K 0 + v 3) est impaire, ne peuvent décrire correctement les états singulets car ils conduiraient de nouveau à une fonction d'onde totalement symétrique. -1= A BC/ ' , cm
h-10-2 2
8.n; c·/ A.B.c
2, 7993·10~
I A.B.c I kg·m
2
Énergie/ cnr'IJ K K > (v = o) ' a' c 3 - 285,21933 1331 >
200
-206,301401322> _142 ,27846 1313 > - 136,16390 220 >
1OO -
Figure 149
Eau "para" singulet de spin K a + Kc + v3 pair
95,17591 1211 > -70,09079 1202 > -
0
37,13711 1111>
-01000>
Eau« ortho »:la mécanique quantique impose que la fonction d'onde totale de la molécule d'eau soit antisymétrique lors de la permutation des deux atomes d'hydrogène en raison du spin demi-entier 1 = h/2 des noyaux des deux atomes d'hydrogène. Or il se trouve que les états quantiques de spin total 1 = h = h/2 + h/2 (triplets de spin) sont symétriques par rapport à la 322
ANNEXE TECHNIQUE
permutation des deux atomes d'hydrogène puisque la projection des deux moments pointe dans la même direction. L'eau de type « ortho » correspond à une situation où les deux spins li/2 portés par les atomes d'hydrogène s'ajoutent pour donner un état quantique de spin nucléaire total 1=li (triplet de spin avec trois états m5 = 0 ou ±li). Il en découle que tous les états quantiques ayant des fonctions d'onde rotationnelles de type symétrique, c'est-à-dire où la somme (K. + Kc + v3) est paire, ne peuvent décrire les états triplets car ils conduiraient à une fonction d'onde totalement symétrique. Énergie/ cnr• IJ ,K.,K.> (v3 = o) _1 -285,418581330 > A,B,C /cm =
200
-
h·I0-2 8.7r
2 •
C f A. B.C
2, 7993·10-46 I A.n.c / kg·m2
212,15636 1321>
-173,36580 1312> _136,76166 1303 > 134,90163 1221>
100
- 79,49639 1212> -
0
42,37174 1110> 23 ,79436 1101> Figure 150
Eau "mtho" tripler de spin Ka + Kc + v3 impair
Efficacité lumineuse K : rapport entre le flux lumineux mesuré en lumen (lm) et le flux d'énergie mesuré en watts (W). Le maximum de sensibilité de l'œil humain se situant dans le vert-jaune pour une fréquence de 540 THz (soit une longueur d'onde de 555 nm), on fixe que K(540 THz) = 683 lm W- 1• Électron: particule élémentaire de masse me= 9,109 382 91(40) 10-31 kg et de charge électrique -e = -1,602 176 565(35) 10-19 C s'associant aux protons dans un atome. L'électron semble ne pas avoir de taille propre et se trouve être la particule quantique par excellence. L'électron fut découvert par le physicien anglais Joseph John Thomson ( 1856-1940) qui montra en 1897 que les rayons cathodiques émis par les tubes de Crookes (voir rayons X) étaient déviés par un champ électrique. Cela signifiait que les atomes contenaient des corpuscules de charge négative 1 800 fois plus légers que l'atome d'hydrogène. Suite aux travaux antérieurs du physicien irlandais George Johnstone Stoney (1826-1911) qui avait désigné dès 1874 par le terme électron l'atome d'électricité, ces nouveaux corpuscules furent identifiés aux électrons responsables des phénomènes électriques. Thomson pensait que ces corpuscules étaient émis par les atomes de gaz résiduels restant dans le tube. Il en conclut que les atomes étaient divisibles, et pour expliquer la neutralité électrique de l'atome, il proposa que les électrons se déplacent dans une mer uniforme de charges positives, donnant naissance au modèle du plum 323
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
pudding. Les électrons étaient ainsi libres de tourner dans le gel ou nuage de substance positive. Ces orbites étaient stabilisées dans le modèle par le fait que lorsqu'un électron se déplaçait loin du centre du nuage de matière positive, il était« rattrapé »par une force d'attraction positive, car il y aurait plus de matériau de charge opposé dans son orbite en accord avec le théorème de Gauss.
~
William Crookes (1832-1919)
Joseph John Thomson (1856-1940) ~ Figure 151
ELF (ondes) : acronyme pour Extremely Low Frequency, signifiant onde à fréquence extrêmement basse, c'est-à-dire typiquement inférieure à 1 000 Hz. Énergie cinétique : l'énergie cinétique Uc se définit comme l'intégrale de la différentielle dU = m v dv depuis v = 0 jusqu'à la vitesse v =V, soit Ve= Ylm V2. Si p = m V est la quantité de mouvement, on peut aussi écrire que Uc = Y2 p2/m. Énergie interne : somme U de produits entre une grandeur extensive comme l'entropie S, le volume total V, l'aire totale A, la charge électrique totale Q, le moment dipolaire total d'origine électrique pe ou magnétique m, la masse totale M ainsi que le nombre de particules total (n1, n2, ... ), et une autre grandeur dite conjuguée car intensive comme la pression p, l'énergie interfaciale y, le potentiel électrique so =NA~ ln(3/2) = 3,371 J mol- 1 K- 1• GIAUQUE, W. F. ; STOUT, J. W. ( 1936), «The entropy of water and the third law ofthennodynamics. The heat capacity of ice from 15 to 273 K », J. Am. Chem. Soc., 58 : 1144-1150.
Épistémologie : le mot« épistémologie »a été forgé en 1856 par le philosophe
écossais James Frederik Ferrier (1808-1864) en combinant les notions de se tenir debout (histasthai en grec), d'être au-dessus (épi en grec) et de raison (logos en grec). Le caractère commun à tout énoncé d'ordre épistémologique est la non-réversibilité des choses car si A => B on ne peut que déduire que Ac B, d'où une relation d'inégalité ou d'indétermination. Le second principe de la thermodynamique, dS 2'. 0, énoncé par Rudolf Clausius, est un bon exemple d'énoncé à caractère épistémologique. Équations de Maxwell (électromagnétisme) : théorie qui unifie les lois de l'électricité, du magnétisme et de l'optique avancée en 1864 par le physicien écossais James Clerk Maxwell ( 1831-1879). Maxwell traduisit les idées intuitives de Faraday en équations, les lignes et les boucles de Faraday devenant le champ électrique et le champ magnétique obéissant à un système de 20 équations à 20 variables de champs (6 champs vectoriels et 2 champs scalaires).
Si l'on se place dans le vide avec le champ électrique E orienté selon l'axe y et l'induction magnétique B orientée selon la direction z, il ne reste que deux équations sur les 20 de départ. La première équation traduit la loi d'induction de Faraday et impose que le gradient spatial du champ électrique soit l'opposé du taux de variation dans le temps de l'induction magnétique B (dE = -v dB, avec v = dx/dt). La deuxième équation a été« devinée» par Maxwell par analogie avec la première et il posa donc que le gradient spatial de l'induction magnétique soit l'opposé du taux de variation dans le temps du champ électrique (dB= -e0 ·µ 0 v dE, avec v = dx/dt). Grâce à ce couplage astucieux, Maxwell put écrire : dE = -v dB = -e0 µ0 v2 dE, soit e0 µ0 v2 = 1. Lorsqu'il calcula cette vitesse v en injectant des valeurs numériques pour e0 et µ 0 , il fut très surpris de trouver v ::::: c ::::: 0,3 Gm s- 1, vitesse de la lumière dans le vide mesurée avec précision vers le milieu du x1x• siècle par les physiciens français Hippolyte Fizeau (1819-1896) et Léon Foucault (18191868). Il écrivit alors le gradient spatial du taux de variation dans le temps de B soit à partir de la relation Faraday : d2B/(dx·dt) = -v d2E/dx 2, soit à partir 326
ANNEXE TECHNIQUE
de sa nouvelle relation : d2B/(dx dt)= -E0 µ 0 v d2E/dt2• En égalant ces deux expressions, il trouva avec satisfaction que d2E/dx2 = (1/c 2)'(d2E/dt2), ayant comme solution une onde monochromatique E(x,t) = E0 sin(k x - m·t + cp) avec k = ±m/c se propageant avec une vitesse de phase c = m/k selon ±z. Maxwell nota aussi que le produit du champ électrique E par le champ magnétique H était homogène à un flux d'énergie par unité d'aire et de temps (d3U/dz2 dt= [M T 3] = E·H). Ceci signifiait que la lumière était une onde transversale de nature électromagnétique émise dès qu'une charge électrique se trouve accélérée ou ralentie. Par superposition d'ondes monochromatiques, on peut définir des paquets d'onde ayant une étendue spatiale autour d'un maximum qui se propage avec une vitesse de groupe v égale au taux de variation de la pulsation men fonction du nombre d'onde Dans la matière, l'onde acquiert une vitesse de phase vp < c d'autant plus lente que l'indice de réfraction n est plus élevé.
k.
Accélération de charges électriques Y Champ électromagnétique Faraday
dE dB dt dx 1 dE dB -=--·dx c 2 dt
Vecteur d'onde k= 2X/À
X
Maxwell
Période T .. Fréquence v = 1/T (Hz) Pulsation Ct> = 2:n:·v Impédance du vide e0 ·µ 0 ·c2 = 1 => Z0 = µ 0 ·c =
IEI =c·IBI
c = 299 792 458 m·s-•
{& = - 1-
ve:
:::; J20 ·n Q
E:'o'C
.....,__
_
Vitesse de groupe v, • dw/dk Flux d'énergie
Indice de réfraction n c c d(n·m ) n= - =>- = - vP v8 dm
Flux d'amplitude u(J·m.,) = 'h(e0 E' + B•/µ.) = e0 E• = B' /µ 0
Figure 152
Équation de van der Waals : pour un gaz parfait, cas considéré par Maxwell et Clausius, les atomes n'avaient aucun volume propre et se comportaient comme des boules de billard impénétrables et non déformables. Le physicien hollandais Johannes Diderick van der Waals (1837-1923) réalisa que des gaz réels occupaient un certain volume et que les atomes pouvaient interagir les uns avec les autres en s'attirant au moyen de forces électriques. Il modifia donc l'équation des gaz parfaits de la manière suivante : (p + a/V2)'(V - b) = RT où le paramètre a dépend de la nature des forces interatomiques et où le paramètre b rend compte du volume propre de chaque atome (van der Waals 1873). Si Loschmidt donna le premier un ordre de grandeur du nombre 327
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
d'Avogadro en 1865, on put grâce à l'équation de van der Waals avoir une idée du volume occupé par une molécule, ce qui permit d'estimer le nombre d' Avogadro à 111023 au moyen de la théorie cinétique des gaz (Becker 2001). BECKER, P. (2001), « History and progress in the accurate detennination of the Avogadro constant», Rep. Prog. Phys., 64: 1945-2008. VAN DER WAALS, J. D. ( 1873), « Over de Continuiteit van den Gas- en Vloeistoftoestand (on the continuity of the gas and liquid state) »,Thèse, Leiden, Pays-Bas, p. 55-56.
Équivalence relativiste : si la vitesse de la lumière dans le vide c prend la même valeur universelle pour tous les observateurs quels que soient leurs états de mouvement relatifs, alors on peut choisir un système d'unités de mesure tel que c = L T' = 1. L'équivalence entre les notions de temps et d'espace (L = T) en découle logiquement. De même, la quantité de mouvement p =ML T' étant homogène au produit d'une masse M par une vitesse (L T 1), il vient que p =M. Or, l'énergie U = M L2 T 2 est homogène à une quantité de mouvement (ML T') que multiplie une vitesse (L T 1), d'où U = p = M. Enfin, un champ électrique E (M L2 T' Q·') étant homogène au produit d'un champ magnétique B (ML Q· 1) par une vitesse v (L T'), il vient aussi que E = B. On notera toutefois que l'équivalence entre électricité et magnétisme est de type réciproque au niveau des grandeurs, puisque la théorie de Maxwell impose que, dans le vide, E 0 µ 0 c2 = 1. Mais, si c = 1, alors E 0 µ 0 = 1 signifiant qu'électricité et magnétisme fonctionnent à l'inverse l'un de l'autre. Ceci explique qu'il existe deux systèmes d'unités de mesure, l'un où l'on pose E 0 = 1, ce qui fixe µ 0 (système UES) et l'autre où l'on pose µ 0 = 1, ce qui fixe E0 (système UEM). Mais à l'inverse, si je choisis un système tel que E0 µ 0 = 1, alors c2 = 1, soit c = c· 1. Il est donc clair que la constance de la vitesse de la lumière pour tout observateur a quelque chose à voir avec la symétrie par inversion. Espace L : unité SI= mètre (m). L'espace de la physique est à trois dimensions car tout objet possède une longueur, une largeur et une hauteur. Pour les vecteurs, l'espace est ce qui permet de définir une direction en plus d'une grandeur. Espace de Fock : empilement infini d'espaces de Hilbert nécessaire au formalisme de seconde quantification de la théorie quantique des champs. Espace de Hilbert : afin d'asseoir la rigueur mathématique du problème aux valeurs propres des matrices hermitiques, les mathématiciens allemands David Hilbert (1862-1943) et Lothar Nordheim (1899-1985) accompagnés du mathématicien hongrois John von Neumann (1903-1957) développèrent un calcul fonctionnel basé sur l'emploi d'opérateurs intégraux utilisant de manière massive la distribution ô(x) de Dirac. Les vecteurs d'un espace de Hilbert décrivent les configurations possibles d'un système à une particule. La 328
ANNEXE TECHNIQUE
représentation dans l'espace des coordonnées d'une configuration correspond ici à la fonction d'onde 'l'(x,t) de Schrôdinger et s'interprète comme une amplitude de probabilité. Un espace de Hilbert se définit au moyen d'un produit scalaire permettant de transformer deux vecteurs ayant chacun N composantes en une grandeur scalaire. HILBERT, D. ; VON NEUMANN, J. ; NORDHEIM, L. (1927), « Über die Grundlagen der Quantenrnechanik »,Math. Ann., 98: 1-30.
Espace des configurations : espace abstrait ayant un nombre de dimensions égal au nombre de degrés de liberté du système et permettant de définir un lagrangien. Espace des phases : espace abstrait ayant un nombre de dimensions égal au double du nombre de degrés de liberté du système et permettant de définir un hamiltonien. L'espace des phases peut subir des transformations canoniques. Espace-temps de Minkowski : fusion de l'espace réel tridimensionnel et du temps réel unidimensionnel pour former une entité quadridimensionnelle, appelée espace-temps, où l'espace est pensé en termes de droites et le temps en termes de cercle (nombre complexe), ce qui apparaît somme toute assez logique dès que l'on prend la peine de regarder une montre, une horloge ou un pendule. Cet espace-temps n'existe qu'en relativité restreinte là où la densité de matière est suffisamment faible pour ne pas courber l'espace. Estérification : réaction chimique entre un acide A-OH et un alcool R-OH conduisant à un ester A-0-R et de l'eau H-0-H. Éther: auxx" siècle, substratum pour la propagation du champ électromagnétique (équations de Maxwell) et état limite de la matière ayant sa place dans la classification périodique des éléments du chimiste russe Dmitri Mendeleïev (1834-1907) comme élément zéro appelé newtonium (Henry 2015). Cet éther physique, supposé remplir le vide, devait être à la fois extrêmement ténu mais aussi plus rigide que l'acier pour justifier la vitesse de propagation extrêmement élevée de la lumière dans le vide. L'éther est rayé de la carte des concepts physiques par Albert Einstein dans le cadre de la théorie de la relativité restreinte après le résultat négatif de l'expérience de Michelson-Morley. Toutefois, dans une conférence de 1920, Einstein va expliquer que si le principe de relativité restreinte interdit de considérer l'éther comme constitué de particules qu'on peut suivre dans le temps, il ne contredit en rien l'hypothèse de l'éther en luimême, car il faut seulement se garder d'attribuer à l'éther un état de mouvement (Einstein 1920). En effet, si l'on dépasse la relativité restreinte, l'espace devient défini par les potentiels de gravitation, sans lesquels il ne saurait être conçu et d'où il tient ses propriétés métriques. Il est donc doué de propriétés physiques et dans ce sens un éther existe, car sinon il serait impossible de définir des distances spatiotemporelles au moyen de règles d'horloges et la propagation
329
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
de la lumière y serait également impossible. Cet éther ne doit cependant pas être conçu comme étant constitué de parties pouvant être suivies dans le temps, c'est-à-dire que la notion de mouvement ne doit pas lui être appliquée. Vide et éther se confondent donc en relativité générale. devenant un simple état de la matière. EINSTEIN, A. (1920), « L'éther et la théorie de la relativité », in Œuvres choisies, éd. par F. Balibar et al., Paris, Seuil (1989-1993), vol. 5, p. 81-88. HENRY, M. (2015), Le Vide : Néant, Être, Vacuité, Éther; Matière et Mouvement, Éditions Natur'Eau Quant, Strasbourg.
Facteur de forme: nombre permettant d'expliquer toutes les formes d'autoassemblage par interaction hydrophobe en milieu aqueux. L'idée générale est d'appliquer ce que l'on appelle un critère de fluidité au regroupement des queux hydrophobes au sein d'un même volume. En effet, pour qu'un tel assemblage soit viable sur le plan entropique, il faut que ces chaînes puissent explorer via des fluctuations thermiques tout le volume de type «huile». Cela n'est possible que si la longueur moyenne de ces chaînes De est inférieure à la longueur maximale Dm que la chaîne peut adopter en s'étirant complètement. Dans cet état complètement étiré Dm = De, la chaîne ne peut en effet exister que sous une seule et unique conformation toute «trans», ce qui selon la formule de Boltzmann confère à cette situation une entropie extrêmement basse. Aussi plutôt que de trop perdre en entropie, le système micellaire préférera se structurer vers une forme moins contrainte, libérant à nouveau les chaînes et augmentant donc leur entropie. Il suffit donc d'avoir une idée des tailles géométriques des molécules amphiphiles, c'est-à-dire du volume VL des chaînes hydrocarbonées, de la longueur de chaîne étirée Dm et de l'aire balayée par la tête polaire pour définir un facteur de forme PF = VJ(·Dm). Par exemple, si l'on souhaite former un objet sphérique (micelle), on aura un volume VM ::::: 41tDe3/3 pour une aire AM ::::: 41tDe2• Si l'on égalise maintenant le nombre de molécules calculées via le volume des queues hydrocarbonées (Nv = VMNL) au nombre de molécules calculées via l'aire de chaque tête polaire (Ns = AM/), on trouve en appliquant le critère de fluidité (De< Dm) que PF < YJ. Que se passe-t-il maintenant si j'ai une molécule telle que pF > YJ ? Dans ce cas la forme sphérique impliquerait que toutes les chaînes soient étirées à leur valeur maximale, et qu'il aurait donc à l'intérieur de la micelle un milieu rigide et non un milieu fluide. Pour éviter cela, le système va donc chercher une nouvelle topologie, qui sera de nature cylindrique et non plus sphérique. Dans ces conditions, le volume est maintenant pour un cylindre de longueur L: VM::::: 1tDe2 • L, tandis que l'aire devient AM::::: 21tDe·L. Si l'on égalise de nouveau le nombre de molécules calculées via le volume des queues hydrocarbonées au nombre de molécules 330
ANNEXE TECHNIQUE
calculées via l'aire de chaque tête polaire, on trouve en appliquant le critère de fluidité que Yl < PF < Y2. Bien évidemment, il existe des molécules telles que PF > Yi pour lesquelles le système va donc encore changer de topologie en créant des bicouches lipidiques d'épaisseur 2Dc qui peuvent être soit vésiculaires ou soit lamellaires. Pour une vésicule, si j'appelle R le rayon interne de la petite cavité sphérique, on peut écrire que VM ~ [47t(R+2Dc)3 47tR3]/3 et que AM~ 47t(R+2Dc)2 + 47tR2• En égalisant toujours le nombre de molécules calculées via le volume des queues hydrocarbonées au nombre de molécules calculées via l'aire de chaque tête polaire, on trouve en appliquant le critère de fluidité De< Dm et en supposant que R > 2Dc, il vient 7S < PF < 1, domaine des bicouches planes.
Fermion : objet quantique de spin demi-entier dont l'angle de phase tourne de 180° (
, la pression p ou le potentiel chimique µpeuvent fluctuer autour de valeurs moyennes. Dans ces conditions, on peut montrer que la probabilité de ces fluctuations pour une température donnée varie de manière exponentielle avec le produit de la fluctuation en pression par la fluctuation en volume diminué du produit de la fluctuation en température par la fluctuation en entropie (Landau & Lifshitz 1969). Si l'on note os, oV, oE> et op les fluctuations en entropie, volume, température et pression, la probabilité d'observer une telle fluctuation varie de manière exponentielle avec l'inverse de la température : w = exp[(op·oV - oE>·oS)/ (2k8 ·E>)] où~ est la constante de Boltzmann. LANDAU,
L. D.; LIFSHITZ, E. M. (1969), « Statistical Physics », 2) : (ôS/ôV)8 = (ôp/ôE>)v = -(ôV/ôE>)P·(ôp/ôV)0 =a/KT op(V,E>) = (ôp/ôE>)v·oE> + (ôp/ôV) 0 ·oV = ()·(o8)2 Conclusion: = k8 ·E>2/Cv et = k8 ·E>·V·is ·oV> = 0 et ·oS> = - = ~-8, ·op> = (yN)·k8 ·82, = ~-E>·V·«p 331
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
Fluctuation quadratique (p, S) : ôV(p,S) = (aV/àp)s·ôp + (av;as)p·ôS = - V·Kg·Ôp + (aV/aS)p·ôS ô0(p,S) = (a0/àp)5 ·ôp + (a®/aS)P·ôS = (a0/àp)5 ·ôp - 0·ôS/CP (av;as)p = (a0/àp)5 => 2~·0·ln w = - V·Kg·(ôp) 2 -0·(&S)2/Cp Conclusion: = ~-0/(V·Kg) et =~-@·CP = 0 et = - = ~-0 Flux magnétique Cl> m : produit de l'inductance par le courant électrique. Contenu dimensionnel Cl>m = [M·L2 ·1'1.Q- 1]. Unité: weber (Wb= V·s). Flux lumineux Cl>. : quantité de lumière émise par unité de temps et visible par un être humain. Produit de l'intensité lumineuse (cd) par l'angle solide d'observation (sr). Unité SI: lumen (lm). Force F : toute variation dans le temps t du vecteur quantité de mouvement traduit l'existence d'un vecteur force F = dp/dt. Si la masse ne varie pas au cours du temps, on peut écrire que F = dp/dt = m dv/dt =ma, où a= dv/dt est le vecteur accélération, c'est-à-dire le taux de variation dans le temps du vecteur vitesse. L'unité de force est le newton, abrégé en N, défini comme la force nécessaire pour augmenter la vitesse d'une masse de 1 kg de 1 m s· 1 en une seconde. Fréquence f: nombre de périodes d'une onde par unité de temps en un point donné. En mécanique quantique, il est possible d'associer à toute énergie U, une fréquence f, selon la relation de Planck-Einstein : U = h f, où h est la constante de Planck.
Gaz parfait (équation): un gaz parfait est un système de volume V contenant N entités d'énergie U avec une entropie S(U,V,N) = ~ ln [(cste)·VN lJ3N12], où ~ est la constante de Boltzmann. Si p est la pression et 0 la température, on a (aS/aV)u.N = p/0 = ~ NN, soit p V= N ~ 0 (loi des gaz parfaits). Si l'on dispose d'un baromètre pour mesurer la pression p, et d'un thermomètre pour mesurer la température 0, on peut compter le nombre d'entités N constituantes en mesurant le volume occupé (loi d'Avogadro). Si NA désigne la constante d'Avogadro, on appelle« constante des gaz parfaits» le produit R =NA·~= 8,314 J mol· 1 K- 1 et la loi s'écrit p V= n R 0, où n est le nombre de moles. Glace RDA : forme amorphe de glace de masse volumique 1, 17 g cm·3• Cet acronyme signifie « High-Density Amorphous ice », ce qui signifie glace amorphe haute densité. 332
ANNEXE TECHNIQUE
Glace LDA: forme amorphe de glace de masse volumique 0,94 g cm-3 • Cet acronyme signifie « Low-Density Amorphous ice », ce qui signifie « glace amorphe basse densité ». Glace VHDA : forme amorphe de glace de masse volumique 1,26 g cm-3 • Cet acronyme signifie« Very-High-Density Amorphous ice »,ce qui signifie «glace amorphe de très haute densité». Grandeur d'état : grandeur dont toutes les autres dérivent. Ainsi, à toute valeur d'une grandeur d'état, correspond une valeur déterminée pour tout autre grandeur et une certaine multiplicité linéaire définie sur les conditions initiales. L'énergie interne, l'entropie et la fonction de Hamilton sont de bons exemples de grandeurs d'état pour la thermodynamique et la mécanique respectivement. Si une grandeur d'état existe, toute multiplicité linéaire associée au résultat d'une grandeur quelconque est alors formée par une somme directe de multiplicités associées à un résultat de la grandeur d'état. Un résultat de mesure de la grandeur d'état peut être représenté par un point d'un espace à n dimensions si cette grandeur est de rang n et tout résultat de mesure d'une grandeur quelconque sera alors représenté par une certaine hypersurface dans l'espace des états. Le théorème de Paulette Février impose que si une théorie physique est telle que les systèmes observables possèdent une grandeur d'état, les énoncés de résultats de mesure doivent suivre la logique booléenne classique aristotélicienne : c'est-à-dire, principe identité (A est A en acte), de contradiction (A et -.A existent en puissance) et de tiers exclu (-.[A A -.A] en acte). On peut alors démontrer qu'il y a grandeur d'état, s'il y a déterminisme ou si toutes les grandeurs sont en droit simultanément mesurables. C'est la situation rencontrée en physique classique newtonienne ou relativiste. Gravitation universelle : loi trouvée par le physicien anglais Isaac Newton (1642-1747), stipulant que toute masse m se trouve attirée par une autre masse M via une force proportionnelle au produit des masses et inversement proportionnelle au carré de la distance qui les sépare : f = G m M/L2, où Gest la constante de gravitation universelle qui se trouve être homogène au carré d'une fréquence que divise une densité volumique (G = 6,672 10- 11 m3 kg- 1 s- 2). Il découle de cela que le rapport g = G M/L2 est homogène à une accélération valant 9,81 m s- 2 car la Terre possède une masse M = 5,976 1024 kg pour un rayon L = 6 378 km. C'est cette force f d'attraction que l'on appelle le poids qui se mesure avec une balance, la masse étant alors le rapport m = fig. Si m = M, on peut définir une énergie potentielle d'attraction entre masses qui vaut Up = G·M2/L. Gravitation quantique: la gravitation quantique oblige à voir l'espace comme ayant une nature granulaire fluctuante, ce qui peut poser de graves problèmes 333
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
de visualisation. On considère ici que la nature serait constituée de champs quantiques matériels et d'un champ électromagnétique se superposant à un autre champ quantique de nature gravitationnelle sans qu'il y ait aucune place pour la notion d'arrière-plan fixe. La théorie quantique des champs exprime la double invariance relativiste de la vitesse de la lumière dans le vide et du quantum d'action, ce qui entraîne d'une part l'équivalence espace-temps d'une part (c = 1) et d'autre part la dualité onde-corpuscule (h = 1) où toute matière est assimilable à un couple de l'espace-temps réciproque (vecteur d'onde, fréquence). De son côté, la relativité générale exprime l'invariance relativiste de la constante de gravitation universelle (G = 1), auquel cas la matière s'identifie à l'espace-temps lui-même et non à l'espace-temps réciproque. Par conséquent, si l'on impose une triple invariance relativiste (c = h = G = 1), il en découle logiquement que si l'on élève au carré une longueur L, un temps T ou une masse M, on tombe sur un invariant relativiste (M 2 = L2 = T2 = 1). En effet, selon la théorie quantique M = L- 1, tandis que pour la relativité générale M = L. Si l'on élimine la masse, il vient que L= L- 1 ou L2 = T2 = 1, puisque L = T en théorie relativiste. De même, on aurait pu éliminer la longueur, L= M- 1 = M, soitM2 = L2 =T2=1. Or, il existe également un nombre pur a, appelé constante de structure fine, qui relie l'énergie électrique à l'énergie du vide. Si on voit cette constante comme un invariant relativiste, il en découle que le carré de toute charge électrique est aussi un invariant relativiste. De fait, si e désigne la charge électrique élémentaire, la constante de structure fine peut s'écrire e2/41tE0 = µ 0 ·c2 ·e2/41t =a hc. Par conséquent, dans un système d'unité où h = c = 1 et 41tE0 = 1/a, il vient e2 = 1, ou encore e = e- 1• On retrouve ici l'invariance par inversion déjà notée pour la vitesse de la lumière. D'où une symétrie parfaite L2 = T2 = M2 = Q2 = 1, traduisant l'existence de symétries miroir et de symétries conformes. Une première manière de satisfaire aux égalités L2 = T2 = M2 = Q2 = 1 est d'avoir L = T = M = Q = ± 1, avec équivalence par parité (L = ± 1), par réversibilité (T= ±1), par conjugaison de charge (Q = ±1) et symétrie matière/anti-matière (M = ± 1). Le couplage obligatoire existant entre espace (L ), temps (T), masse (M) et charge électrique (Q) fait que la symétrie miroirn' est a priori rigoureuse qui si l'on applique les trois symétries de parité (P), de conjugaison de charge électrique (C) et de renversement du temps (T) en même temps (symétrie dite PCT). On notera aussi une autre solution à l'exigence L2 = T2 = M2 = Q2 = 1 qui est : L = L- 1 = T = T 1 = M = M- 1 = Q = Q- 1 = 1, signifiant symétrie conforme, c'est-à-dire inversion et non miroir. Gravitation quantique à boucles : approche essayant de marier la relativité générale avec la mécanique quantique qui se base sur le concept de lignes de champ introduites par Michaël Faraday (Rovelli 2003). Champ et matière fusionnent ici pour devenir de l'information qui est évidemment pensée en termes de cercles (nombres complexes). En l'absence de matière, les lignes de champ peuvent revenir sur elles-mêmes, formant ainsi une boucle. L'idée
334
ANNEXE TECHNIQUE
est donc de décrire le vide, c'est-à-dire la géométrie de l'espace-temps au moyen de telles boucles, d'où une théorie qui peut se développer sans aucun arrière-plan fixe comme l'exige la relativité générale. Or, il se trouve que l'on peut décrire tout champ de type Yang-Mills au moyen du concept de« lignes de force » de Faraday. Il suffit de considérer toute ligne de Faraday comme un quantum élémentaire d'excitation du champ, ces lignes se refermant sur elles-mêmes en l'absence de charges électriques pour devenir des boucles. La gravité quantique à boucles est donc la description mathématique du champ quantique gravitationnel au moyen de telles boucles. Lorsque l'énergie est suffisamment basse, ces boucles qui sont les excitations quantiques du champ gravitationnel apparaissent comme des gravitons, un peu comme les phonons apparaissent lorsqu'on fait vibrer un solide. Les gravitons ne sont donc pas les particules fondamentales qui véhiculent la force gravitationnelle comme en théorie des cordes, mais plutôt apparaissent comme des excitations collectives à grande échelle du champ gravitationnel. D'un point de vue technique, le champ gravitationnel d'Einstein est ainsi remplacé par un champ de connexion topologique d' Ashtekar, tout comme le potentiel électromagnétique peut se substituer au champ électromagnétique dans les équations de Maxwell. Figure 153
Espace-temps
Réseaux de spin Le point clé est de réaliser que les boucles ne sont plongées dans aucun espace, puisqu'il n'y a pas d'espace. En fait, les boucles sont l'espace car elles sont les quanta d'excitation du champ gravitationnel qui est lui-même l'espace. Cela n'a donc aucun sens de parler du déplacement d'une boucle, comme on parle du déplacement d'une corde en théorie des cordes. Le seul moyen de se repérer est de nature topologique en considérant les intersections d'une boucle avec d'autres boucles voisines. Un réseau de boucles enchevêtrées permet donc de définir un certain état de l'espace. Les boucles interagissent avec les particules 335
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
de la même manière qu'un photon interagit avec un électron, sauf que ceci se déroule hors de toute notion d'espace. Il émerge ainsi des équations de la théorie que les réseaux de boucles décrivent des éléments finis spatiaux et que rien n'existe à une échelle inférieure à celle des boucles. Ceci est bien conforme au théorème de Banach-Tarski qui montre que le volume peut être créé et non donné a priori. Il en découle que les surfaces ou les volumes deviennent des observables quantiques. Lorsqu'on associe un opérateur convenable à la nouvelle observable « volume » et que l'on recherche ses valeurs propres, on trouve alors un spectre discret, ce qui signifie que le volume, tout comme l'énergie en mécanique quantique, est quantifié et qu'à chaque nœud du réseau de boucles correspond un quantum de volume. La portion de boucle entre deux nœuds définit un lien qui relie les nœuds adjacents, chaque lien définissant une surface également quantifiée séparant un nœud d'un autre nœud adjacent. Ainsi, il est possible d'associer aux nœuds des nombres quantiques de volume tandis que les liens possèdent des nombres quantiques d'aire. Comme ces nombres quantiques et leur algèbre se comportent comme le moment angulaire de spin des particules élémentaires, ces réseaux de boucles peuvent aussi être qualifiés de réseaux de spin, objets étudiés de manière indépendante et sans lien avec la gravitation quantique par le mathématicien Roger Penrose. La visualisation de l'espace-temps comme un réseau de spins est ainsi mathématiquement précise et fascinante. Les nœuds du réseau de spins représentent les grains élémentaires d'espace ayant un volume fixé par un nombre quantique associé au nœud qui est un multiple du volume élémentaire de Planck VP = L/ Deux nœuds sont adjacents s'il existe une portion de boucle, appelée lien, reliant un nœud à l'autre. Ce lien entre deux nœuds définit une surface élémentaire séparant les deux nœuds, dont l'aire est quantifiée par un nombre quantique j, associé à chaque lien. L'aire du lien est celle d'une sphère ayant un rayon égal à la longueur de Planck, multiplié par la racine carrée d'un nombre de la forme jG+ l ), d'où l'appellation « réseau de spins ». Une région physique de l'espace est ainsi constituée d'une superposition quantique d'états de tels réseaux de spin, la dynamique étant assurée par une équation dite de Wheeler-DeWitt qui joue pour le champ gravitationnel un rôle similaire à l'équation de Schrooinger ou de Dirac pour les champs de matière. Tout ceci découle logiquement de l'application directe des techniques quantiques à la relativité générale. La gravité quantique à boucles permet aussi de démontrer qu'un trou noir possède une température et par voie de conséquence une entropie, qui rapportée à la constante de Boltzmann est égale à l'aire du trou noir divisée par le carré du double de la longueur de Planck, résultat qui n'avait été obtenu auparavant qu'au moyen d'arguments semi-classiques. En cosmologie, le volume en expansion de l'univers joue le rôle du paramètre temps. Comme le volume est quantifié en gravité quantique à boucles, il en découle que l'évolution de l'univers se déroule 336
ANNEXE TECHNIQUE
selon des intervalles de temps discrets. Ceci permet donc d'éviter la singularité initiale de la théorie du Big-Bang à très petite échelle et de montrer que l'expansion inflationniste pourrait avoir été pilotée par des effets gravitationnels quantiques. La structure granulaire de l'espace permet aussi de se débarrasser des quantités infinies omniprésentes en physique quantique des champs, car il n'est plus possible d'intégrer les diagrammes de Feynman sur des régions d'espacetemps arbitrairement petites. Mais la conséquence la plus remarquable de la gravité quantique à boucles est que l'espace-temps peut être analysé comme une succession temporelle de séquences spatiales qui possède donc une histoire. Or, le concept d'histoire peut être associé au phénomène de mémoire qui caractérise tout système vivant. La gravité quantique à boucles présente donc l'espace-temps comme une entité intrinsèquement vivante, dotée d'une mémoire spatiale prenant la forme d'un réseau à spin avec un historique appelé mousse de spin possédant une structure géométrique particulièrement simple. Ainsi, l'histoire d'un point définit une ligne, tandis que l'histoire d'une ligne engendre une surface. Une mousse de spin est donc constituée de faces qui représentent l'histoire des liens du réseau de spins, et ces liens ou arêtes résultent eux-mêmes de l'histoire des nœuds du réseau à spin. Les faces se rencontrent au niveau des arêtes, qui relient deux sommets représentant les interactions élémentaires entre les nœuds, c'est-à-dire entre les grains d'espace. Ces nœuds sont ainsi très similaires aux nœuds dans les diagrammes de Feynman, qui représentent les interactions entre les particules en théorie quantique des champs. En gravité quantique à boucles, l'espace-temps peut être vu comme un diagramme de Feynman qui représente les interactions entre grains d'espace. Une mousse de spin est cependant plus complexe qu'un diagramme de Feynman car elle est formée de points, de lignes et de surfaces, alors qu'un diagramme de Feynman ne possède que des points et des lignes. En théorie quantique des champs, on somme sur tous les diagrammes de Feynman possibles qui représentent les histoires des particules en interaction. En gravité quantique à boucles, on somme sur toutes les mousses de spin qui sont les histoires des grains d'espace en interaction. RoVELLI, C. (2003), « Loop quantum gravity », Physics World, novembre, p. 1-5.
Hamiltonien notion introduite par le mathématicien anglais William Rowan Hamilton (1805-1865) défini comme la transformée de Legendre du lagrangien: H(q, p, t)=p ·q-L(q, q ,t)lci p est le moment conjugué au degré de liberté q via le lagrangien: p = aL/iJq, avec q = dq/dt. Par exemple, pour un corpuscule soumis à aucune force et caractérisé par sa position x et sa vitesse associée i = dx/dt, le lagrangien s'écrit
337
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
= 1hm.t => ai;a.t = m · .t = p montrant que le moment conjugué de la position x est ici simplement la quantité de mouvement Px· Cette transformation permet de remplacer une équation différentielle du second ordre (équation de Lagrange) par deux équations du premier ordre (équations d'Hamilton) impliquant une fonction, appelée hamiltonien, H(q,p) = Uc + UP, somme de l'énergie cinétique Uc et de l'énergie potentielle UP. L'hamiltonien décrit l'évolution d'un système mécanique dans l'espace des phases et non plus dans l'espace des configurations comme avec le lagrangien . L
••
Inductance : inertie par rapport aux changements de courants électriques ou facteur de proportionnalité entre le flux magnétique m et le courant électrique 1 : m = L ·1. Contenu dimensionnel L = [M L2 Q-2]. Unité SI : henry (H =Vs A 1). L'inductance de tout prisme droit de section A et de longueur d mesurée dans la direction du flux magnétique s'écrit L = µ A/d, oùµ est la perméabilité magnétique. Intemporalité (quantique) : en mécanique quantique, il existe un opérateur positiontelque XjX >=X· jx > associéàunopérateurquantitédemouvement tel que fJ = = li/i·(d/dx) et ayant un commutateur non nul [x,p) =in à l'origine d'une relation d'indétermination Ax·Ap ~ h/2. Or, la représentation de Schrôdinger possède également pour décrire l'évolution dans le temps d'un opérateur hamiltonien fi== n/i·(d/dt). Mais étrangement, il n'existe ici aucun opérateur associé tel que i lt > = t· lt > ne commutant pas avec l'hamiltonien pour justifier l'existence d'une relation d'indétermination pourtant bien réelle, AE At ~ h/2, liant temps t et énergie E. En fait, cette relation n'est qu'une simple reformulation de la relation Ax Ap ~ h/2. En effet, si j'exprime l'énergie non relativiste d'une particule de masse m comme E = p2/2m, où p est sa quantité de mouvement, p = m·(Ax/At), il est clair que l'on doit avoir AE = p· Ap/m, soit AE = Ap Ax/At, c'est-à-dire AE At= Ap Ax. La chose est encore plus évidente pour une particule relativiste d'énergie E = p c, soit AE = c Ap, qui avec Ax = c At conduit à nouveau à l'égalité AE At = Ax Ap. En seconde quantification, la relation d'indétermination temps/énergie est une conséquence directe de la relation d'indétermination impliquant le nombre de quanta N et l'angle de phase 1, la goutte s'aplatit sous l'effet de la gravité. Luminol : ou 5-amino-2,3-dihydrophtalazine-1,4-dione. Molécule organique de formule brute C8H7Np 2 chimio-luminescente qui est utilisée en criminalistique pour révéler des traces de sang sur les scènes de crime. On utilise pour cela des solutions d'eau oxygénée Hp 2 qui libèrent dudioxyène 0 2 en présence de tout catalyseur contenant du fer comme l'hémoglobine selon la réaction :
2 C8H7Np2 (aq) + 7 Hp 2 (aq) + 4 OH 8 (aq) ~ 2 N2 î + 2 C8Hp/8 (aq) + 14 Hp(l)
Matrice hermitique : une matrice hermitique est une matrice constituée de nombres complexes A(ij) qui se trouve être identique à la matrice obtenue en prenant le complexe conjugué de chaque élément de la matrice transposée, soit A(ij) =A*(j,i). Cette propriété assure que les valeurs propres obtenues en diagonalisant ces matrices seront toujours réelles.
Masse M : Unité SI = kilogramme (kg). La masse est une grandeur scalaire qui n'existe qu'en mécanique non relativiste. Se confond avec l'énergie et la quantité de mouvement en mécanique relativiste. La masse inerte m1 est le coefficient de proportionnalité entre la force et l'accélération a communiquée par la force : f = m1 a. La masse grave mP est le coefficient de proportionnalité entre la force f et le champ de pesanteur g à l'origine de cette force : f = ~ g. 343
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
Si tous les corps chutent dans le vide avec la même accélération (a= g), on peut écrire m1 = ~ et utiliser des balances pour mesurer des masses. Mécanique (classique) : science basée sur trois principes énoncés pour la première fois par Isaac Newton. Le premier principe newtonien est la loi d'inertie stipulant qu'en l'absence de forces tout corps est soit au repos, soit en mouvement rectiligne uniforme. Le deuxième principe est que toute modification de l'état de mouvement d'un corps provient d'une force, qui, contrairement à l'inertie, ne subsiste plus dans le corps dès qu'elle cesse de s'appliquer. Le troisième principe est que toute force imprimée dans une certaine direction provoquera une réaction égale mais dans la direction opposée (.principe d'action et de réaction), de manière à ce que la quantité de mouvement vectorielle reste à tout moment inchangée (principe de conservation de la quantité de mouvement). Mécanique des matrices (Heisenberg) : forme de mécanique quantique construite par le physicien allemand Werner Heisenberg (1901-1976) se basant sur la correspondance existant entre le crochet de Poisson {u,H} de la physique classique et le commutateur de deux matrices . Il s'agit d'un formalisme de première quantification, qui consiste à remplacer la position x d'un corpuscule et sa quantité de mouvement associée Px par des opérateurs agissant sur un espace vectoriel complexe (espace de Hilbert) avec la règle de non-commutation canonique : [û, H] = ûH - Hû = ih. Ainsi, le fait que les opérateurs position et quantité de mouvement ne commutent pas entraîne l'existence d'une relation d'indétermination ~x ~p '.'.:'.: h/2, où~ et ~p sont les précisions avec lesquelles il est possible de mesurer ces quantités. De manière plus générale, si la quantité Â prend en moyenne la valeur avec un écart type (M)2 = - 2 et si [Â,Û] = iÔ, alors M·~U '.'.:'.: /2. Mécanique ondulatoire (Schrôdinger) : forme de mécanique quantique construite par le physicien autrichien Erwin Schrôdinger (1887-1961) par analogie avec les lois de l'optique dans le cadre de la théorie de JacobiHamilton. Schrôdinger s'est basé sur une analyse détaillée de Louis de Broglie des principes de Maupertuis et Fermat utilisés en mécanique classique et en optique géométrique, en comparaison avec la relation de Planck-Einstein liant l'énergie et la fréquence de la lumière, ~E = h·f, et la relation de Poincaré-Einstein liant énergie et masse, E = m c2• Cette rencontre théorique entre la lumière et la matière a conduit de Broglie à introduire ses ondes de matière, À.a = h/mv, où m et v désignent la masse et la vitesse du corpuscule matériel et Schrôdinger se chargea de trouver leur équation d'onde. Le fait que la position du corpuscule ne soit connue qu'avec une certaine erreur ~q s'interprète du point de vue ondulatoire, comme une fonction d'onde 'l'(q) dont l'amplitude n'est différente de zéro que dans un petit intervalle ayant approximativement la dimension ~q. Sur le plan mathématique, une 344
ANNEXE TECHNIQUE
telle fonction peut être imaginée comme une somme d'ondes élémentaires qui, par interférence, s'ajoutent dans le petit intervalle ~q et se détruisent mutuellement à l'extérieur. Cette méthode revient à construire le corpuscule en le considérant comme un paquet d'ondes à peu près comme la théorie cinétique des gaz construit la pression en la considérant comme un faisceau de chocs. Les ondes qui construisent le corpuscule ont à satisfaire des conditions aux limites qui proviennent de régions bien éloignées du point où le corpuscule matériel se trouve. En fait, le corpuscule se trouve bien dispersé dans l'espace tout entier, ce qui fait que l'on ne peut plus le suivre à la trace et sa trajectoire disparaît dans un nuage de probabilités. Pris comme une somme de phénomènes vibratoires, le corpuscule est plutôt reconstruit en permanence que conservé. Là où Heisenberg utilise des opérateurs matriciels, Schrôdinger utilise des opérateurs différentiels, tels que la multiplication x pour l'opérateur position et la dérivée par rapport à x pour l'opérateur quantité de mouvement. L'équation de Schrôdinger s'obtient alors en écrivant un opérateur hamiltonien au moyen de ces opérateurs :
Mécanique quantique : science basée sur le principe de contextualité stipulant qu'il n'existe pas de grandeur d'état, c'est-à-dire que les résultats de mesures ne peuvent être considérés comme des propriétés intrinsèques des systèmes observés. Le postulat d'absence de grandeur d'état pour l'observation joue donc pour la mécanique quantique le rôle de principe fondateur, tout comme l'absence d'observateur privilégié pour le mouvement fonde la théorie relativiste. Ceci implique qu'il n'existe aucune distinction fondamentale entre système observé et observateur, système quantique ou classique, système physique conscient ou dépourvu de conscience. Le monde peut donc être découpé d'une infinité de manières totalement équivalentes en un ensemble de systèmes, chacun d'entre eux pouvant être considéré soit comme un système « observateur », soit comme un système « observé ». L'absence de grandeur d'état signifiant qu'il existe, en droit, deux grandeurs non simultanément mesurables (position et quantité de mouvement associée), il en découle l'indéterminisme, le principe de décomposition spectrale en termes d'amplitudes de probabilité et donc la nécessité de substituer à l'espace réel des phases d'Hamilton de la mécanique classique un espace complexe de Hilbert adapté à la formulation choisie : mécanique des matrices d'Heisenberg ou mécanique ondulatoire de Schrôdinger, pour ne citer que les deux formulations les plus employées à l'heure actuelle.
Mécanique quantique relationnelle : théorie qui part du point de vue que l'information est nécessairement une quantité discrète, c'est-à-dire qu'il existe une quantité minimale d'information correspondant à une valeur de 1 bit, permettant juste de distinguer entre deux alternatives. Dans ce contexte, 345
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
toute mesure se ramène à une question posée par le système observateur à un autre système observé et tout système S peut se définir par le nombre de questions oui/non pertinentes que l'on peut lui poser pour acquérir de l'information. Un tel ensemble de questions correspond aux différentes variables physiques de la mécanique classique ou a~x différentes observables de la mécanique quantique standard. Dans ce cadre, une question oui/non se trouve représentée par un opérateur de projection sur un sous-système linéaire d'un espace de Hilbert, ou par le sous-système linéaire lui-même. Cette idée n'a rien de quantique mais découle simplement de la structure logique de la théorie de l'information. On substitue donc à la notion d'état qui n'a qu'un caractère relatif la notion d'information qu'un système peut avoir sur tout autre système. Sur un plan quantitatif, l'information que l'on peut acquérir sur tout système est soumise à une contrainte, de la même manière que toute vitesse physique est naturellement contrainte en mécanique relativiste. Cette contrainte est qu'il existe une quantité maximale d'information pertinente pouvant être extraite d'un système donné (Rovelli 1996). Il s'agit ici d'une contrainte permettant d'obtenir une description complète du système considéré dans un temps fini. Tout système se caractérise donc par une quantité finie N d'information et c'est l'essence même de la constante de Planck que de traduire de manière quantitative notre finitude essentielle visà-vis de l'acquisition de l'information. Mécanique statistique : en mécanique statistique, on considère que le nombre de micro-états compatibles avec un macro-état macroscopique donné, noté n, dépend a priori de trois variables de nature extensive qui sont l'énergie totale disponible U, le volume total accessible V et le nombre total de particules constituantes N, soit ü(U,V,N). Cette manière de voir les choses a conduit le physicien autrichien Ludwig Boltzmann ( 1844-1906) à une définition statistique de l'entropie S(U,V,N): S(U,V,N) =~ln ü(U,V,N) (Boltzmann 1877). De manière assez étrange, Boltzmann ne se soucia jamais de déterminer la valeur de la constante de proportionnalité ~, liant l'entropie au logarithme du nombre de micro-états et qui porte aujourd'hui son nom. Lors de sa dérivation de la loi d'émission du corps noir, le physicien allemand Max Planck fut ainsi très ennuyé de ne pas disposer de valeur précise pour cette constante ayant la dimension d'une entropie. Ce fut donc Planck et non Boltzmann qui fut le premier à proposer une valeur numérique pour cette constante de proportionnalité. Micro-état et macro-état : deux notions de base de la mécanique statistique. Imaginez que je jette deux dés à six faces sur un table de jeu et que j'observe que le premier dé affiche un 2 et le deuxième un 5, pour un résultat total de 5+2 = 7. La paire (2,5) définit un micro-état, alors que le résultat obtenu, 7, définit un macro-état. L'idée est que l'observateur possédant une taille gigantesque par rapport aux molécules le constituant ne peut pas avoir
346
ANNEXE TECHNIQUE
accès aux micro-états et doit donc se contenter des macro-états. Autrement dit, dans l'exemple précédent, je n'ai accès en tant qu'être humain qu'au résultat final 7 et non au micro-état (2,5) qui lui a donné naissance. Tout ce que je peux donc dire du macro-état 7, c'est qu'il correspond à 6 micro-états possibles: (1,6); (2,5); (3,4); (4,3); (5,2) et (6,1). Par contre, derrière le macro-état 2, je n'ai qu'un seul micro-état possible : la paire (1,1). On dira donc que le macro-état 7' est de plus haute entropie que le macro-état 2', car la probabilité d'obtenir le résultat 7 est de 6/36, alors que la probabilité d'obtenir le résultat 2 n'est que de 1/36. Par conséquent, quand on dit que l'entropie ne peut qu'augmenter, on signifie que la nature évolue toujours vers les macro-états de plus haute probabilité, les macro-états de moindre probabilité étant simplement plus rarement observés. Il existe évidemment beaucoup de micro-états qui correspondent à un macro-état donné. La réunion de tous ces micro-états s'appelle un « ensemble ». Il est important de réaliser qu'un ensemble est une collection de systèmes macroscopiques sur laquelle on effectue les moyennes statistiques et non une collection de particules formant un système macroscopique. L'ensemble des micro-états possibles pour un système mécanique à N degrés de liberté définit l'espace des phases de dimension 2N.
Module de compressibilité K, coefficient gouvernant la variation de volume V à température 0 (Ky) ou entropie (K8) constante suite à une augmentation ou une diminution de pression p : V Ky= (oV!ôp\~ et V K 8 = (8V/ôp)8 • Pour un système à l'équilibre, Ky mesure les fluctuations quadratiques de volume : = ~ 0 V Kr tandis que K 8 mesure les fluctuations quadratiques de pression : = ~ 0/(V K 8). Moment angulaire ou moment cinétique j : pseudo-vecteur associé à tout mouvement rotatif. Le moment angulaire j suppose de se donner trois choses : une certaine quantité de mouvement p = m v, où m est la masse et v la vitesse, une certaine distance L par rapport à un point fixe et un angle a entre le vecteur vitesse et le vecteur joignant la masse au point fixe : j = p L sin a. La conservation de la quantité de mouvement p assure donc également la conservation du moment angulaire j dès que L et a ne varient pas dans le temps. Contenu dimensionnel: [M L2 T 1 rad- 1].
Nombre de Reynolds : nombre sans dimension fixant dans un fluide la transition entre un régime laminaire et un régime turbulent. Si L est une dimension caractéristique du fluide se déplaçant avec une vitesse laminaire V, le temps caractéristique pour parcourir le fluide sera îM = LN. Le fluide étant 347
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
par essence de nature mobile, toute énergie quelle que soit son origine sera condamnée à être transformée en chaleur via la friction entre les molécules. Pour un fluide donné, l'efficacité de ce « frottement » moléculaire est mesurée par la viscosité cinématique du fluide v = T}/p, où Tl est la viscosité dynamique mesurant l'aptitude du fluide à transférer la quantité de mouvement et p la densité du fluide. Ceci définit une autre échelle de temps caractéristique tv = L2/v, représentant le temps nécessaire pour dissiper toute l'énergie emmagasinée dans la dimension L. Bien évidemment il n'y a aucune raison pour que ces deux temps tM et tv coïncident, le premier étant de nature purement spatiale et le second de nature énergétique. C'est précisément cette indépendance temporelle qui nous permet de définir une condition d'écoulement laminaire stable et non turbulente comme étant celle où l'on a tM::::: tv, soit LN::::: L2/v et donc Re= L·V/v::::: 1. Ainsi apparaît le fil d'Ariane indispensable pour définir les conditions macroscopiques conduisant à l'apparition de la turbulence (Re >> 1) sous la forme d'un nombre sans dimension aisément calculable, appelé nombre de Reynolds (Re). Nombre de Weber : on peut attacher à tout objet de taille d et de tension superficielle y se déplaçant dans un fluide de densité Pr à une vitesse u un nombre sans dimension de Weber, We, mesurant l'importance relative des forces d'inertie par rapport aux forces chimiques de cohésion interne selon We = Pr·u2 d/y = (d L)2 où Le est la longueur capillaire L de l'objet. Pour les gouttes d'eau, si l'on égalise le stress hydrodynamique Pr·u2 = We·(y/d) exercé par l'air au rapport entre l'énergie de surface y 1t d2 et le volume 1t d3/6 de la goutte, on trouve que We = 6 et donc d::::: 6-7 mm. Notation de Dirac : les physiciens quantiques ont pris l'habitude d'utiliser une notation en termes de « bras » et de « kets » introduite par P. A. M. Dirac pour manipuler les états quantiques sans se soucier de leur représentation concrète. Selon la notation introduite par Dirac, l'état est représenté par un label placé dans un demi-crochet la>, l'opérateur associé au processus de mesure est noté Â et l'on écrit que Âla> = a·la>, où 'a' est le résultat de la mesure. -
..
Première quantification => Espace de Hilbert complexe
État (ket) B.eaultat (valeur propre) / \ Mesure A 1 ) A X Xl X (opérateur)
X
Espace dual
ResuJtat = "J ) (xd i X t = ( X 1·x*(valeur propre: Etat (!;ra) ~esure (opérateur) Op&ateur self-adjoint - Mesures
X = Xt x=x*=>x e lR DMl-
[111113-111431
Op&ateurs unitaires - ll.volution, transformation
xxt = xtx = î xl rp) =I VF) => (VFIVF) = ('P l'P ) Inégalité de Schwarz's 1('PlV' ~ ('Pl'P )-{V' 1V')
t
348
ANNEXE TECHNIQUE
•o Ondes de matière : le physicien français Louis de Broglie (1892-1987) chercha à voir quelles seraient les conséquences d'une combinaison de la relation de Planck, E = h f, liant énergie E et fréquence f, avec la relation d'Einstein, E = m c2 , liant énergie E et masse m. La conclusion fut qu'il devait exister des ondes de matière de longueur d'onde À= h/p, où p désigne la quantité de mouvement p. Cette prédiction faite en 1923 fut confirmée expérimentalement en 1927 par les physiciens américains Clinton J. Davisson (1881-1958) et Lester H. Germer (1896-1971), ce qui permit à Louis de Broglie de recevoir le prix Nobel de physique en 1929, pour un travail jugé seulement « très honorable » lors de la soutenance de son doctorat en 1924 à l'université de Paris. Ontologie : mot introduit en 1692 par le théologien protestant français Jean Le Clerc (1637-1756) afin de combiner la notion d'être (ontos en grec) avec la notion de raison (logos en grec). Un énoncé à caractère ontologique est donc quelque chose qui peut être exprimé verbalement comme une affirmation, indépendante de tout observateur, et pouvant aboutir à une équation mathématique utilisant le signe d'égalité afin de se faire une idée de la raison pour laquelle une chose existe et se transforme. Le caractère commun à toutes les ontologies est la réversibilité des choses, car si A= B, alors A => B et B => A. Le premier principe de la thermodynamique, énoncé par Rudolf Clausius, est un bon exemple d'énoncé à caractère ontologique. Opérateur : entité mathématique permettant de modifier l'état d'une variable mécanique ou dynamique et pouvant s'exprimer comme des matrices de nombres agissant sur des vecteurs (formalisme d'Heisenberg) ou comme des opérateurs différentiels agissant sur des fonctions d'onde (Schrôdinger). L'ensemble de tous les états possibles de la variable forme un espace de Hilbert. Voir aussi Notation de Dirac. W. (1925), « Über quantentheoretische Umdeutung kinematischer und mechanischer Beziehungen », Z. Phys., 33 : 879-893. HEISENBERG, W. (1927), «Über den anschaulichen Inhalt der quantentheoretischen Kinematik und Mechanik », Z. Phys., 43 : 172-198. HEISENBERG,
Osmolalité : 1 osmole (Osm) est la quantité de matière qui se dissocie en solution pour former une mole de particules capables de créer une pression osmotique.
349
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
Paradigme: selon l'historien américain Thomas S. Kuhn, la science apparaît comme une succession sans fin de longues périodes calmes de science « normale » où les scientifiques sont guidés par un ensemble de théories, de standards et de méthodes appelé « paradigme », entrecoupé de manière violente par de brefs épisodes de révolution intellectuelle au cours de laquelle l'ancien paradigme se trouve renversé au profit d'un autre plus performant. Il en découle que le but de la science ne peut être de savoir distinguer ce qui est vrai ou réel, car ceci ne peut être décidé que dans le cadre du paradigme en vogue, qui ne possède qu'un caractère éphémère et jetable à tout moment. Ainsi, les théories scientifiques s'inscrivent dans de grands paradigmes qui résultent de l'accord implicite et subjectif de la communauté scientifique. Kuhn, T. S. (1983), La Structure des révolutions scientifiques, Flammarion, Paris.
Paramagnétisme : propriété de la matière qui provoque une densification des lignes de champ magnétique en raison d'une perméabilité magnétique relative supérieure à celle du vide (µ, > 1). Paramètre de Grüneisen y : paramètre sans dimension indiquant comment varie la pression p lorsqu'on fait varier l'énergie interne U à volume V constant: y= V·(8p/8U)v Peut aussi s'écrire y= (V °'J,)/(KT Cv), où °'r est le coefficient de dilatation thermique isobare, KT le module de compressibilité isotherme et Cv la capacité calorifique à volume constant. Pour un système à l'équilibre, y mesure les fluctuations croisées de pression et de température e: ·op> = (yN)·k0 ·02• Particule élémentaire : une particule de masse m est dite élémentaire lorsque son extension spatiale est du même ordre de grandeur que sa longueur d'onde de Compton: À= h/(m c), où h est la constante de Planck etc la vitesse de la lumière. Selon ce critère, l'électron (m.~ 10·30 kg) est bien élémentaire car sa taille est nettement inférieure à À= h/m0 ·c ~ 2,4 pm. De même, un proton (mp ~ 1,7 10·27 kg) est une particule élémentaire car sa taille (0,88 fm) est proche À= h/mp ·c ~ 1,3 fm. En revanche, l'atome d'hydrogène (mH ~ m) p avec une taille voisine de 0, 1 nm ne peut pas être considéré comme une particule élémentaire. Perméabilité magnétique du vide µ 0 : constante universelle de proportionnalité scalaire entre le champ magnétique H et la densité de flux magnétique dans le vide B : B = µ 0 H. Contenu dimensionnel µ 0 = [M L Q· 2]. Unité SI : henry par mètre (H m- 1).
350
ANNEXE TECHNIQUE
Permittivité diélectrique du vide e0 , constante universelle de proportionnalité scalaire entre le champ électrique et la densité de flux électrique dans le vide : D = e0 E. Contenu dimensionnel e0 = [M- 1 L-3T2 Q2]. Unité SI : farad par mètre (F m- 1). pH (potentiel hydrogène) : le pH mesure l'aptitude de la molécule d'eau à se couper de manière ionique en deux ions de charges opposées : Hp ~ Hal+ OH 8 . Le pH intervient dans tous les processus où il y a échange d'une particule élémentaire appelée proton Hal. Un milieu tel que 0 < pH < 7 à température ambiante est qualifié d'acide, tandis que si le 7 A = 0 8 et PA= p8 et µA= µ 8 . De manière très générale, on peut écrireµ= µ 0 +RE> ln a, où a est l'activité de la substance, Rest la constante des gaz parfaits et µ 0 est le potentiel chimique lorsque la substance est pure (a= 1).
v. :
u.
Potentiel électrique champ scalaire mesurant l'énergie potentielle qu'acquiert une charge électrique q : = q V0 Contenu dimensionnel 2 1 V.= [M L21' Q- ]. Unité SI: volt (V). Rapport de la charge électrique Q à la capacitance C.
u.
Potentiel rédox Eh ou rH 2 : le potentiel rédox Eh mesure l'aptitude de la molécule d'eau à se couper de manière covalente en deux molécules, l'une réductrice (dihydrogène) et l'autre oxydante (dioxygène) : 2 Hp ~ 2 H2 + Or Formellement, cela signifie que des électrons ont été échangés. Comme l'électron et le proton possèdent la même charge électrique en valeur absolue, le potentiel rédox varie indifféremment dès que des électrons ou des
352
ANNEXE TECHNIQUE
protons viennent à être échangés. Pour cette raison, il est préférable d'utiliser la notion de rH 2(20°C):::: 34·(EhN) + 2 pH. Un milieu tel que 0 < rH2 < 28 sera qualifié de réducteur, alors qu'un milieu tel que 28 < rH2 < 42 sera au contraire oxydant. Poussée de Lorentz : le physicien néerlandais Hendrik:Antoon Lorentz ( 18531928) démontra la covariance des équations de Maxwell par changement de référentiel en 1892. On peut voir une poussée de Lorentz comme une rotation hyperbolique spatio-temporelle d'un angle a tel que tan a= v/c = p, où v est la vitesse de translation uniforme d'un repère galiléen. Ainsi, si la translation se fait dans la direction x, on aura x' = x cha - et sha et et'= et cha - x sha, où ch(a) et sh(a) désignent les fonctions cosinus et sinus hyperbolique, telles que 1 - tan2a = 1/ch2a et ch2a - sh2a = 1. On remarquera que les poussées de Lorentz se confondent avec les transformations de Galilée pour des vitesses petites devant la vitesse de la lumière (v cha ~ 1 et sha ~ v/c). Premier principe (thermodynamique) : principe énoncé par Rudolf Clausius stipulant que l'énergie U d'un système isolé est toujours conservée (dU/dt = 0). Si l'on utilise le second principe qui introduit la fonction entropie S(U,V,N), le premier principe s'écrit pour toute matière gazeuse: dU = E> dS -p dV, où U est l'énergie dite interne, E> la température, p la pression et V le volume. Voir aussi Ontologie. Première quantification : opération consistant à associer à chaque observable mécanique comme la position, la quantité de mouvement, l'énergie, le moment cinétique, un opérateur matriciel ou différentiel dont le spectre de valeurs propres permet de rendre compte de tous les résultats de mesure. En première quantification, les champs sont traités de manière classique, tandis que chaque corpuscule possède un espace interne appelé espace de Hilbert. En mécanique quantique de première quantification, l'espace est pensé en termes de droites et la matière est pensée en termes de cercles (nombres complexes), ce qui détruit le temps. Pression p : grandeur thermodynamique scalaire gouvernant les variations de volume et qui peut être définie comme le taux de variation de l'énergie interne lorsqu'on augmente ou diminue le volume V à entropie S et nombre d'entités N constant : p = (8U/8V)8 N' Selon la mécanique statistique, la condition d'équilibre mécanique entre deux systèmes A et B pouvant changer de volume s'écrit 8SA/8VA = 8S 8 /8V 8 . Comme la pression est une énergie par unité de volume et que 8S/8V est homogène à une énergie par unité de volume et de température, il en résulte que 8S/8V est homogène au rapport d'une pression et d'une température, soit: p = 0·(8S/8V)uN et une condition • d'équilibre: E> A= 0 8 et PA= P8 • 0
353
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
Pression osmotique II : pression associée à tout système constitué de N particules. Pour toute pression p, potentiel chimique µ, activité a et température0,onademanièretrèsgénérale: (8p/8a) 0 ~ =-(8p/8µ) 0 ~ ·(8µ/8a) 0 ~ • Comme µ(0,p,N) = µ 0 (0,p) + R 0 ln a, où Rest la constante des gaz parfaits, il vient que (8µ/8a) 0 ,p =lia. De même, on peut montrer que V m = (8µ/8p) 0 •• est le volume molaire de la substance, d'où il vient que (8p/aa) 0 ,µ = -R·0/(Vm a), soit après intégration entre p et (p+II), où II est la presion osmotique recherchée, on a II V m = -R 0 ln a. Avec un volume molaire V m ::::: 18 cm3 mol· 1, l'eau présente une constante piézoscopique R/Vm ::::: 0,46 MPa K- 1, ce qui permet de convertir toute activité a en pression osmotique II. Pression de vapeur saturante : considérons de l'eau pure à l'état liquide mise en contact avec une phase gazeuse comme l'air. Dans le liquide, il existe des forces intermoléculaires qui empêchent les molécules d'eau présentes à la surface de s'échapper dans la phase gazeuse. Toutefois, suite à l'agitation thermique, il peut arriver qu'une molécule de surface possède une énergie cinétique suffisante pour vaincre l'énergie potentielle associée aux différentes forces intermoléculaires de la phase condensée. À l'inverse, une molécule d'eau gazeuse, proche de la surface, peut se voir happée par cette dernière si son énergie cinétique est inférieure à l'énergie potentielle de condensation. Lorsque l'équilibre thermodynamique est atteint, le nombre de molécules d'eau qui passent vers la phase gaz est égal au nombre de molécules d'eau qui se collent à la surface et la pression de vapeur générée par les molécules d'eau dans la phase gaz définit ce que l'on appelle la pression de vapeur saturante Ps du liquide pur. Cette pression de vapeur saturante dépend uniquement de la température. Pour une pression extérieure p donnée, il y aura ébullition lorsque la pression de vapeur Pv est telle que Ps > p > pV' évaporation si p > Ps > Pv et condensation lorsque p > Pv > Ps· Le point d'ébullition 8 0b est la température pour laquelle p = Ps• tandis qu'une situation d'équilibre se caractérise par Pv = Ps· Pour un équilibre solide ~ gaz ou liquide ~ gaz, la relation de Clausius-Clapeyron permet d'exprimer cette variation de la pression de vapeur saturante avec la température 0 en fonction de la chaleur latente de vaporisation Lv et de la constante des gaz parfaits R : dp = (LvN)·(d0/0) => ln (p/p 0 ) = (L/R)·(l/80b - 1/0). Par exemple, pour l'eau on a Lv(25 °C) = 41,8 kJ.mol· 1, soit Ps::::: 3,2 kPa pour p 0 = 101,325 kPa. Si maintenant une partie des molécules d'eau présentes en surface sont remplacées par une substance de nature chimique différente (soluté ou surface solide non hydratée), on s'attend à ce que la pression de vapeur Pv de l'eau pour une même température T soit plus faible puisqu'une partie de la surface occupée par le soluté n'est plus accessible à l'eau. L'activité de l'eau correspond ainsi à ce rapport entre la pression de vapeur d'eau Pvdans toute substance contenant de l'eau et la pression de vapeur saturante de l'eau pure Ps à la même température : 0 :5 llw = pJps :5 1.
354
ANNEXE TECHNIQUE
Principe d'action et de réaction : voir mécanique. Principe d'indétermination d'Heisenberg : soit N particules de masse m évoluant dans un cube d'arête L mis en contact avec un thermostat T de manière à fixer le nombre de micro-états (position q, quantité de mouvement p) accessibles à cet ensemble. En raison du mouvement brownien, toute particule se trouve de manière équiprobable en n'importe quel point du volume V= L3 avec une incertitude Aq = L selon les directions x, y ou z, correspondant à un nombre de micro-états positionnels n 0( yN = (Aq)3N. D'autre part, la théorie cinétique des gaz nous indique la densité de probabilité d'observer une certaine vitesse v à une température 0 avec une largeur à mi-hauteur qui est une bonne mesure de l'incertitude sur les vitesses Av, et donc sur la quantité de mouvement Ap = m ·Av. D'où un nombre de micro-états dynamiques Q p oc (Ap) 3N. Le nombre total de micro-états concernés dans l'espace des phases sera donc Q oc Q q Q p oc (Aq ·Ap )3N, à une constante de proportionnalité près qui doit être homogène à une action afin que Q soit un nombre pur. On retrouve ici de nouveau de manière très naturelle la constante de Planck h, et si l'on applique le deuxième et le troisième principe de la thermodynamique S : '.'.: 0, on retrouve bien la relation d'indétermination d'Heisenberg:
S = ~ Ln(Aq Ap/h)3N AqAp::'.'.:h
::'.'.:
0 => 3N k8 Ln(Aq Ap/h) : '.'.: 0 => Aq Ap/h : '.'.: 1
On notera qu'il n'y a donc nul besoin de faire appel à la théorie quantique pour introduire cette relation fondamentale. En fait, c'est exactement l'inverse !!! La formulation statistique de la notion d'entropie implique la relation d'incertitude entre position et quantité de mouvement. Cette dernière implique qu'il existe deux grandeurs non simultanément en droit et donc il ne peut y avoir de grandeur d'état. Selon le théorème de Paulette Février, il en découle qu'il faut faire appel à la logique de complémentarité, base du formalisme de la mécanique quantique, et non à la logique booléenne, base de la physique classique. Principe de relativité : principe clairement énoncé par deux physiciens français, Jean-Louis Destouches (1909-1980) et son épouse Paulette Février ( 1915-2013 ), dans un contexte qui dépasse très largement le cadre de la théorie de la relativité d'Einstein et que je reprends ici. Voir mécanique quantique. Principe d'exclusion de Pauli afin de rendre compte des spectres d'émission des atomes poly-électroniques, le physicien autrichien Wolfgang Pauli (1900-1958), qui aimait se faire appeler « le courroux des dieux », formula un principe d'exclusion selon lequel deux électrons ne pouvaient pas avoir exactement le même jeu de nombres quantiques. Ceci conduisit les physiciens néerlandais George Uhlenbeck ( 1900-1988) et Samuel Goudsmit
355
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
(1902-1978) à émettre l'hypothèse de l'existence d'un moment angulaire intrinsèque, ou spin, pouvant prendre des valeurs entières ou demi-entières de la constante h. Il en découle que la constante de Planck permet aussi de fixer l'unité de spin, ou, en vertu du principe d'homomorphisme, laisse arbitraire le choix de l'unité d'énergie une fois l'unité de temps fixée. Pour comprendre l'origine physique du principe d'exclusion de Pauli, il est crucial d'avoir compris que l'échange de position ou la rotation de particules de spin Yi sont des processus similaires (voir spineurs). Le principe d'exclusion de Pauli est la raison pour laquelle la matière nous apparaît comme impénétrable, justifiant l'existence d'un principe d'action et de réaction. C'est aussi la raison pour laquelle je ne traverse pas le plancher sur lequel je marche bien que le centre de la Terre m'attire avec force par gravité. De même, si le sol terrestre ne s'effondre pas sur lui-même, c'est parce que la matière terrestre est impénétrable et se trouve déjà dans un état de compression maximal compte tenu de la force de gravité. Le principe d'exclusion de Pauli m'interdit de compresser les atomes par gravité. Au-delà d'un certain taux de compression, une pression de Pauli apparaît qui empêche l'effondrement gravitationnel de l'objet sur lui-même. C'est ainsi que les planètes et les étoiles peuvent exister. Le principe d'exclusion de Pauli est aussi la raison pour laquelle les atomes ont des nuages électroniques très étalés, car il oblige les électrons à former des couches. Lorsque les noyaux s'habillent d'électrons et qu'une couche devient pleine, une nouvelle couche plus éloignée du noyau doit être utilisée. Le principe d'exclusion de Pauli est donc à l'origine de la classification périodique des éléments découverte par Dimitri Mendeleïev. La taille d'un atome correspond à la taille de la dernière couche occupée. Sans le principe d'exclusion de Pauli, tous les atomes seraient de la même taille que l'atome d'hydrogène. Ceci s'applique aussi au noyau : leur taille est fixée par la taille de la dernière couche de nucléons. Sans le principe d'exclusion de Pauli, les noyaux auraient tous la même taille qu'un proton isolé. En exagérant un petit peu, c'est le principe d'exclusion de Pauli qui donne une forme à la matière car sans lui il n'y aurait pas de volume. Seul ce principe permet d'éviter que les nuages électroniques des atomes coalescent, créant la liaison chimique qui oblige les atomes à être séparés. Cette répulsion permet que toutes choses aient un volume fini. Toutes les formes des solides et des fluides sont une conséquence directe du principe d'exclusion de Pauli. Autrement dit, chaque fois que je frappe sur une table ou une porte, je prouve de manière expérimentale que les objets sont fabriqués à partir de fermions. Les systèmes de spin supérieur à Yi peuvent être vus comme étant composés d'un nombre impair d'entités de spin Yi. Il est impossible d'avoir des valeurs de spin inférieures à Yi. Ceci est lié au fait que l'angle solide le plus grand qui puisse être mesuré dans un espace à 3 dimensions est 41t. Comme il est impossible de mesurer un angle plus grand, il en découle que suite à l'existence du quantum d'action, il ne peut
356
ANNEXE TECHNIQUE
y avoir dans la nature de valeurs de spin strictement comprises entre 0 et Yi. W. ( 1925), «On the Connection between the Completion of Electron Groups in an Atom with the Complex Structure ofSpectra », Z. Phys., 31 : 765-783.
PAULI,
Probabilité : La science des probabilités est née en 1654 d'une correspondance entre les mathématiciens français Pierre Simon de Fermat (1601-1655) et Blaise Pascal (1623-1662) traitant de l'analyse combinatoire en relation avec le triangle arithmétique de Pascal. Ainsi, lorsqu'on jette un dé sur la table plusieurs centaines de fois, on trouve que le rapport min que l'on appelle la fréquence relative entre le nombre de jets m donnant un certain résultat (fréquence) et le nombre total de jets n tend vers 1/6. On peut donc définir la probabilité P qui est un nombre sans dimension compris entre zéro et un, comme la limite du rapport min quand n tend vers l'infini, et l'on parle d'équiprobabilité lorsque cette probabilité est la même pour tous les événements possibles. Tout l'intérêt de l'approche statistique réside donc dans la sélection de populations homogènes. Or, si cette condition est parfaitement remplie dans le cas d'un gaz, où toutes les molécules sont rigoureusement identiques, ou d'une usine produisant des boulons, voire même des obus, elle ne s'applique en aucun cas à un cabinet médical, où, pour un groupe de personnes partageant la même pathologie, chaque individu reste un cas unique. En fait, même si la condition d'homogénéité se trouve remplie, il est encore possible de se tromper en toute bonne foi, par paresse intellectuelle. Pour fixer les idées, soit une pathologie M ayant une fréquence p(M) pour un ensemble d'individus n'ayant aucune prédisposition particulière pour ce type de maladie et soit T, un test visant à détecter cette maladie avant qu'elle ne soit déclarée dans cette même population. Une donnée cruciale du test est sa sensibilité qui mesure sa capacité à donner un résultat positif lorsqu'une hypothèse est vérifiée. Pour cela, on sélectionne des gens vraiment malades et l'on regarde si le test donne un résultat positif ou négatif. Si une personne est malade et que le test est positif, on parle de « vrai positif (VP) » car le test a bien fonctionné, alors que si le test est négatif, on parle de« faux négatif (FN) » car le test a échoué à détecter la maladie bien déclarée. Dans ces conditions, la sensibilité du test correspond au rapport p( EB IM) = VP/(VP+FN). La sensibilité est un exemple de probabilité conditionnelle, que l'on note de manière très générale p(BIA) signifiant« probabilité d'avoir l'événement B si l'événement A est survenu ». Dans notre exemple, p(ffilM) se traduit par « probabilité d'avoir un test positif si la personne est malade », ce qui correspond à la sensibilité. La sensibilité s'oppose à la spécificité, qui mesure la capacité d'un test à donner un résultat négatif lorsque l'hypothèse n'est pas vérifiée. Ici aussi, on obtiendra un résultat positif ou négatif avec soit un « faux positif (FP) » si le test s'est trompé, soit un « vrai négatif (VN) » si le test a donné une réponse correcte. Dans ces conditions, la spécificité du test correspond au rapport p(81-,M) = VN/(VN+FP), qui se traduit par« probabilité d'avoir 357
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
un test négatif si la personne n'est pas malade», le symbole'-,' représentant l'opérateur logique niant la propriété à laquelle il s'applique. Ensemble, la sensibilité et la spécificité d'un test donnent une appréciation de sa validité intrinsèque. Prises séparément, elles ne veulent rien dire. Par exemple, un test avec une sensibilité de 95 % n'a aucune valeur si sa spécificité n'est que de 5 % car cela signifie que le test est positif chez 95 % des individus sans aucune corrélation avec la maladie. Muni de ces données, on peut également définir la précision du test comme le rapport VP/(VP+FP) et son exactitude comme le rapport (VP+VN)/(VP+FN+VN+FP). Que se passe-t-il maintenant si je cherche à inverser la probabilité conditionnelle de sensibilité, p(MIE9), c'est-à-dire si je m'intéresse à la« probabilité d'être malade sachant que le test s'est révélé être positif». Tout le monde devrait intuitivement sentir, en tant que malade en puissance, que c'est la seule chose qui compte pour prendre une décision ou se projeter dans le futur. C'est bien évidemment à ce niveau qu'il faut être vigilant et ne pas supposer bêtement, comme le font certains médecins, que les deux probabilités conditionnelles sont simplement égales, p(E91M) = p(MIE9). C'est ici qu'intervient le théorème de Bayes que l'on peut écrire sous la forme suivante : p(A)
X
p(BIA) = p(B)
X
p(AIB)
La clé est donc de bien penser à pondérer chaque probabilité conditionnelle par la probabilité de l'événement qui vient de se produire. Dans notre cas, le théorème de Bayes s'écrit: p(E9) x p(MIE9) = p(M) x p(E91M). C'est-à-dire que connaissant la fréquence p(M) et la sensibilité du test p(E91M), il me faut aussi connaître la probabilité d'avoir un test positif p(E9) afin de pouvoir inverser la probabilité conditionnelle. Cette dernière probabilité concerne malades (M) et non-malades (_,M) et s'obtient en additionnant le produit des fréquences par les probabilités conditionnelles correspondantes : p(E9) = p(M)
X
p(E91M) + p(-,M)
X
p(E91-,M)
Or, on est évidemment malade ou non-malade, soit: p(-,M) = l - p(M). De même, si je ne suis pas malade le test sera nécessairement positif ou négatif, soit p(E91-,M) = l - p(81-,M), ce qui introduit la spécificité. Si on prend l'exemple concernant les mammographies (voir théorème de Bayes), nous avons p(M) = 0,008 soit p(-,M) = 0,992, une sensibilité p(E91M) = 0,9 et une spécificité p(81-,M) = 0,93, soit p(E91-,M) = 0,07. La probabilité d'avoir une mammographie positive est donc p(E9) = 0,008 x 0,9 + 0,992 x 0,07 = 0,072 + 0,06944 = 0,07664. Par conséquent, la probabilité d'avoir le cancer sachant que ma mammographie est positive est de p(MIE9) = 0,072/0,7664 = 0,09, soit seulement 9 chances sur 100 comme vu précédemment. Que penser dans ces conditions de ces médecins qui prescrivent des biopsies au vu d'une mammographie positive? Bien sûr, le théorème de Bayes s'applique à toutes 358
ANNEXE TECHNIQUE
les méthodes de diagnostic médical, même les plus sûres. Prenons par exemple le cas du test ELISA pour détecter le virus du HIV qui présente une sensibilité SS= p(EBIHIV) = 99,9 % pour une spécificité SP = p(81_,HIV) = 99,99 % sachant que le SIDA touche une proportion PP= p(HIV) = 0,01 % de la population. Vous faites partie de cette catégorie de personnes à faible risque et votre test ELISA se trouve être positif. Que faut-il faire ? Se suicider, hausser les épaules ou appliquer le théorème de Bayes ? Bien évidemment, c'est la dernière solution qui est la bonne, ce qui reformulé au moyen des trois pourcentages pertinents (PP, SS et SP) donne : 100 100 p(HNIEB)= (100 ){100-SP)= ( 100 )(100-99,99)= 50% 1+ - - 1 1+ - - 1 PP SS 0,01 99,9 Comme il n'y a qu'une chance sur deux que vous ayez contracté le SIDA, il est parfaitement inutile de se suicider ou de paniquer. Pour bien comprendre le mécanisme à l 'œuvre, imaginons que le SIDA touche une proportion plus élevée de la population, par exemple PP= 1 %. La relation ci-dessus montre qu'avec le même test positif la probabilité d'avoir le SIDA passe à 99 %, une quasi-certitude... Imaginons aussi que le test soit légèrement moins spécifique avec SP = 99 %, ce qui reste quand même très honorable. Pour une incidence PP= 0,01 %, la probabilité d'avoir le SIDA avec un ELISA positif chute à 1 % et le bon réflexe est de hausser les épaules. D'où l'importance de disposer de tests très spécifiques si la maladie que l'on cherche à détecter est relativement peu fréquente. Si l'on a bien compris le mécanisme du théorème de Bayes, les tests ne sont vraiment utiles que si la maladie n'est pas trop rare. En effet, imaginons une maladie qui touche une personne sur deux, soit PP = 50 % et un test de spécificité assez faible, SP = 90 %, ne donnant pour simplifier aucun faux négatif, soit SS= 100 %. Le fait d'avoir une réponse positive au test signifie ici qu'il y a 91 chances sur 100 d'avoir contracté la maladie. Protérozoïque: dernier éon du Précambriens' étendant de 2 500 à 541 millions d'années qui a débuté avec la grande vague oxydative suite à l'épuisement du fer(II) marin par le dioxygène libéré par l'activité photosynthétique des cyanobactéries. Pseudo-vecteur : entité tensorielle de rang 2 antisymétrique dans un espace tridimensionnel. Comme il suffit de trois nombres (Txy' T xz' TY,) pour caractériser complètement un tel tenseur, on peut considérer cette entité comme un pseudo-vecteur à trois composantes. On reconnaît le pseudovecteur au fait qu'il pointe toujours dans la même direction après passage d'un repère droit à un repère gauche.
359
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
Quantité de matière : il existe trois manières principales d'exprimer la quantité de matière : volume, masse ou nombre de moles. La question se pose donc de savoir s'il n'y en a pas une qui est plus fondamentale que les autres. La réponse à cette question dépend du but que l'on recherche. Si l'on s'intéresse à l'aspect expérimental et pratique des choses, il est évident que les unités de volume et de masse sont de loin les mieux adaptées. En effet, dans tout laboratoire scientifique qui se respecte, on trouve des fioles, des pipettes et des seringues pour manipuler des liquides et des balances pour régler les proportions des matières solides. Travailler en moles ne correspond donc à rien de tangible lorsque l'on s'intéresse uniquement à l'aspect pratique des choses. Une personne qui a pris l'habitude de raisonner en masse ou en volume ne peut donc que constater des phénomènes et non comprendre ce qui se passe. Dès que se pose la question de la compréhension ou de la modélisation des phénomènes, il est clair que l'unité de masse est de loin préférable à l'unité de volume. En effet, suite aux phénomènes de dilatation thermique et de compressibilité isotherme, les volumes peuvent varier pour une même quantité de matière donnée dès que la température ou la pression changent. Dès lors, raisonner en volume suppose que l'on a pris le soin de s'assurer que température et pression restent rigoureusement constantes durant toute la durée de l'expérience, ce qui complique considérablement la pratique expérimentale de laboratoire. La masse, étant une quantité qui reste toujours la même quelles que soient les conditions de température et de pression, est donc une chose beaucoup plus fondamentale que le volume. Ceci explique que la toute première étape de compréhension du mode de fonctionnement de la nature passe toujours par une conversion des volumes en masses, via la notion de densité ou de masse volumique. Ayant converti tous les volumes en masses, il reste le problème du passage de l'aspect macroscopique des choses (masses) à l'aspect atomique ou moléculaire (moles). Le problème est ici que dans tout processus physique, chimique ou biologique il y a des objets en mouvement qui se rencontrent à un moment crucial de leur existence. Or ce fut l'un des progrès décisifs du xixe siècle d'arriver à comprendre qu'à une échelle suffisamment petite, voisine du milliardième de mètre, la matière ne pouvait plus être divisée en parties équivalentes du point de vue de la masse. À cette échelle extraordinairement petite qui échappe à nos sens, nous entrons dans le royaume des molécules, toutes constituées à partir d'une centaine de briques fondamentales appelées atomes. Raisonner en masse n'est ici plus d'aucune utilité et pour avoir une bonne compréhension des raisons qui poussent la matière à se déplacer ou à se transformer, il faut impérativement convertir toutes les masses en moles. Qualité extensive : les quantités extensives caractérisent un échantillon de taille donnée. Exemple : énergie, masse, volume, entropie et nombre de particules. 360
ANNEXE TECHNIQUE
Qualité intensive : les quantités intensives sont caractéristiques de la substance et indépendantes de la taille del' échantillon. Exemple : température, pression, densité volumique ou concentrations. Quantité de mouvement p: si v désigne le vecteur vitesse d'une masse m, on peut définir sa quantité de mouvement vectorielle p comme le produit de la masse par le vecteur vitesse : p = m v. Comme l'énergie, la quantité de mouvement totale d'un système mécanique isolé est toujours conservée. Contenu dimensionnel: [ML T 1).
Radical (hydroxyle, superoxyde): espèce chimique très réactive possédant un ou plusieurs électrons non appareillés. Dans l'eau, il peut s'agir du radical neutre extrêmement oxydant OH• formé lors d'une radiolyse Hp + y --+ OH•+ •H, où y représente un photon absorbé par la molécule d'eau. C'est l'espèce active en photocatalyse. De plus, comme le dioxygène est omniprésent sur Terre, on peut aussi former l'ion superoxyde 0 2• 8 lors de la capture d'un électron : 0 2 + e8 --+ 0 2• 8 • Il s'agit d'un acide faible (pKa = 4,8) : HO/ ~ 0 2°8 + HEll. Si pH > 5, cet ion s'entoure de quatre molécules d'eau et reste donc peu toxique. Par contre, si pH < 5, il devient lipophile et donc extrêmement toxique pour les cellules en raison de la réaction H02 • + Hp--+ Hp 2 +HO•, deux espèces très oxydantes et surtout lipophiles. C'est la raison pour laquelle il convient d'éviter toute acidité intracellulaire. H. J. ; CABELLI, D. E. ; ARUD!, R. L. (1985), « Reactivity of H02/02- radicals in aqueous solutions », J. Phys. Chem. Rej Data, 14 : 1041-11 OO. JANIK, 1.; TRIPATHI, G. N. R. (2013), «The nature of the superoxide radical anion in water», J. Chem. Phys., 139: 014302. BIELSKJ, B.
Radioactivité (désintégration) : phénomène découvert par le physicien français Henri Becquerel (1852-1908), lequel avait publié une courte note de quelques lignes au sujet d'un rayonnement mystérieux et nouveau qui traversait le papier noir le plus opaque et qui était capable de réduire les sels d'argent des plaques photo même protégés par une plaque de verre. Il savait que ces rayons mystérieux n'étaient pas des rayons X découverts un petit peu plus tôt par son ami Wilhem Rontgen, car la fluorescence X s'arrête dès que l'on coupe la source. Ici la source était un sel phosphorescent, mais il n'y avait aucun moyen d'arrêter l'émission qui se produisait de manière continue. Dès que le physicien néo-zélandais Ernest Rutherford ( 18711937), qui travaillait dans le laboratoire de J. J. Thomson, apprit l'existence de ces nouveaux rayons, il se mit à les étudier afin d'en déterminer leur nature. En effet, suite aux travaux des chimistes français Pierre et Marie Curie qui identifièrent et isolèrent les éléments hautement radioactifs 361
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
que sont l'uranium, le polonium et le radium, on disposait de sources radioactives nombreuses et variées. Pierre Curie (1859-1906)
Pechblende ou Uraninite
uo2+x
Figure 158
Marie Curie (1867-1934)
En 1898, Rutherford découvre qu'une feuille de papier est capable d'arrêter certains rayons qu'il baptisa (a) d'autres rayons dits W). Il constata ensuite que les rayons ~ étaient attirés par une électrode positivement chargée et très facilement déviés par un champ magnétique. Par opposition, les rayons a étaient attirés par une électrode négativement chargée et il était très difficile de les faire dévier dans un champ magnétique. Il mesura alors la masse des particules constituant ces deux types de rayons et trouva que le rayonnement ~ contenait en fait des électrons, tandis que la masse des particules responsables des rayons a correspondait à la masse d'un atome d'hélium ayant perdu ses deux électrons. Rutherford étudia aussi un autre type de rayons découverts en 1900 par le physicien français Paul Villard et baptisés rayons y et constata qu'ils étaient neutres sur le plan électrique et se comportaient en fait comme de simples ondes électromagnétiques, mais de fréquence beaucoup plus courte que celle des rayons X.
Rasoir d'Occam : Au x1e siècle, le philosophe scolastique français Roscelin de Compiègne ( 1050-1121) affirme que les universaux abstraits platoniciens ou les dix catégories abstraites d'Aristote (la substance, la quantité, la qualité, la relation, le lieu, le temps, la position, la possession, l'action et la passion) n'ont pas d'existence propre en dehors de l'individu réel qui les imaginent. Le nominalisme qui soutient que les universaux ne sont que des noms, de simples étiquettes posées sur les choses, culminera avec le philosophe anglais Guillaume d'Occam (1285-1347) sous la forme d'un principe d'économie appelé rasoir d'Occam basé sur l'apophtegme : «La pluralité ne doit pas être posée sans nécessité.» Ceci signifie qu'il ne faut pas utiliser de nouvelles hypothèses tant que celles déjà énoncées suffisent. D'un point de vue moderne, ce principe de parcimonie est équivalent au théorème de Bayes. Rayon de Schwarzschild : toute augmentation de masse dM entraîne une augmentation d'énergie gravitationnelle dE = 2G M dM/L qui ne pourra 362
ANNEXE TECHNIQUE
jamais être plus grande que l'énergie totale dE = dM c2 : 2G M dM/L:::; dM·c2 , soit L :'.'.: 2G M/c 2 = Rs. Rayons X : en 1870, le physicien et chimiste anglais William Crookes s'intéresse aux rayons cathodiques émis par des tubes où l'on a réalisé un vide poussé et qui sont munis de deux électrodes auxquelles on applique un fort potentiel électrique. Crookes découvre que ces rayons provoquent des phénomènes de phosphorescence sur les objets qui sont irradiés.
William Crookes (1832-1919)
Rayons X
Wilhelm Conrad
Figure 159
Le soir du 8 novembre 1895, le physicien allemand Wilhelm Rontgen observe qu'à la décharge d'un tube de Crookes, complètement enrobé de carton noir, scellé pour en exclure toute lumière et ceci dans une chambre noire, un carton couvert d'un côté de platinocyanure de baryum devient fluorescent lorsqu'il est frappé par les rayons émis du tube, et ce jusqu'à une distance de deux mètres. Lors d'expériences subséquentes, il place divers objets entre une plaque photographique et la source de rayonnement et il se rend compte qu'ils ont une transparence variable. Il expérimente ensuite avec la main de son épouse placée sur le parcours des rayons. Au développement, il s'aperçoit que l'image est en fait l'ombre des os de la main de son épouse, son alliance y étant visible. Les os sont entourés d'une pénombre qui représente la chair de la main, la chair est donc plus perméable aux rayons que la matière osseuse. À la suite d'autres expériences, Rôntgen constate que les nouveaux rayons sont produits par l'impact des rayons cathodiques sur un objet matériel. Parce que leur nature est encore inconnue, il leur donne le nom de rayons X. Plus tard, on démontrera qu'ils sont de nature électromagnétique, tout comme la lumière, et diffèrent seulement par une plus haute fréquence. De nos jours les rayons X sont couramment employés pour faire du diagnostic médical ou pour déterminer les structures cristallines par diffraction. En effet, tous les atomes ayant une taille voisine de 0, 1 nm, un faisceau de rayons X ayant une longueur d'onde de cet ordre de grandeur sera diffracté dans plusieurs directions par tout empilement régulier d'atomes comme on en trouve dans un cristal. Réaction en chaîne par polymérase (PCR) : ou Polymerase Chain Reaction en anglais, est une technique de réplication ciblée in vitro imaginée par le biochimiste américain Kary Bank Mollis en 1985 (Prix Nobel 1993), qui
363
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
connaît un essor considérable suite à la commercialisation, vers 1988, d'une ADN polymérase résistante aux températures élevées (la Taq polymérase), ce qui a permis d'automatiser la technique. La PCR permet d'obtenir en moins d'une heure, à partir d'un échantillon complexe et peu abondant, plus d'un milliard de copies d'un fragment d' ADN spécifique et de longueur définie. Il s'agit de réaliser une succession de réactions de réplication d'une matrice double brin d' ADN. Chaque réaction met en œuvre deux amorces oligonucléotidiques dont les extrémités 3-prime pointent l'une vers l'autre. Les amorces ou « primers » en anglais définissent alors, en la bornant, la séquence à amplifier. L'astuce consiste à utiliser les produits de chaque étape de synthèse comme matrices pour les étapes suivantes, au lieu de les séparer afin de ne réutiliser que la matrice originale. Au lieu d'être linéaire, l'amplification obtenue est exponentielle. Relativité (galiléenne) : si on peut associer à toute accélération a une force réelle f = m a dans un certain référentiel d'inertie, on aura la même accélération a et donc la même force f pour un repère se déplaçant en ligne droite avec une vitesse v constante par rapport au premier puisque dans ce cas dv/dt = O. Relativité (restreinte) : théorie formulée par le physicien allemand Albert Einstein qui place une limite supérieure absolue sur la vitesse de déplacement de l'énergie ou de la masse. La qualification restreinte ajoutée au terme relativité signifie que les repères accélérés, en particulier ceux où se manifeste la force de gravitation entre masses, sont exclus du principe. Sic= L T 1 = 1, alors L = T. De même, la quantité de mouvement p = M L T 1 étant homogène au produit d'une masse M par une vitesse (L-1' 1), il vient que p =M. Or, l'énergie U = M L2 T 2 est homogène à une quantité de mouvement (ML T 1) que multiplie une vitesse (L T 1), d'où U = p =M. Enfin, un champ électrique E (M L2 T 1 Q- 1) étant homogène au produit d'un champ magnétique B (ML Q- 1) par une vitesse v (L T 1), il vient aussi que E = B. Lorsque la vitesse des objets se trouve être petite devant la vitesse de propagation de la lumière dans le vide, le principe de relativité restreinte se confond avec le principe de relativité galiléenne. Relativité (générale) : théorie proposée par le physicien allemand Albert Einstein où c'est le champ gravitationnel qui définit un continuum quadridimensionnel, sorte d'espace-temps de Minkowski obéissant aux équations du champ et capable de se plier et d'osciller (courbure spatiale). La mécanique quantique vient briser cette vision des choses, car les champs quantiques ont une structure granulaire et sont animés de fluctuations probabilistes. D'où de graves problèmes qui sont encore loin d'être résolus.
364
ANNEXE TECHNIQUE
Relation de Gibbs-Dohem: la différentielle de l'énergie interne U présente
une propriété remarquable, à savoir que toutes les quantités différentielles impliquent une grandeur de nature extensive. De même, chaque différentielle est affectée d'un coefficient de proportionnalité de nature intensive. Imaginons maintenant que l'on prélève une fraction infinitésimale dx du système, ce qui permet d'écrire que dU = U dx. L'énergie interne étant une qualité extensive, somme de plusieurs contributions, on aura: U dx = (0· S-p V+µ N) dx, soit : U = 0 S - p V+µ N. Ceci constitue la forme intégrée combinant le premier principe et le second principe pour un système ouvert. On peut donc écrire : G=U +p V-0 S= µ N, ouencoredG= µ dn +ndµ=-S·d0+ V·dp+ µ dn, puisque dU = 0 dS - p dV. On en déduit ainsi l'équation Gibbs-Duhem : -S d0 + V dp = N dµ. Ceci nous montre que les différentes qualités intensives ne sont pas indépendantes les unes des autres. Si, de plus, la température et la pression restent constantes, il vient pour un système à deux composants que n1 dµ 1 = -n2 dµ 2 montrant que toute variation de µ 2 provoquera une variation de µ 1 en proportion avec le rapport n/n 1• De même, pour un corps pur, on a -S dT +V dp = n dµ, ce qui peut être réécrit: dµ = -(S/N)·dT +(VIN) dp, ce qui indique que le potentiel chimique d'un corps pur ne dépend que de la température et de la pression. On a donc (8S/ON)0 ,p = (8µ/80) p,N et (8Vl8N\.p = (8µ/8p)T,N' relations permettant de savoir comment le potentiel chimique dépend de la température et de la pression. Référentiel d'inertie : donnée d'un repère cartésien tridimensionnel pour situer un point dans l'espace à l'aide de règles et d'une horloge pour mesurer
des différences de temps. Repère cartésien : système d'axes orthogonaux avec une origine permettant
de se repérer dans un espace donné. Réseau de spins : visualisation de l'espace-temps en gravitation quantique à boucles. Les nœuds du réseau de spin représentent les grains élémentaires d'espace ayant un volume fixé par un nombre quantique associé au nœud qui est un multiple du volume élémentaire de Planck VP = LP3 (échelle de Planck). Deux nœuds sont adjacents s'il existe une portion de boucle, appelée lien, reliant un nœud à l'autre. Ce lien entre deux nœuds définit une surface élémentaire séparant les deux nœuds, dont l'aire est quantifiée par un nombre quantique j, associé à chaque lien, dont l'aire vaut A= 161t L/ [jQ+l)]\ d'où l'appellation « réseau de spin ». Une région physique de l'espace est ainsi constituée d'une superposition quantique d'états de tels réseaux de spin, la dynamique étant assurée par une équation dite de Wheeler-DeWitt qui joue pour le champ gravitationnel un rôle similaire à l'équation de Schrôdinger ou de Dirac pour les champs de matière. Tout ceci découle logiquement de l'application directe des techniques quantiques à la relativité générale. Le problème est que l'équation de Wheeler-DeWitt existe sous plusieurs 365
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
versions et que l'on ne sait pas encore laquelle est correcte. La connexion avec la physique à basse énergie n'est aussi pas très claire car il n'existe pas de moyen de calculer les amplitudes de diffusion et les sections efficaces associées comme on le fait au moyen du calcul des perturbations en théorie quantique des champs. Il existe aussi dans la théorie un paramètre ajustable dit de Immirzi nécessaire pour s'accorder avec l'entropie d'un trou noir. Si l'aspect mathématique de la théorie est bien défini, cela ne signifie pas qu'il est possible de tout calculer. Résistivité électrique p : aptitude à laisser passer le courant électrique. Contenu dimensionnel p = [M L 1' 1 Q·2]. Unité SI : ohm- mètre (Q m). La résistivité de l'eau ultra-pure est p = 18 MQ cm. Respiration cellulaire : dans la respiration cellulaire, la cellule utilise le fait qu'il existe toujours un potentiel membranaire /!!..V qui provient de la répartition inégale du potassium de part et d'autre de la membrane lipidique. En établissant une différence de concentration en protons de part et d'autre d'une bicouche lipidique, puis en autorisant les protons à traverser cette membrane, on peut ainsi trouver l'énergie nécessaire pour fabriquer l 'ATP, selon la relation: llG(kJ mol- 1) = 96,5 /lV(mV). Pour une valeur moyenne /lV = -60 mV, on récupère donc environ 6 kJ mo1· 1 par proton transféré. Comme l'énergie libre récupérée par hydrolyse de l' ATP est de -25 kJ mol·t, il faut donc faire passer quatre protons pour obtenir une molécule d' ATP:
Les indices« extra» et« intra »font ici référence à l'existence d'une membrane étanche au passage spontané des protons, ce qui empêche de les simplifier à droite et à gauche, comme ce serait évidemment le cas en solution. Résonance stochastique : dans tout système fonctionnant de manière linéaire, on maximise le rapport signal/bruit en minimisant le bruit. Par opposition aux systèmes linéaires, on peut avec les systèmes non linéaires maximiser le rapport signal/bruit en ajoutant une quantité optimale de bruit. La résonance stochastique est un phénomène naturel qui a été mis en évidence dans de multiples situations. McDoNNELL, M. D. ; Aeeorr, D. (2009), « What is stochastic resonance ? definitions, misconceptions, debates, and its relevance to biology », PloS Comput. Bio/., 5(5): el000348.
Rotation : pour un corps en rotation sur lui-même avec un mouvement circulaire uniforme, on a une vitesse linéaire v = L co où co = d0/dt est la vitesse angulaire (pulsation), d'où un moment angulaire soitj = m L2co=1 co (a= 90°). Ceci montre que le moment angulaire est le produit d'un moment d'inertie (produit d'une masse par une aire) et d'une vitesse angulaire. 366
ANNEXE TECHNIQUE
Comme le moment angulaire total de tout système isolé ne peut jamais varier, toute altération du moment d'inertie (aire balayée par la masse) changera la vitesse de rotation ro. Il est facile de montrer que toute rotation d'un angle a est équivalente à deux réflexions dans deux plans miroirs faisant entre eux un angle aJ2. Si l'angle a est nul (miroirs parallèles), on génère une translation et non une rotation. Lors de toute rotation d'angle a dans le sens inverse des aiguilles d'une montre, un point (x,y) du plan perpendiculaire à l'axe de rotation est envoyé en (x' = x·cos a - y·sin a, y'= x·sin a+ y·cos a). Une rotation hyperbolique d'angle a enverra pour sa part le point (x,y) en (x' = x·ch a+ y·sh a, y'= x·sh 0 + y·ch 0), où ch x = Yi(ex + e-x) et sh x = Yi( ex - e-x). Les rotations hyperboliques sont à la base des poussées de Lorentz.
•s Scalaire : quantité physique qui ne dépend pas de la direction. Toute grandeur scalaire se caractérise par la donnée d'un seul nombre positif ou négatif. Second principe (thermodynamique) : énoncé par le physicien allemand Rudolf Clausius qui affirme que les systèmes macroscopiques sont caractérisés par une qualité extensive S appelée entropie qui se trouve être la variable conjuguée de la température 0 et qui ne peut qu'augmenter ou rester stationnaire (transformation réversible) lors de toute transformation spontanée (Clausius 1854). Soit dS 2: oQ/0, où dS et oQ désignent respectivement des variations d'entropie et de chaleur arbitrairement petites et 0, la température absolue mesurée sur l'échelle de Kelvin. Mais écoutons Clausius expliquer lui-même les raisons qui l'ont poussé à choisir le terme« entropie» dans l'un de ses nombreux mémoires sur la chaleur (Clausius 1865): Je préfère emprunter aux langues anciennes les noms des quantités scientifiques importantes, afin qu'ils puissent rester les mêmes dans toutes les langues vivantes ; je proposerai donc d'appeler la quantité S l'entropie du corps, d'après le mot grec Ell tpom) en transformation. C'est à dessein que j'ai formé ce mot entropie, de manière qu'il se rapproche autant que possible du mot énergie ; car ces deux quantités ont une telle analogie dans leur signification physique qu'une analogie de dénomination m'a paru utile... Je me bornerai pour le moment à indiquer le résultat suivant : si l' on imagine que l'on ait formé d'une manière conséquente pour l'univers entier, en tenant compte de toutes les circonstances la quantité que j'ai nommée entropie pour un corps particulier, ainsi que la quantité désignée sous le nom d'énergie et dont le sens est plus facile à saisir, on pourra expliquer très simplement, sous la forme suivante, les lois fondamentales de l'univers qui correspondent aux deux principes essentiels de la théorie mécanique de
367
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
la chaleur :
1) Die Energie der Welt bleibt konstant (L'énergie de l'univers est constante). 2) Die Entropie der Welt strebt einem Maximum zu (L'entropie de l'univers
tend vers un maximum). Voir aussi Epistémologie. R. ( 1854), « Ueber eine veriinderte F onn des zweiten Hauptsatzes der mechanischen Wlinnetheoriein »,Anna/en der Physik und Chemie, 93: 481-506. CLAUSIUS, R. (1865), « Sur diverses fonnes des équations fondamentales de la théorie mécanique de la chaleur qui sont commodes dans l'application», Ann. Poggendorff, t. CXXV, p. 353, traduction française de F. Folie in Théorie mécanique de la chaleur, Eugène Lacroix éd., Paris ( 1868), Mémoire IX, p. 411-420. CLAUSIUS,
Seconde quantification (physique quantique des champs): l'idée de base de la théorie quantique des champs est de traiter un système une première fois quantifié non plus comme une fonction d'onde mais comme un opérateur quantique. On parle ainsi de seconde quantification, processus où les coordonnées spatiales deviennent comme la coordonnée de temps de simples indices continus du nouvel opérateur de champ. Ceci permet d'avoir une symétrie totale entre les coordonnées d'espace et de temps, chose impossible en première quantification. De plus, les corpuscules deviennent des excitations du champ quantique selon un certain mode qui se manifeste uniquement sous forme de quanta ayant une certaine énergie/fréquence et une certaine quantité de mouvement/vecteur d'onde. Chaque point de l'espace-temps se voit donc doté d'une paire d'opérateurs permettant de créer ou d'annihiler n'importe quel quantum. Ainsi, toute fonction d'onde 'l'{x,y,z,t) est promue au rang d'opérateur du champ 'P{x,y,z,t). Tout mode d'excitation du champ se propage avec une longueur d'onde À.p = h/p et une fréquence f p = Ep/h associée à l'énergie Ep transportée, où p est un simple label de l'espace réciproque. Les excitations du •champ ont donc également une phase
= ln+ p apparaître un quantum de quantité de mouvement p = h k où np est le nombre de quanta partageant le même vecteur d'onde ken ce point. De même, il existe un autre opérateur â d'annihilation diminuant d'une unité ce même nombre de quanta: âpln>= fn p-1>. Ces deux opérateurs de création et d'annihilation p obéissent aux relations de commutation canoniques [âp(t),âp 't(t)] = ôpp ., avec ô . = 0 si p f p' et ô . = 1 si p = p', qui se substituent au commutateur c~onique de la premrère quantification. Comme le nombre de quanta ne peut plus être connu avec certitude, il existe aussi un opérateur permettant de compter les quanta. Si l'on souhaite connaître le nombre de quanta n,p il suffit d'en annihiler un et de le recréer aussitôt : âptâp ln>= np ·in>, ce qui définit p p 368
ANNEXE TECHNIQUE
une nouvelle observable Np = âptâp, permettant de compter les quanta en tout point de l'espace-temps. Pour un système constitué de N p quanta, on aura une énergie E = N p hfp et toute fluctuation du nombre de quanta LlNp durant un laps de temps Llt = Ll = (8U/8S)vw Selon la mécanique statistique, la condition d'équilibre thermique entre deux systèmes A et B pouvant échanger de la chaleur s'écrit asA;auA = asB;auB. Or, pour un gaz parfait on a S(U,V,N) =~ln [(este) VN U 3N12], où~ est la constante de Boltzmann, soit 8S/8U = 3N ki2U et donc as;au diminue lorsque U augmente. Si 8SA/aUA = 8S 8/8U8 , Oil peut donc écrire: 1/E)A = 1/08 avec E) = (8U/aS) V,N" On a donc bien E>A = 0 8 comme condition d'équilibre thermique. Si l'on fixe la pression au lieu de fixer le volume, la température peut aussi être définie comme le taux de variation de l'enthalpie lorsqu'on ajoute ou retire de l'entropie S à pression pet nombre d'entités N constant: E> = (8H/8S)p,N"
Temps T : unité SI= seconde (s). Le temps est une grandeur scalaire qui permet de parler d'un mouvement ou d'une évolution. Tenseur : objet mathématique définit par la donnée de 3N nombres pour un espace de dimension 3 qui doivent pris en bloc lors de toute action. L'exposant N s'appelle le rang du tenseur. Une grandeur scalaire peut être ainsi vue comme un tenseur de rang 0, tandis qu'un vecteur forme un tenseur de rang 1. On parle de tenseur à partir d'un rang supérieur ou égal à 2. Par exemple si je souhaite transformer un vecteur a pointant dans une certaine direction en un autre vecteur b pointant dans une autre direction, il me faudra utiliser un tenseur de rang 1+1 = 2 à 32 = 9 composantes disposés selon une matrice 3x3. Si un scalaire peut se visualiser par un point et un vecteur par une flèche, un tenseur de rang 2 se visualise comme un ellipsoïde. La courbure d'une surface est un exemple de tenseur de rang 2. Dans le phénomène de piézoélectricité, une contrainte (tenseur de rang 2) qui fait apparaître une polarisation électrique (vecteur de rang 1) se décrira au moyen d'un tenseur de rang 1+2 = 3 à 33 = 27 composantes. De même si j'applique une contrainte (tenseur de rang 2) entraînant la déformation (tenseur de rang 2) d'un solide, il me faudra utiliser un tenseur de rang 2+2 = 4 à 34 = 81 composantes. De manière plus générale, toute cause décrite par un tenseur de rang n produisant 375
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
un effet décrit par un tenseur de rang m dans un espace de dimension d fera appel à un tenseur de rang N = n+m, à dN composantes. Les tenseurs jouent une rôle crucial aussi en relativité générale qu'en physique des matériaux. Tension superficielle y : la tension superficielle est l'énergie qu'il faut dépenser pour créer un mètre carré de surface d'une substance donnée. Pour l'eau pure à 20 °C, on a y= 72 mJ m-2• Théorème de Banach-Tarski : théorème formulé par les mathématiciens polonais Stefan Banach (1892-1945) et Alfred Tarski (1901-1983) stipulant que dans un espace euclidien à n 2: 3 dimensions, deux boules de rayons différents sont équivalentes par décomposition finie. Ceci signifie que la notion de volume spatial L3 perd toute signification physique puisqu'à partir d'une seule boule de matière, on peut à l'aide d'un couteau infiniment tordu à toutes les échelles, créer deux boules de matière ayant exactement le même volume et la même densité que la boule de départ. Le volume des choses est donc une pure illusion liée encore une fois au caractère grossier de nos sens, la nature étant fractale ou invariante d'échelle à l'échelle de Planck. Deux approches concurrentes existent (théorie des cordes et gravitation quantique à boucles) prenant en compte le fait que les excitations pertinentes à l'échelle de Planck sont nécessairement des objets unidimensionnels. BANACH, S. ; TARSKI, A. (1924), «Sur la décomposition des ensembles de points en parties respectivement congruentes», Fund. Math., 6: 244--277.
Théorème de Bayes : il existe un certain danger à manier des probabilités sans bien en avoir compris la subtilité. Voici un exemple réel concernant le cancer du sein qui concerne 0,8 % d'une population féminine normale n'ayant eu aucun antécédent familial. On sait d'autre part que la sensibilité (taux de malades avérés positifs au test) d'une mammographie pour la détection du cancer du sein est de 90 % avec une spécificité de 93 % (taux de non-malades avérés négatifs au test). Muni de ces données, le psychologue allemand Gert Gigerenzer a demandé à des médecins allemands ou américains d'estimer la probabilité qu'une femme non à risque présentant une mammographie positive ait un cancer du sein. Parmi les 24 médecins allemands interrogés, 8 ont répondu que cette probabilité était inférieure à 10 %, 8 autres ont répondu que la probabilité était « évidemment » de 90 %, les 8 derniers donnant des réponses comprises entre 50 et 80 %. Seriez-vous rassurée par une telle dispersion si vous étiez cette femme ayant eu une mammographie positive ? Pour ce qui concerne les médecins américains, 95 sur 100 répondirent que la probabilité d'avoir un cancer du sein dans ces conditions était voisine de 75 %. Beau tir groupé, mais hélas réponse incorrecte car la bonne réponse est 9 %. Si nos médecins avaient été sérieux, ils auraient traduit le problème de la manière suivante :
376
ANNEXE TECHNIQUE
On sait que sur un total de 1 000 femmes normales, 8 auront un cancer du sein. Sur ces 8 femmes ayant un cancer du sein, 7 : : : 8 x 0,9 auront une
mammographie positive puisque la sensibilité du test n'est que de 90 % (soit 10 % de faux négatifs). Pour les 992 autres femmes qui n'ont pas le cancer du sein, environ 70 auront également une mammographie positive puisque la spécificité du test n'est que de 93 % (soit 7 % de faux positifs). Donc sur un total de 7 + 70 = 77 femmes ayant une mammographie positive, 7 seulement ayant vraiment un cancer du sein auront été détectées. La probabilité d'avoir un cancer du sein en cas de mammographie positive est donc de 1n1 = 1/11 : : : 9%. Cela signifie donc clairement que sur 1OO mammographies positives, 91 sont des faux ! ! ! Si ce résultat vous semble absurde, c'est tout simplement que vous ne savez pas raisonner correctement sur un plan purement statistique. Techniquement, cela s'appelle le « théorème de Bayes » qui doit être utilisé dès que l'on cherche à inverser une probabilité conditionnelle. Voir « probabilité » pour une analyse plus formelle. Théorie cinétique des gaz : théorie de la fin du XIX" siècle qui contribuera à
faire accepter la notion d'atome et de molécule. Le premier pas est franchi par le physicien écossais James Clerk Maxwell (1831-1879) qui montre comment évaluer la distance moyenne À que parcourt une molécule d'air en ligne droite entre deux chocs successifs moyennant la connaissance de la pression p qui détermine la vitesse moyenne des molécules, de la viscosité et de la densité de l'air. La fréquence des collisions moléculaires est alors donnée par le rapport entre la vitesse moyenne et la distance moyenne parcourue. Compte tenu des propriétés physiques bien connues de l'air, Maxwell va ainsi montrer que si les molécules évoquées par John Dalton etAmedeoAvogadro existent, elles doivent, dans un air calme à température ambiante, parcourir une distance d'environ 0, 1 µm entre deux chocs successifs et donc se heurter environ 4 milliards de fois par seconde (Maxwell 1860). Le physicien autrichien Josef Loschmidt ( 1821-1895) va en 1865 se baser sur ce résultat pour en déduire que le diamètre d'une molécule d'air est de l'ordre de 0,5 nm et qu'un mètre cube d'air contient donc environ 1025 molécules (Loschmidt 1865). Il suppose pour cela que les molécules se comportent comme des sphères dures de diamètre d s'empilant de manière aléatoire dans un liquide avec un coefficient de remplissage du volume disponible ~ = 0,63, d'où un volume moléculaire vL = nd3/(6~). De même, il estime qu'entre deux collisions, chaque molécule d'air définit lors de son mouvement un cylindre de volume v0 = 2y, À nd2, ce qui donne un rapport vJv0 :::::: 0,2 d/À. Comme un liquide est environ 1 000 fois plus dense qu'un gaz, on a pL = 1000 p0 et comme vL pL = v0 pG' il vient vJv0 = PiPL:::::: 10-3, soit d : : : N'0,0002 : : : 5 10- 10 m, puisque À:::::: 0,1 µm. Connaissant d et À, il en découle que n = 11(2Y' À nd2):::::: 1025 m-3 (nombre de Loschmidt).
377
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
LoscHMIDT, J. (1865), «On the Size of the Air Molecules », Proc. Acad. Sei. Vienna, 52: 395-413. MAxWELL, J. C. (1860), «Illustrations of the dynamical theory of gases »,Phil. Mag., 20: 19-37. Théorie cinétique des gaz (1859)
James Clerk Maxwe11 (183 1-1879)
Théorie des cordes : les théories des cordes visent à unifier toutes les particules et toutes les forces de la nature en postulant que toutes les particules élémentaires apparaissent comme les vibrations d'une seule entité, une corde, qui se propage à travers l'espace-temps de façon à occuper une aire spatio-temporelle minimale, puisqu'il n'existe aucun volume à l'échelle de Planck. Ainsi, le graviton qui est la particule véhiculant la force gravitationnelle est associé à des vibrations de cordes fermées sur elles-mêmes, tandis que le photon, véhiculant la force électromagnétique, émerge des vibrations d'une corde pouvant être fermée ou ouverte. Les théories des cordes prédisent aussi l'existence de champs de jauge similaires à ceux utilisés dans les modèles des interactions nucléaires fortes et faibles, ce qui unifie les quatre forces fondamentales de Dame Nature en tant que vibrations d'un seul objet fondamental, la corde. Si l'on rajoute la condition de super-symétrie faisant correspondre à chaque boson de spin entier un fermion de spin demi-entier et réciproquement, on obtient la corde super-symétrique qui unifie tous les types de particules connues, bosons et fermions. Le problème des théories des cordes est que l'on n'en connaît pas les principes fondamentaux, ce qui empêche d'avoir une formulation mathématique précise, d'où l'existence d'au moins 10500 théories des cordes différentes, toutes compatibles avec les faits expérimentaux actuellement connus (Smolin 2007). Le principal problème est que toutes les théories se formulent au moyen de cordes qui se déplacent sur des fonds géométriques spatiaux classiques et fixes, qui n'évoluent pas dans le temps. Le fait que l'espace-temps soit une entité dynamique comme l'impose la théorie de la relativité générale n'est donc pas pris en compte dans les théories des cordes. Enfin, il n'existe aucune confirmation expérimentale directe de l'existence de cordes. Ainsi, la théorie de Maxwell fut validée lorsqu'on observa les ondes radio. La relativité générale fut acceptée dès que l'on fut capable de mesurer la déflexion de la lumière par le soleil et confirmée lorsqu'on constata que les horloges atomiques du système GPS étaient plus rapides que les horloges terrestres. Le modèle standard de la physique des particules devient crédible lorsque les bosons vecteurs Z et W de l'interaction faible furent observés avec toutes les caractéristiques prévues par la théorie. Les autres prédictions théoriques de la physique des particules n'ont par contre toujours pas été confirmées 378
ANNEXE TECHNIQUE
expérimentalement. Ainsi, le proton ne se désintègre pas comme prévu par certaines théories, la super-symétrie n'a pas été trouvée là où l'on l'attendait. De plus, le nombre minimal de dimensions spatiales nécessaire à l'unification est égal à 10, ce qui oblige d'enrouler un minimum de 7 dimensions sur ellesmêmes de manière à les rendre inobservables. Il faudrait donc que ces dimensions supplémentaires pour que la théorie des cordes s'applique soient détectées, ce qui est virtuellement impossible en raison du fait que l'enroulement se fait à l'échelle de Planck, soit LP ::::: 1,7 10-35 m. SMOLIN, L. (2007), Rien ne va plus en physique, Dunod, Paris.
Thermodynamique : science du XIXe siècle basée sur la notion de température .. Le principe zéro de la thermodynamique stipule que deux systèmes thermodynamiques en équilibre avec un troisième sont également en équilibre entre eux. Leur propriété commune est la température. Cela veut dire que pour qu'il y ait transfert d'énergie, il faut une différence de température. Transformation canonique : transformation permettant de passer dans l'espace des phases de Hamilton d'un jeu de variables (q,p) à un autre jeu (q',p'). Le mathématicien français Siméon Denis Poisson (1781-1840) montra alors que la connaissance de la fonction de Hamilton H(q,p,t) suffisait à prévoir l'évolution dans le temps de n'importe quelle autre fonction u(q,p,t) selon l'équation du/dt= {u,H}+ auJat où {u,H} = 8u/8q 8H/8p-8u/8p·8H/8q est un invariant canonique appelé crochet de Poisson. Dans ces conditions, toute fonction ne dépendant pas explicitement du temps (auJat = 0) et telle que {u,H} = 0 reste constante dans le temps, puisque du/dt= O. Translation : action de faire passer un objet d'un point A à d'autres points tous séparés d'une même distance d en suivant une ligne droite. Action générée par deux miroirs parallèle séparés d'une distance d/2 comme on pourra le constater avec une armoire à glace de salle de bains munis de trois volets dont deux peuvent effectuer un mouvement de rotation. Travail: lorsqu'une force F s'applique sur une distance dx, il faut fournir un travail dW = F dx. Une énergie de 1 joule correspond dans ce cas à une force de 1 newton travaillant sur une distance de 1 m. Troisième principe (thermodynamique): principe énoncé par le physicien allemand Walther Nernst stipulant que l'entropie de tout système tend vers zéro lorsque la température tend vers zéro. W. (1906a), « Ueber die Berechnung chemischer Gleichgewichte aus thermischen Messungen », Nachr. Kg/. Ges. Wiss. Gott., l : 1-40.
NERNST,
W. (1906b), « Über die Beziehung zwischen Wii.rmeentwicklung und maximaler Arbeit bei kondensierten Systemen », Ber. Kg/. Pr. Akad. Wiss., 52 : 933-94.
NERNST,
379
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
Trou noir : le terme trou noir a été introduit par le physicien américain John Archibald Wheeler ( 1911-2008). Soit .M = AD/c le temps mis par un photon pour parcourir une distance égale au diamètre AD = 2AR d'un objet changeant son énergie d'une quantité AE =AM c2• Comme AR= c At/2?: 2G·AM/ c2 = 2G AE/c 4 , il vient que AE/At :S c5/4G ~ 9,1 1051 W. Ainsi, il existe dans l'univers une puissance maximale de dissipation de l'énergie qui est atteinte lorsqu'on se trouve sur un horizon de type trou noir. On peut aussi dire qu'il existe dans la nature un frein universel au mouvement qui s'appelle la gravitation. Un trou noir possède une entropie donnée par la formule de Bekenstein-Hawking S =A k8 c3/4hG, où A est l'aire du trou noir et~ la constante de Boltzmann. Troyen: un troyen est un astéroïde qui partage la même orbite qu'une planète ou un autre satellite plus massif mais qui n'entre pas en collision avec celui-ci en raison de sa position sur un des deux points stables de Lagrange L4 ou L5• Pour deux corps en orbite circulaire, les points de Lagrange représentent les endroits où un troisième corps de masse négligeable resterait immobile par rapport aux deux autres. Au nombre de cinq, ces points se scindent en deux points stables dénommés L4 et L5 situés sur les sommets des deux triangles équilatéraux dont la base est formée par les deux masses en orbite, et en trois points instables notés L1 à Lr Ces trois derniers points sont situés sur l'axe reliant les deux corps. Dans le cas d'une grande dissymétrie de masse entre ceux-ci, deux points sont situés proches et de part et d'autre du corps peu massif (L 1 et Lz), alors que le troisième est quasiment situé à l'opposé du corps peu massif par rapport au corps massif (anti-Terre dans le cas du couple Terre-Soleil). Turbulence : mécanisme par lequel la nature préserve la cohésion d'un système matériel soumis à un flux d'énergie via l'apparition de tourbillons.
•v Vecteur : quantité physique caractérisée par une grandeur et une direction. Dans un espace à trois dimensions, tout vecteur possède trois composantes v = (v ,vy,v ), d'où une grandeur ou norme v2 = (v 2 + vy2 + v 2) et une direction e = (v/v, v/v, v/v). Tout symbole en gras doit être considéré comme un vecteur. On reconnaît un vecteur au fait qu'il inverse sa direction lorsqu'on passe d'un repère droit à un repère gauche. Toute onde qui se propage dans une certaine direction possède ainsi un vecteur d'onde k dont la norme vaut 21r/A, où Àdésigne la longueur d'onde reliée à la fréquence f via la vitesse de phase v =À· f. Les vecteurs peuvent être transformés entre eux au moyen d'opérateurs. Dans la notation de Dirac, lorsqu'un vecteur lv> ne change pas de direction X
380
Z
X
Z
ANNEXE TECHNIQUE
après application d'un opérateur Ô, soit Ôlv> = alv>, on parle de vecteur propre pour la valeur propre a. Vibration : mouvement périodique de va et vient entre deux points séparés d'une distance d. Par exemple pour tout ressort exerçant sur une masse m une force de rappel f = -k·x, où x est l'élongation du ressort , on aura une pulsation co 2 = k/m et donc de période T = 1/f = 27t/co, où f est la fréquence du mouvement. Si le mouvement périodique se fait selon un cercle, on parle de libration.
Vitesse : grandeur vectorielle permettant de définir l'espace si on la considère comme une donnée primaire : dL = v dT (relativité). Taux de variation de la position dans le temps si l'on considère l'espace comme une entité primaire: v = dL/dT (mécanique classique). On remarquera que la vitesse est naturellement invariante d'échelle car si L' = ÀL et T' = ÀL et v =LIT, alors v' = L'/T' =LIT= v. Vitesse turbulente vitesse vr observée dans les systèmes matériels prenant en compte l'existence de tourbillons. Par exemple, pour une rivière de profondeur p coulant avec un angle d'inclinaison 0, une masse d'eau m parcourt dans un tourbillon une distance égale à deux fois la profondeur. Le temps de résidence t de cette masse d'eau dans le tourbillon sera donc t = 2p/vr correspondant à un taux de dissipation Wr de l'énergie cinétique tel que Wr = Yi·m·vr2!t. Bien évidemment cette énergie cinétique est entretenue par un flux d'énergie potentielle U qui apparaît avec un taux Wa = m·g·0·vr. En égalant le taux de production Wa au taux de dissipation Wr, il est alors très facile de trouver que vr2 = 4g·0·p, valeur considérablement plus faible que la vitesse laminaire VL = g· 0 ·p2/2v, où v = 10-2 cm2 .s- 1, est la viscosité cinématique de l'eau.
381
Table des matières À
PROPOS DE L'AUTEUR ................................................................................... 7
INTRODUCTION •..........••.•••••••••••.......................................•••••••........................•• 9
L'eau est-elle vivante? ............................................................................. 13 Auto-organisation et autopoïèse ............................................................... 17 Une soupe primitive .................................................................................. 19 Un monde bactérien .................................................................................. 22 Mythologie ................................................................................................ 26 À la découverte de l'eau ........................................................................... 30 1 : L'EAU, LA SUBSTANCE ............................................................... 35 La planète bleue ........................................................................................ 35 Cycle de l'eau ........................................................................................... 38 Le cas Masaru Emoto ............................................................................... 43 Mystères de l'eau ...................................................................................... 46 Anomalie de densité ................................................................................. 53 Le saut à la congélation ............................................................................ 55 Capacités calorifiques ............................................................................... 59 Benjamin Thompson, comte Rumford ..................................................... 61 Tension superficielle ................................................................................. 68 Propriétés électriques et magnétiques ....................................................... 73 L'eau et la lumière .................................................................................... 75 Propriétés de transport .............................................................................. 77 Vortex et turbulence .................................................................................. 78 Le cas Viktor Schauberger ........................................................................ 81 Cascade de Richardson-Kolmogorov ....................................................... 83 Vortex d'eau .............................................................................................. 86
CHAPITRE
CHAPITRE II : L'EAU MORPHOGÉNIQUE .......................................................... 91
Préambule ................................................................................................. 91 La cellule .................................................................................................. 93 L'eau intracellulaire .................................................................................. 94 Eau, protéines et ADN .............................................................................. 98 Les ions dans la cellule ........................................................................... 102 L'eau fonctionnelle ................................................................................. 105 Aquaporines ............................................................................................ 108 Propriétés de l'eau morphogénique ........................................................ 114 H 20 ................................................ 117 Préambule ............................................................................................... 117 Un monde atomique ................................................................................ 119 Un monde moléculaire ............................................................................ 122
CHAPITRE III : UNE IMPASSE NOMMÉE
383
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
Réalité atomique ..................................................................................... 125 La liaison hydrogène ............................................................................... 126 Aspects structuraux ................................................................................. 130 Clusters ou grappes d'eau ....................................................................... 133 Clusters gazeux ....................................................................................... 135 Glace hexagonale .................................................................................... 138 Polymorphes de la glace ......................................................................... 141 Fusion ..................................................................................................... 143 «Structure» de l'eau liquide .................................................................. 145 CHAPITRE
IV:
RELATIVITÉ ET QUANTA •.•••...•...•••••..••••.•.••••••••••••••.....••.•.•.•.• 153
Préambule ............................................................................................... 153 Un monde mécanique ............................................................................. 154 Un monde massif .................................................................................... 157 Un monde chiral ..................................................................................... 158 Un monde électrique et magnétique ....................................................... 160 Un monde thermique .............................................................................. 162 Un monde en évolution ........................................................................... 165 Un monde probabiliste ............................................................................ 168 Un monde lumineux ............................................................................... 171 Électromagnétisme ................................................................................. 174 Théorie de la relativité ............................................................................ 176 Mécanique quantique .............................................................................. 178 Catastrophe ultraviolette ......................................................................... 181 Implosion atomique ................................................................................ 184 Première quantification ........................................................................... 187 Un monde quantique ............................................................................... 190 Principe d'intemporalité ......................................................................... 191 Principe d'indétermination ..................................................................... 193 Principe d'indivisibilité .......................................................................... 194 Principe d'indiscemabilité ...................................................................... 196 Principe d'intrication .............................................................................. 199 Nombres complexes ................................................................................ 201 Intégrale des chemins ............................................................................. 202 Dualité onde/corpuscule ......................................................................... 206 V: L'EAU QUANTIQUE ..........•.....••••.•••••...•.••••.•..•...•.................•••• 213 Préambule ............................................................................................... 213 L'eau en première quantification ............................................................ 214 L'eau vue comme une énergie ................................................................ 219 Eau« para» et eau« ortho » .................................................................. 222 Biologie quantique .................................................................................. 224 Insuffisances de la première quantification ............................................. 228 Seconde quantification ............................................................................ 231
CHAPITRE
384
TABLE DES MATIÈRES
Résolution du paradoxe EPR .................................................................. 233 Le vide quantique ................................................................................... 235 Spin, rotation et échange ......................................................................... 242 Cohérence ............................................................................................... 245 Domaines de cohérence aqueux (DCs) ................................................... 248 La liaison de cohérence .......................................................................... 254 Conséquences ......................................................................................... 263 VI: MÉMOIRE DE L'EAU ............................................................. 271 Préambule ............................................................................................... 271 Eau et information .................................................................................. 272 L'expérience de Luc Montagnier ............................................................ 276
CHAPITRE
CONCLUSION ................................................................................................ 287 ANNEXE TECHNIQUE ..................................................................................... 305
385
Iconographie Toutes les illustrations sont de l'auteur, à l'exception de la liste ci-après.
Introduction - figure 1 : Platon d'Athènes : domaine public, Siddharta Gautama: CC BY-SA 3.0 Sacca, Lao Tseu : CC BY-SA 2.0 Tom@HK, Aristote de Stagire : CC BY-SA 2.5 Eric Gaba. Introduction - figure 2 : Aristote : CC BY-SA 2.5 Eric Gaba, Ym Yang Feu/eau : CC BY-SA 3.0 Miissln, terre craquelée : CC BY 2.0 Axel Kristinsson from Reykjavik, lceland. Introduction - figure 3 : Albert Szent-Gyorgyi : domaine public, illustration : Avec l'aimable autorisation de John Grant Watterson (The Living Pixel, 2006, livre non publié). Introduction - figure 4 : Deux mains acides aminés : domaine public, Montmorillonite : CC BY-SA 2.5 Andreas Trepte, Phospholipide : CC BY-SA 3.0 OpenStax.College, Structures phospholipides : domaine public. Introduction - figure 5 : Hammerhead ribozyme : Avec l'aimable autorisation de Kalju Kahn, Montmorillonite : CC BY-SA 3.0 Meterialscientist - retouchée par Marc Henry. Introduction - figure 6 : Spirale évolution : domaine public. Introduction - figure 7 : frise verticale bleu à orange : domaine public - traduction de Marc Henry, ARN : CC BYSA 3.0 Wgscott, cellule : CC BY-SA 3.0 Mediran, retour en arrière : CC BY-SA 2.0 stangal.
Chapitre 1 - figure 8 : Terre : ©Howard Perlman, USGS /Jack Cook, Woods Hole Oceanographic Institution (©) / Adam Nieman. Chapitre 1 - figure 9 : tableau et graphique : adaptés de Pinti, Daniele L. (2005), Chondrite carbonée : CC BY-SA 3.0 H.Raab, Wadsleyite : Takaaki Kawazoe, Johannes Buchen, and Hauke Marquardt (2015), Synthesis of large wadsleyite single crystals by solid-state recrystalliz.ation, American Mineralogist, 100 (10), 2336-2339, 001: 10.2138/am2015-5400. http://ammin.geoscienceworld. org/content/100/10/2336, Ringwoodite : CC BY-SA Jasperbox, Cliché zircon : CC BYSA 3.0 Nkansah Rexford. Chapitre 1 - figure 10 : 3 graphiques : adaptés de Pinti, Daniele L. (2005), Diagramme concentration minéraux océan et 02 atmosphère : avec l'aimable autorisation de Sue Selkirk. Diagramme paru dans «Elements and Evolution>> by Ariel D. Anbar, Science, 05 Dec 2008, Vol. 322, Issue 5907, pp. 1481-1483 (DOi: 10.1126/ science.11631 OO) . Chapitre 1 - figure 11 : Cycle eau: CC BY-SA3.0 Valentin de Bruyn - adaptation de Marc Henry, fonne gouttes : CC BY-SA 3.0 Pbroksl3. Chapitre 1 - figure 12 : graphique : avec l'aimable autorisation de http://sptnkne.ws/bywf, neige, grésil. .. domaine public.
387
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
Chapitre 1 - figure 13 : Flocons de neige : ©Tim Garrett, University of Utah. Chapitre 1 - figure 15 : Graphique états de l'eau : Adapté de José Teixeira, Pour la Science, n° 285 Guillet 2001) p. 91, diagramme états de l'eau : Adapté de P. De Benedetti a E. Stanley, Physics Today, June 2003 p. 42. Chapitre 1 - figure 17 : schéma coefficient de compressibilité isothenne : Adapté de La structure de la matière, A. Guinier, Hachette (1980) figure II.3, p. 43. Chapitre 1- figure 19: Marteau : domaine public, graphique onde : domaine public - retouchée par Marc Henry. Chapitre 1- figure 21 : Galileo Galilei : domaine public. Chapitre 1 - figure 22 : Pierre Louis Dulong domaine public, Alexis Thérèse Petit : domaine public, tableau : Tableau tiré de l'article de PETIT, A.T., DULONG, P. L. (1819), «Recherches sur quelques points importants de la théorie de la chaleur », Ann. Chim. Phys., 10 : 395413., Cp Cu. Chapitre 1 - figure 24 : Benjamin Thompson : domaine public, experiment density of water : domaine public, Thomas Charles Hope : CC BYSA 4.0 Mezzotint by T. Hodgetts after H. Raeburn. Chapitre 1 - figure 25 : Araignée d'eau : CC BY-SA 3.0 PD, goutte sur feuilles : Fotolia ©vencav. Chapitre 1 - figure 26 : Changxi Zheng & Doug L. James, « Harmonie fluids », (2009), ACM,
388
graphique pluie : Pumphrey & al. « sound produced by drops and rainfall », J. Acoust. Soc. Am., 1518 (1989) figure. 9, graphique eau propre/+détergent : Pumphrey & al. « sound produced by drops and rainfall », J. Acoust. Soc. Am., 1518 (1989) figure 14.
Chapitre 1 - figure 27 : Eau couronne : domaine public, Eau jet Rayleigh : domaine public, Couronne : CC BY-SA 3.0 r Nonolapero, goutte (nib) : Detlef Lohse, « Bubble puzzles », Physics Today, February 2003, p. 36, figure 1, goutte sous surface : Elmore, P.A., Chahine, G.L., and Ogz, H.N. « Cavity and Flow Measurements of Reproducible Bubble Entrainment Following Drop Impacts », Experiments in Fluids, Vol. 31, pp. 664-673, December 2001. Voir égalenent Chahine, G.L., Wenk, K., Gupta, S., and Elmore, P., « Bubble Formation Following Drop Impact at a Free Surface », ASME Cavitation & Multiphase Flow Forum, Portland, OR, January 1, 1991., éclaboussures: R. Rioboo & al., « Experimental investigation of splash and crown formation during single drop impact on wetted surfaces», Experiments in Fluids, 35 (2003) 648-652, figure 1. Chapitre 1- figure 28 : Champs EO/El : Charles Kittel, «Physique de l'état solide», Dunod, Lignes de champ électrique : CC BY-SA 3.0 Brews ohare. Chapitre 1 - figure 29 : Paul Langevin : CC BY-SA 2.0 Cambridge University photographer. Chapitre 1 - figure 30 : Pennéabilités magnétiques domaine public.
©Zureks -
Chapitre 1- figure 31 : Photo verre : CCO Domaine public. Chapitre 1 - figure 32 : Flux J : domaine public.
lcONOGRAPHIE
Chapitre 1 - figure 33 : Diagramme : d'après A. Guinier, HiJChette (1980) figure III.10 p. 72. Chapitre 1 - figure 34 : Trajectoires spiralées : Le chaos sensible, Th. Schwenk, Triades (1982), p. 42, pierre gravée : Le chaos sensible, Th. Schwenk, Triades (1982), photo 81, stèle : Le chaos sensible, Th. Schwenk, Triades (1982), photo 83, méandres : CC BY-SA 2.5 Riksantikvarieambetet / Pâl-Nils Nilsson, Estampe Hiroshige : domaine public, vortex sous l'eau: Le chaos sensible, Th. Schwenk, Triades (1982), photo 41, vortex surface : Le chaos sensible, Th. Schwenk, Triades (1982), photo 39. Chapitre 1 - figure 35 : Nuages : domaine public, L.F. Richardson : domaine public, AN. Kolmogorov : CC BYSA 4.0 lgorzurbenko. Chapitre 2 - figure 36 : Robert Hooke : Licence Art Libre 1.2, Liège : domaine public, Anton Van Leeuwenhoek : domaine public, Infusoires : CC BY-SA 3.0 Jeroen Rouwkema, Ludolf Trevinarius : domaine public, Henri Dutrochet : domaine public, Theodor Schwann : domaine public, Matthias Jakob Schleiden : domaine public, Robert Remak : domaine public, Rudolf Vrrchow : domaine public, Moritz Traube : domaine public, Ernst Overton : domaine public, Georg Quincke : domaine public, Membrane cellulaire : domaine public. Chapitre 2 - figure 38 : Inspiré de D. S. Goodsell, The Machinery of Life, 2nd Ed., Springer, New-York (2009). Chapitre 2 - figure 40 : Domaine public.
Chapitre 2 - figure 41 : Surfaces hydrophiles : N. Israelachvili, « Forces between surfaces intracellulaire liquids »,Science, 241, 795 (1988), figure 4, ADN hydraté : avec l'aimable autorisation d'Alexey Savelyev. Chapitre 2 - figure 42 : Graphique transfert énergie : S.V. Ruffie & al., « Inelastic Incoherent Neutron Scattering Studies of Water Interacting with Biological Macromolecules », J. Am. Chem. Soc., 124, 565 (2002), figure 1,ARN ADN : CC BY-SA 3.0 Sponk (talk), ADN hydraté : avec l'aimable autorisation de Bill Smith, www.ccp5.ac.uk/DL - POLY CLASSIC/, graphique distance radiale: Yoo & al. « Competitive Binding of Cations to Duplex DNA Revealed through Molecular Dynamics Simulations », J. Phys. Chem. B, 116, 12946 (2012), figure 3C. Chapitre 2 - figure 44 : Diagramme : DeWayne H. Ashmead &H. Zuzino, The role of arninoacid chelates in animal nutrition, Noyes Pub!.: Westwood, New-Jersey, 1993, figure 1, p. 26. Chapitre 2 - figure 45 : Homme et tique : domaine public. Chapitre 2 - figure 46 : 2 diagrammes protéines : avec l'aimable autorisation de Martin Chaplin. Chapitre 2 - figure 47 : Diagramme : D'après Rockland L. B. Beuchat L. R. (1987), in «Water activity: theory and application to food>>, Marcel Dekker, New-York, Introduction, figure p. VII. Chapitre 2 - figure 48 : D'après C.M. Krane & al., « Aquaporins: the membrane water channels of the biological world », Biologist, 50, 81 (2003), figure 1 et 2.
389
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
Chapitre 2 - figure 50 : Structure aquaporine : D'après C.M. Kra.ne & al., « Aquaporins: the membrane water channels of the biological world », Biologist, 50, SI (2003), figure 3. Chapitre 2 - figure Sl : Blocage proton : M. Murata & al.,« Structural determinants of water permeation through aquaporin-1 », Nature, 407, 599 (2000), figure 5, AQPI pore : G. Soveral & al., « Aquaporin water channels », canalBQ, n°S, JULHO 2011, traduction figure 3, pore (droite): G. Soveral & al., «Aquaporin water channels », canalBQ, n°S, JULHO 2011, traduction figure 3. Chapitre 2 - figure S2 : HsAQP4 : Y. Cui & al., « Water transport in human aquaporin-4: Molecular dynamics (MD) simulations », Biochem. Biophys. Res. Comm., 412, 654 (2011), figure 3, HsAQP5 - BtAQPl - OaAQPO - EcAQPZ : Horsefield & al., « High-resolution x-ray structure of human aquaporin 5 », PNAS, 105, 13327 (200S), EcGipF : Tajkhorshid & al., « Control of the Selectivity of the Aquaporin Water Channel Family by Global Orientational Tuning », Science, 296, 525 (2002) figure 2. Chapitre 3 - figure S3 : Pierre Joseph Macquer : domaine public, Illustration expérience : extrait de Louis Figuier, Les merveilles de /'industrie ou Description des principales industries modernes, Furne&Jouvet, 1S77,p. 5, Sigaud
De La Fond: avec l'aimable autorisation de M. le Conservateur du musée Sigaud de La Fond. Chapitre 3 - figure 54 : Joseph Louis Proust : domaine public, balance à plateau : CC BY-SA 3.0 AntonyB .
390
Chapitre 3 - figure SS : John Dalton : domaine public, hydrogène, tableau ancien des éléments : domaine public. Chapitre 3 - figure 56 : Louis Joseph Gay-Lussac : domaine public. Chapitre 3 - figure S7 : Amedeo Avogadro : domaine public. Chapitre 3 - figure SS : Amedeo Avogadro : domaine public, Jan Perrin : domaine public. Chapitre 3 - figure S9 : Maurice L. Huggins : AIP Emilio Segre Visual Archives, croquis : M.L. Huggins, «Sorne speculations regarding molecular structure», May 1919, manuscrit non publié (tiré de l'article de D. Quane), Gilbert N. Lewis : AIP Emilio Segre Visual Archives, Wendell M. Latimer : domaine public, Henry E. Armstrong : CC BY-SA 2.5 Rezpa. Chapitre 3 - figure 60 : Linus Carl Pauling : domaine public, chaîne à main levée : avec l'aimable autorisation de Oregon State University Libraries, photo maquette : avec l'aimable autorisation de Oregon State University Libraries. Chapitre 3 - figure 62 : Willem Hendrik Keesom : Photograph by Francis Simon, courtesy AIP Emilio Segre Visual Archives, Francis Simon Collection, Peter Debye : CC BY-SA 3.0 Schmelhaus/ ETH Zûrich, Fritz London : AIP Emilio Segre Visual Archives, Physics Today Collection. Chapitre 3 - figure 63 : D'après Scheider & al., « Comparison of Various Types of Hydrogen Bonds Involving Aromatic Arnino Acids », J. Am. Chem. Soc., 124, 13257 (2002), figure 2.
lcONOGRAPHIE
Chapitre 3 - figure 64 : D'après Michaelides &al.« Ice nanoclusters at hydrophobie metal surfaces », Nature Materials, 6: 597 (2007), figures 1, 2 et 3. Chapitre 3 - figure 65 : laser : Paul & al., « Direct Measurement of Water Cluster Conclusionentrations by Infrared Cavity Ringdown Laser Absorption Spectroscopy », J. Phys. Chem. A, 101, 5211, figure 1, Clusters : Keutsch & al. «Water clusters: Untangling the mysteries of the liquid, one molecule at a time », PNAS, 98; 10533 (2001), figures 3, 4, 5, 6, 8, 9, 10, 12., Molécule d'eau CPK. Chapitre 3 - figure 66 : D'après Debenedetti & al. « Supercooled and glassy water », Phys. Today, June 2003, figure 2, p.41. Chapitre 3 - figure 67 : Pentamètre eau : domaine public. Chapitre 3 - figure 68 :
Chapitre 3 - figure 71 : D'après Isgro & al., «Case Study: Water and lce », figure 13, consultable sur http://www. ks. ui uc. edu/Training/CaseStudies/pdfs/ water-1.pdf. Chapitre 3 - figure 72 : Saut proton : d'après Laage & al., « A molecular jump messianisme of water reorientation », Science, 311, 832 (2006), figure 3, 2 graphiques distance et angles : Modig & al., « Temperature-Dependent Hydrogen-Bond Geometry in Liquid Water», Phys. Rev. Lett., 90, 075502 (2003), figure 3, tableau : d'après J. Teixeira & al., « Experimental determination of the nature of diffilsive motions of water molecules at low temperature », Phys. Rev. A, 31, 1913 (185), Table 1. Chapitre 3 - figure 73 : Déformation angulaire : John, L. Finney, « Water? What's so special about it? », Phil. Trans. R. Soc. Lond., 359, 1145 (2004), figure 20.
Thermomètres : domaine public. Chapitre 3 - figure 70 : Plateau continental domaine public, image billes vert rouge bleu : CC BY 2.0 Masakazu Matsumoto, Hydrate de méthane ordonné et dissocié : CC BY 2.0 Masakazu Matsumoto, Hydrate de méthane vitreux : CC BY 2.0 Masakazu Matsumoto, Glace amorphe nébuleuse cheval: CC BY-SA 3.0 Ken Crawford, Diagrammes diffraction : Kim & al., « Pressure-induced highdensity amorphous ice in protein crystals », J. Appl. Cryst., 41, 1 (2008), figure 1, Structures : Suter & al. « Argon collisions with amorphous water ice surfaces », Chem. Whys., 326, 281 (2006), figure 3.
Chapitre 4 - figure 74 : Isaac Newton : domaine public, fusée domaine public, Soleil/planète : CC BYSA 2.0 Austria - retouchée par Marc Henry, Johannes Kepler : domaine public, Illustration canon : CC BY-SA 3.0 Savantfou, Sopoforic. Chapitre 4 - figure 75 : D'après Hayasaka & al., « Anomalous Weight Reduction on a Gyroscope's Right Rotations around the Vertical Axis on the Earth », Phys. Rev. Lett., 63, 2701 (1989), figures 1 et 2. Chapitre 4 - figure 76 : Champ électrique (2 photos) : Copyleft Ludovica Battista, Champ magnétique : CC BY-SA 3.0 Bemdt Meyer, Fil courant : extrait de https://www.youtube.com/watch?v=VM07N4a6-Y.
391
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
Chapitre 4 - figure 77 : William Thomson : domaine public, thennomètres celsius/kelvin : domaine public, James Prescott Joule : domaine public, Illustration canon : CC BY-SA 3.0 Savant-fou, Sopoforic, effet joule (verre) : CC BY-SA3.0 Simon A. Eugster. Chapitre 4 - figure 78 : Nicolas Leonard Sadi Carnot : domaine public, Rudolf Clausius : domaine public, Josiah Willard Gibbs : domaine public. Chapitre 4 - figure 79 : Ludwig Boltzmann : domaine public, Walther Nernst : domaine public, graphique Troisième principe : D'après W. Nernst, Experimental and theoretical applications of thennodynamics to chemistry, Scribner sons, New York (1907), p. 46. Chapitre 4 - figure 80 : Joseph Liouville : CC BY-SA 3.3 Desinteresado 31415, Edwin Thompson Jaynes : domaine public. Chapitre 4 - figure 81 : Pied à coulisse : domaine public, planimètre : CC BY-SA 3.0 Nol Aders, cylindre gradué : CC BY-SA 2.5 Hannes Grobe, sablier : CC BY-SA 3.0 Martin Olsson, chronomètre : CC BY-SA 3.0 PHGCOM, balance à plateaux : CC BY-SA 3.0 Mauro Cateb, thennomètre : libre de droits, ampèremètre : CC BY-SA 3.0 Adamantios, voltmètre : CC BY-SA 3.0 Hannes Grobe, bougie: CC BY-SA 3.0 Bangin, doigts : domaine public, œil : CC BY-SA 3.0 Laitr Keiows. Chapitre 4 - figure 82 : Galileo Galilei domaine public, Isaac Newton : domaine public, Henri Poincaré : domaine public, même origine : domaine public, Hendrik Antoon Lorentz : domaine public.
392
Chapitre 4 - figure 85 : John Archibald Wheeler : AIP Emilio Segre Visual Archives, Physics Today Collection. Chapitre 4 - figure 86 : Joz:ef Stefan : domaine public, Ludwig Boltzmann : domaine public, Wilhelm Wien : domaine public, Gustav Kirchhoff : domaine public, James H. Jeans : domaine public, John William Strutt (Lord Rayleigh) : domaine public, Max Karl Ernst Ludwig Planck : domaine public. Chapitre 4 - figure 87 : Ernest Mardsen domaine public, Expérience, Hans Geiger : domaine public. Chapitre 4 - figure 88 : Niels Bohr : domaine public, raies R. Eisberg et R. Resnik, Quantum physics of Atoms, Molecules, Solids, Nuclei and Particles, Wiley & Sons (1974), figure 4.12, p. 114. Chapitre 4 - figure 89 : Otto Stem : AIP Emilio Segre Visual
Archives, Segre Collection, diagramme expenence spin D'après L. Pauling, «General Chemistry», Dover (1988), figure 3.28, p. 76 et R. Eisberg et R. Resnik, Quantum physics of Atoms, Molecules, Solids, Nuclei and Particles, Wiley & Sons (1974), figure 8.6, p.297, Walther Gerlach : Photo courtesy of Max Planck Institute, courtesy AIP Emilio Segrè Visual Archives, Goudsmit Collection, George Uhlenbeck : domaine public (détail), Samuel Goudsmit : Photo courtesy Brookhaven National Laboratory. For Publication Permission Request contact Jane Koropsak, BNL-Media and Communications, [email protected], Tel: 631-344-4909, Pieter Zeeman : CC BY-SA 3.0 PD by age, Photo effet z:eeman: domaine public.
lcONOGRAPHIE
Chapitre 4 - figure 91 : Illustrations poissons rouges ©johann35micronature.
Fotolia
Chapitre 4 - figure 94 : Rubik's cube : CC-BY-SA 3.0 Hellbus.
Chapitre 4 - figure 95 : Rubik's cube: CC-BY-SA 3.0 Hellbus. Chapitre 4 1- figure 96 : Intrication photons : Site Creative commons, voir: http://physicsopenlab.org/tenns-of-use'. Chapitre 4 - figure 97 : Richard Feynman : CC BY-SA 3.0 Tamiko Thiel 1984, plusieurs diagrammes : R. Feynman, « Lumière et matière, une étrange histoire», InterEditions, (1987), figures 7, 8, 9, 24et32. Chapitre 4 - figure 98 : Diffraction électrons (1 diagramme et 5 images) : C. Jônsson & al., « Electron diffraction at multiple slits », AJP, 42, 4 (1974), figure ures 6, 7, 8, 9, 10 et 11, Franges interférences (fentes) : Tonomura & al., « Demonstration of single-electron buildup of an interference pattern », Am. J. Phys. 57, 117 (1989), figure 5, Interférences C60 (2 diagrammes et 2 graphiques): Nairz & al., « Quantum interference experiments with large molecules »,Am. J. Phys., 71, 319 (2003), figures 2, 3, 6 et 7. ChapitreS-figure 100: CC BY-SA3.0. Chapitre S - figure 101 : Diagramme Eh/pH : Baas Becking & al. « Limits ofthe Natural Environment in Terms of pH and Oxidation-Reduction Potentials », J. Geology, 68, 243 (1960), figure 31, p. 276. Chapitre S- figure 102 : Adapté de Sarsour & al., « Redox Control of the Cell Cycle in Health and Disease », Antioxidants and Redox Signaling, 11, 2985 (2009), figure 1, p. 2986.
Chapitre S - figure 103 : Adapté de Gurtler & al., « Rydberg Series intracellulaire the Absorption spectra of H20, D20 intracellulaire the vacuum ultraviolet », Chem. Phys. Lett., 51, 386 (1977), figure 3 p. 390. Chapitre S - figure 104 : Adapté de Chan & al., « The electronic spectrum of water in the discrete and continuum regions. Absolute optical oscillator strengths for photoabsorption (6200 eV)», Chem. Phys., 178, 387 (1993), figures 1 et 4. Chapitre S - figure 105 : Adapté de Bunkin & al., « Four-photon spectroscopy of ortho/para spin-isomer HiO molecule in liquid water in sub-millirneter range », Laser Phys. Lett., 3, 275 (2006), figures 1 et 2. Chapitre S - figure 106 : ADN : Potekhin & al., « Spin-dependent absorption of water molecules », Biophys. Chem., 118, 84 (2005), figure 1., alfachymotrypsine : Bunkin & al.,« Four-photon spectroscopy of ortho/para spin-isomer H20 molecule in liquid water in sub-millirneter range », Laser Phys. Lett., 3, 275 (2006), fig. 3. Chapitre S - figure 107 : Adapté de Wang & a., http://www.ks.uiuc. edu/Training/CaseS tudies/pdfs/aqp. pdf, figure 3c. Chapitre S - figure 108 : Adapté de Gerlich & al., « Quantum interference of large organic molecules », Nature Comm., 2, 1 (2011 ), figures 2 et 3. Chapitre S- figure 110 : Bader, R.F. W. (1990) «Atoms in Molecules: A Quantum Theory » Int. Ser. Monographs Chem., 22 : 293-299.
393
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
Chapitre S- figure 111 : Spectres : Nilsson & al. «The hydrogen bond in ice probed by soft x-ray spectroscopy and density functional theory », J. Chem. Phys., 122: 154505 (2005), figures 1 et2. Chapitre S - figure 116 : Yakir Aharonov : cc BY-SA 3.0 !lio KJHI, David Bohm: avec la permission de http:// www.theosophy-nw.org.
Chapitre S - figure 117 : Satyendranath Bose : Akira Tonomura & Franco Nori, Albert Einstein : Enrico Fermi : Nature 452, 298-299(20 March 2008), Wolfgang Pauli : CC BY-SA 3.0 Bettina Katzenstein / ETH Zürich, Paul Dirac domaine public. Chapitre S - figure 118 : Nuée d'étoumeaux : CC BY-SA 2.0 Brian Robert Marshall, étourneaux Écosse : domaine public, figure de chladni : CC BY-SA 2.0 Stephen Morris, banc poissons : Fotolia ©naturepics. Chapitre S - figure 121 : Chan & al., « The electronic spectrum of water in the discrete and continuum regions. Absolute optical oscillator strengths for photoabsorption (6-200 eV)», Chem. Phys., 178, 387 (1993), figure 4.
Chapitre S- figure 123 : Adaptés de G. Preparata, « QED Coherence intracellulaire Matter », World Scientific, Singapore(l 995), Chapitre3,figure 3.1, p. 57.
Chapitre S - figure 124 : Adaptés de G. Preparata, « QED Coherence intracellulaire Matter », World Scientific, Singapore (1995), Chapitre 310, figure 10.4, p. 209 ; figure 10.5, p. 210 et figure 10.6, p. 212.
Chapitre S - figure 125 : Adapté de E. Del Giudice & al. « A new QED picture of water: Understanding a few fascinating phenomena », in « Macroscopic Quantum Coherence », E. Sassaroli et al. Eds, World Scientific, Singapore (1998), p. 116, figure 4. Chapitre S - figure 126 : Domaine de cohérence : adapté de E. Del Giudice & al., « On the "Unreasonable" Effects of ELF Magnetic Fields Upon a System of Ions », Bioelectromagnetics, 23, 522 (2002), figure 2, p. 526, Texture du spin : avec l'aimable autorisation de C.G. Ruben, Univ. ofMelboume. Chapitre S - figure 128 : Graphique rH2 Chan & al., « The electronic spectrum of water in the discrete and continuum regions. Absolute optical oscillator strengths for photoabsorption (6200 eV)», Chem. Phys., 178, 387 (1993), figure 5, p.395, Louis-Claude Vincent: avec l'aimable autorisation de Pierre Vincent, mesure résistivité : ©Marc Henry, graphique pH : Chan & al., «The electronic spectrum of water in the discrete and continuum regions. Absolute optical oscillator strengths for photoabsorption (6-200 eV)», Chem. Phys., 178, 387 (1993), figure 7, p. 399, Potentiel redox : Sarsour & al., « Redox Control of the Cel! Cycle in Health and Disease », Antioxidants and Redox Signaling, 11, 2985 (2009), figure 1, p. 2986., graphique rhô : Chan & al., « The electronic spectrum of water in the discrete and continuum regions. Absolute optical oscillator strengths for photoabsorption (6-200 eV) », Chem. Phys., 178, 387 (1993), figure 6, p.397, pH couleurs : domaine public. Chapitre 6 - figure 129 : Eau liquide : domaine public. Chapitre 6 - figure 130 : Coeur : domaine public.
394
lcONOGRAPHIE
Chapitre 6- figure 131 :
Conclusion - figure 141 :
D'après L. Montagnier, «DNA Information Carried by EMS: Experimental Evidence and Medical Applications», in Seventh Annual Conference on the Physics, Chemistry and Biology of Water, West Dover, Vermont Water Journal, 5 (2012) supplement.
Tenture : domaine public.
Chapitre 6 - figure 132 : Même référence que figure 131. Chapitre 6 - figure 133 : Signaux : d'après L. Montagnier & al., « Electromagnetic Detection of HIV DNA in the Blood of AIDS Patients Treated by Antiretroviral Therapy », Interdiscip Sei Comput Life Sei, 1, 245 (2009), figure 1, p.246 , transmission sans contact : d'après L. Montagnier & al., « DNA waves and water », J. Phys: Conf. ser., 306, 012007 (2011), figure 3, p. 4. Chapitre 6 - figure 134 : Même référence que figure 131. Chapitre 6 - figure 136 : Même référence que figure 131. Chapitre 6 - figure 138 : D'aprèsA. Tedeschi, « ls the living dynamics able to change the properties of water», Int. J. Design & Nature and Ecodynamics, 5, 60 (2010), figures 2, 3 et 4. Chapitre 6 - figure 139 : Luminol : CC-BY 2.5 David Muelheims, 2 graphiques : d'après V.L. Voeikov & al., « Activated bicarbonate solutions as models of confined ontic open system and prototypes of living respiring systems », Int. J. Design & Nature and Ecodynamics, 5, 60 (2010), figures 2 et3. Conclusion - figure 140: 3D : Même image que figure 112.
Conclusion - figure 142 : Espace-temps à l'échelle de Planck: Même image que figure 112. Conclusion - figure 143 : Montres molles, accepter le vide : Site Creative commons, voir : http ://physicsopenlab.org/terms-ofuse/, masques : https://pixabay.com/fr/ th%C3%A9%C3%A2tre-masque-visagepromotion-4ll189/, homme centre domaine public. Conclusion - figure 147 : Leonhard Euler : domaine public. Conclusion - figure 148 : Adapté de P. Lecomte du Noüy, Surface Equilibria of Biological and Organic Colloids, The Chemical Catalog Company, 1926, figure 38, p. 91. Conclusion - figure 152 : William Crookes : domaine public, tube de Crookes : CC BY 2.0 D-Kuru, Joseph John Thomson : CCBY-SA-3.0-AT D-Kuru, schéma tube Gl : gravitation quantique à boucles. Conclusion - figure 154 : René Descartes : domaine public, Isaac Newton : domaine public, Louis-Joseph Lagrange : domaine public. Conclusion - figure 155 : David Hilbert : CC BY-SA 2.0 DE. Conclusion - figure 158 : Uraninite : CC BY-SA-3.0 Rob Lavinsky, iRocks.com, Pierre Curie : domaine public, Torbemite : CC BY-SA 4.0 Didier Descouens. Conclusion - figure 159 : William Crookes: domaine public, tube de Crookes : CC BY 2.0 D-Kuru, Radio! : domaine public, Radio2 : domaine public, Wilhelm Conrad Rôntgen : domaine public.
395
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE
Conclusion - figure 160 : Espace de Fock : ©R Walser et al., «Semifluxons in superconductivity and cold atomic gases», New Journal of Physics, Volume 10, April 2008, figure 4. Conclusion - figure 161 : Friedrich Paschen : domaine public, Ernst Back : Photograph by Samuel Goudsmit, courtesy AlP Emilio Segre Visual Archives, Goudsmit Collection. Conclusion - figure 162 : James Clerlc Maxwell : domaine public.
396
Achevé d'imprimer par Graficas Lizarra - Espagne: Septembre 2016
Marc Henry est ingénieur chimiste, docteur ès sciences, habilité à diriger des recherches et professeur d'université dispensant un enseignement sur la chimie, la science des matériaux, la physique quantique et la symétrie moléculaire et cristalline. Marc Henry est aussi président de l'association Natur'Eau Quant qui milite pour une approche quantique de la nature utilisant l'eau comme vecteur d'information. L'eau reste une substance mystérieuse pour la science et chaque jour amène son lot de publications tentant d'expliquer ses surprenantes propriétés. Parmi elles, l'aptitude de l'eau à procurer la vie est certainement la plus fascinante. C'est pour résoudre l'énigme de ce lien intime entre l'eau et la vie que des scientifiques ont émis l'idée que l'eau est capable de véhiculer et de transmettre des informations. 0
Cette hypothèse expliquerait l'omniprésence de l'eau dans les cellules (sur 100 molécules constitutives d'une cellule, 99 sont des molécules d'eau) et donnerait également une base théorique à l'efficacité de l'homéopathie. Les travaux très controversés de Jacques Benveniste, repris depuis 2004 par le professeur
Luc Montagnier, en mettant au-devant de la scène médiatique la théorie de la «mémoire de l'eau», ont suscité une vive polémique au sein des cercles scientifiques.
0:
3
·~ ~ ~
E
~
! ~
Pour résoudre la crise, certains chercheurs, dont l'auteur, proposent une vision quantique du monde biologique. La physique quantique des champs voit dans le vide quantique la source de toute matière et de toute énergie, et serait en mesure d'expliquer comment l'eau, via la formation de« domaines de cohérence», pourrait
effectivement être un vecteur d'information biologique. Dans cet ouvrage, Marc Henry, conférencier apprécié pour sa pédagogie et sa capacité à présenter les choses complexes dans un langage clair, livre toutes les bases scientifiques nécessaires pour appréhender cette révolution quantique qui réinventera la médecine. Les lecteurs de tous horizons trouveront dans ces pages une source d'information précieuse.
g 0
u
2 ~ ~ ~ ig
i
1'
~ ~
:Z
* g ~
~0
@
Pl~lQê www.piktos .fr
ô ë
.c
o.
32 €