Archives pour la catégorie Sciences

Energie, Plasma et Psyché

La seule source d’énergie extérieure à la Terre nous provient du Soleil. Les réactions photochimiques du règne végétal (création d’O2) permettent au règne animal et humain de vivre. L’éclairage d’une maison transforme l’énergie électrique en rayonnement. Le Soleil est une boule de plasma qui nous transmet sa lumière et sa chaleur. Le mental humain est une boule de neurones qui transportent l’information par un déplacement de charges électriques, c’est le pompage sodium-potassium. L’objectif est d’analyser les modèles (physique et cognition) par l’approfondissement des variables et les données empiriques pour établir des liens entre les plasmas, le 4ième sous-plan du plan physique et l’émergence de la pensée dans le système cognitif.

L’énergie

L’énergie est au cœur de l’explication du monde. Les multiples transformations de l’énergie révèlent les liens entre les différents systèmes chimiques, thermodynamiques, mécaniques…

Energie mécanique

L’énergie mécanique (classique) est égale à la somme de l’énergie potentielle et de l’énergie cinétique. Une force dérive d’une énergie potentielle. Il y a conservation de l’énergie totale d’un système.

Mécanique quantique

La mécanique quantique introduit une dualité onde-particule. A chaque particule (quantité de mouvement et énergie) est associé une onde (fréquence et vecteur d’onde) et cela fonction dans les deux sens : relation de planck (onde==>particule) et relation de De Broglie (particule==>onde). En mécanique quantique, l’énergie caractérise l’état physique du système. Les niveaux d’énergies électroniques sont quantifiés. Dans une réaction chimique, il y a réarrangement électronique et le système se retrouve dans un état d’énergie différent (dégagement ou absorption de chaleur par exemple).

Mécanique relativiste

Lorsque la vitesse de déplacement d’une entité est proche de celle de la lumière, la mécanique classique ne s’applique plus au système. La mécanique relativiste (Einstein) permet de remettre en cause les notions de distance, d’intervalle de temps et de simultanéité. L’équivalence de la masse et de l’énergie permet d’écrire E=mc². Les réactions nucléaires peuvent libérer de grandes quantité d’énergie cinétique. On remarque qu’il n’y a pas conservation des masses au repos : la masse absolu du noyau n’est pas (exactement) égale à la somme des masses de toutes les particules qui constituent le noyau atomique. C’est un problème d’où la notion d’énergie de liaison qui représente l’énergie cinétique libérée par la désintégration complète du noyau en ses nucléons constituants. La répartition de l’énergie de liaison en fonction des masses atomiques révèlent qu’ils existent deux types de réactions nucléaires : la fission et la fusion avec une énergie de liaison maximale pour le fer (A=56).

La fission de l’uranium 235 libère 200 MeV par noyau (0,8×10^9 J/g d’uranium). La fusion de 4 noyaux d’hydrogène en un noyau d’hélium libère 25 MeV. La physique atomique et moléculaire correspond à des énergies de quelques eV.

Unités de mesure

La science mesure l’énergie en joule noté J. L’énergie peut se manifester sous différentes formes : mécanique, électrique, rayonnante… L’objectif est d’analyser la notion d’énergie psychique à partir des connaissances en sciences physique et chimique. Les grandeurs thermodynamiques (énergie de transformation systémique) se mesurent aussi en joule (par mole ou par Kelvin) comme pour l’enthalpie qui a la dimension d’une énergie (J), l’entropie (J/K)… Dans le système international des unités, le joule est une association théorique qui s’exprime par la multiplication des dimensions de « Masse », de « Longueur au carré » et de « l’inverse du Temps au carré ». On peut imaginer la difficulté pour computer la notion d’énergie en physique et la transposer dans le domaine du psychisme.

Energie rayonnée

Une onde (perturbation de proche en proche) transporte de l’énergie mais pas de matière. L’onde lumineuse (électromagnétique) n’a pas besoin de matière pour se propager contrairement à l’onde sonore qui ne se propage pas dans le vide. Des charges et courants électriques créent dans l’espace environnant un champs électrique E et une induction magnétique B (théorie ondulatoire de la lumière). La densité d’énergie U (par unité de volume) dépend des caractéristiques du matériau (permittivité et perméabilité) où règnent les champs. L’énergie électromagnétique se conserve et celle qui sort d’une surface par unité de temps (divS avec S le vecteur de Poynting) est égale à la diminution d’énergie emmagasinée par unité de temps moins l’énergie dissipée à l’intérieur de la surface. La gamme des ondes électromagnétiques s’étend des basses fréquences (courant industriel à 50 Hz) jusqu’au rayon X et gamma.

Interaction rayonnement-matière

La matière peut absorber la lumière. La matière peut rayonner de la lumière. Un atome ne rayonne qu’une fréquence électromagnétique qu’il est capable d’absorber. E2-E1=hf avec h la constante de Planck et E l’état énergétique du système physique (matériel). Le quantum d’énergie E (valeur discrète) est un photon, de masse nulle qui se déplace à la vitesse de lumière (3×10^8 m/s dans le vide). Une réaction photochimique concerne le changement d’état énergétique d’une molécule provoque un changement de structure électronique : synthèse de molécules organiques par les plantes et équilibre biologique de la Terre.

Chaleur et thermodynamique

A l’échelle microscopique, l’énergie interne d’un système est égale à la somme de l’énergie cinétique des particules plus l’énergie potentielle concernant l’interaction des particules entre elles. Les variables macroscopiques sont : volume, masse, pression, température, indice de réfraction… L’énergie interne d’un système à l’équilibre est une fonction mathématique des variables macroscopiques d’état.

Travail W

Le travail, en sciences physiques et chimiques, est un vieux concept de perception des échanges énergétiques (ordonnés) entre un système (isolé) et son environnement. Le « travail électrique » reçu par un système pendant un temps dt est : dW=UIdt. Un fluide occupant un volume V est soumis à une pression extérieure p, si le volume varie de dV, le travail reçu par le système est dW=-pdV.

Chaleur Q

La manière la plus simple pour élever l’énergie d’un système (chaleur Q) c’est d’augmenter sa température. La chaleur est une énergie (en J), la température est une variable macroscopique correspondant à l’agitation cinétique des particules constituant le corps. Premier principe de la thermodynamique : U2-U1=Q+W

Plasma

Les 4 états de la matière

L’augmentation de l’énergie apportée à un SOLIDE (+dE) permet de le faire passer à l’état LIQUIDE (+dE) puis GAZ (+dE) pour finir sous la forme de PLASMA. Un plasma n’est pas un gaz neutre, un plasma est sensible aux forces électromagnétiques car il est chargé électriquement. On peut produire un plasma de densité finie par le mécanisme d’avalanche électronique. Une réaction nucléaire, par analogie, est produite par un mécanisme d’avalanche neutronique.

Définition : un plasma est un mélange quasi-neutre de particules chargées et caractérisées par un comportement collectif.

Image (Koening, LULI, CNRS). Radiographie (fausses couleurs) d’un plasma généré par une impulsion laser, zone turbulente à 60 ns

L’électron (fermion et statistique de Fermi-Dirac) est au cœur du mécanisme de formation des plasmas puisqu’il transforme un atome neutre en ion en générant un autre électron et ainsi de suite (avalanche électronique). Sachant que l’électron (en physique) ne correspond pas à la réalité décrite (voir électron part. 1) lorsqu’on visualise la structure éthérique de l’atome d’hydrogène et de son ion H+ ; Je commence par prendre la mesure du niveau de Fermi pour établir d’autres liens entre la physique et la chimie occulte. La statistique d’occupation des niveaux d’énergie (fermion) est binaire, la représentation graphique de la fonction mathématique est de la forme :

f(x) = 1/(1+exp(x))

Lorsque x tend vers « les nombres négatifs » la fonction tend vers 1 (les états d’énergies sont occupés) et lorsque x tend vers les nombres positifs, la fonction tend vers zéro (les états d’énergie sont inoccupés). Dans la statistique de Fermi-Dirac, la variable x correspond à la différence entre l’énergie E moins le potentiel chimique des électrons. Il y a l’énergie effective de l’électron et son potentiel chimique. Avec (niveau de Fermi) x=(E-µ)/kT.

Définition : le potentiel chimique « µ » d’une entité chimique correspond à la variation d’énergie du système considéré comme thermodynamique en fonction de la quantité « n » de cette entité dans le système (dE/dn).

Le nombre n d’espèce chimique se mesure en mole et l’énergie en Joule. L’unité de mesure du potentiel chimique est en J/mol. Les énergies considérées (potentiels) dans un système thermodynamique sont :

  • Energie interne U : variation du volume et de l’entropie avec la pression et la température constante
  • Energie libre F : variation du volume et de la température avec la pression et l’entropie constante
  • Enthalpie H : variation de la pression et de l’entropie avec le volume et la température constante
  • Enthalpie libre G : variation de la pression et de la température avec le volume et l’entropie constante

Le potentiel chimique µ est donc définie en tant que dérivée partielle d’un des quatre potentiels thermodynamiques U, F, H et G). Les différentes mesures associées à un système thermodynamique sont :

  • Volume V : grandeur scalaire extensive
  • Entropie S : fonction d’état extensive qui dépend de la masse ou du volume de matière
  • Pression P : grandeur scalaire intensive
  • Température T : grandeur scalaire intensive. La température est relative à l’agitation (translation et vitesse quadratique) des particules en mouvement (théorie cinétique des gaz 3/2 kT = 1/2 mv²)
  • Quantité de chaleur Q : quantité extensive en Joule.

Classification des plasmas

Basic Plasma Physics, Beryl Browning 2008

Sur ce diagramme, les droites particulières sont :

  • kT = mc²
  • kT = Ef (énergie de fermi proportionnel à quantité d’entité chimique n à la puissance 2/3
  • Nd = 1 avec Nd le nombre de charge dans la sphère de Debye
  • kT = 1 eV

Selon le type de réacteur utilisé pour générer des plasmas, les densités électroniques (ou ioniques) observées sont de l’ordre de 10^9 à 10^12 particules par cube. Ces densités sont très faibles par rapport à la densité des neutres qui représentent les espèces majoritaires. Dans la plupart des plasmas froids, les taux d’ionisation (alpha) sont très faibles (de 10^-5 à 10^-1) (Nchargé << Nneutre). Pour un plasma chaud (température de l’ordre du keV), le plasma est complètement ionisé (alpha=1). Les plasmas naturels sur Terre sont les éclairs, les aurores boréales ou l’ionosphère. Le soleil génère un plasma très conducteur (vent solaire) qui se déplace à quelques centaines de km/s dans l’espace interplanétaire.

Les plasmas permettent de comprendre et de développer de nouvelles applications en faisant le lien entre l’énergie électromagnétique et les énergies cinétique, lumineuse et chimique.

La psyché

La psyché concerne toutes les manifestations conscientes ou inconscientes de l’homme, la femme, l’enfant… Le terme psyché vient du grec psukh- (psych-) lui même issu de psukhê (souffle, respiration, haleine) transposé à la notion de force vitale et de vie sentie comme le « souffle de l’âme » reflétant les pensées, les émotions, les désirs… La psychologie représente donc l’étude, le discours (logos pour -logie) de « l’âme humaine » (psycho-). On peut parler des heures sur la notion de psyché et remonter aux sources (selon les époques et les lieux sur le globe terrestre) pour essayer de comprendre le sens profond de « l’énergie vitale » associée depuis toujours dans de nombreuses civilisations à « l’âme humaine ». Mais je ne souhaite pas vous faire un résumé mais plutôt enjamber cela pour aborder directement les liens à tisser entre la physique théorique et les sciences cognitives.

Pompage sodium-potassium

Décompte des entités chimiques

Les flux d’énergie dans un neurone sont à étudier correctement et je compte m’y atteler. Les différences de potentiels sont significatives sans doute mais je m’intéresse surtout à la densité relative des particules pour identifier (hypothèse) les mouvements neuronaux à un plasma (froid). Pour établir ces liens, il faut transgresser la pensée unique et les modèles déjà créer sans les négliger. La masse moyenne du cerveau humain = 1,4 kg. Il y a 76% d’eau dans le cerveau. La masse molaire de l’eau est de 18 g/mol. Soit 77,7 mol (au moins) qui correspond à 4,7×10^25 entités chimiques. C’est un ordre de grandeur, sachant que les 25% restant de particule sont plus lourdes que l’eau (faut voir avec la quantité de graisse, de sels minéraux…), il y a moins d’entités chimiques au total. Mais qu’importe les pinaillages ! Si je prend :

  • 40.000.000.000.000.000.000.000.000 entités c’est bien (25 zéros). Quel est le nombre de neurones dans le cerveau humain ? Disons 100 milliards de neurones soit 100.000.000.000 d’entités (11 zéros) dans le système nerveux avec 30% dans le cerveau . Chaque neurone établit 7000 connections synaptiques qui forment 7×10 puissance 14 connections en tout : 700.000.000.000.000 (14 zéros). Quel est nombre d’entités chimiques dans un neurone humain ? Le diamètre (du corps) des neurones est compris entre 5 et 120 µm. L’axone (fibre nerveuse) à un diamètre compris entre 1 et 15 µm.
  • La différence de potentiel de la membrane cellulaire tend vers le potentiel des ions K+ (EK+=-90 mV).
  • Il y a plus de canaux potassiques ouverts que de canaux sodiques et le potentiel au repos (moyen et global) est proche de -60 mV (ENa+=83 mV).
  • Le volume du cerveau humain est de 1600 cm cube et 1,5 kg soit environ 9×10 puissance 29 nucléons qui correspond à 1,6×10 puissance 31 atomes ultimes (ANU).
  • Dans un neurone, les concentrations sont les suivantes :
    • Potassium K+ intra=140 mol/L et extra=5 mol/L
    • Sodium Na+ intra=10 mol/L et extra=145 mol/L
    • Chloruer Cl- intra=15 mol/L et extra=110 mol/L
    • Calcium Ca2+ intra=0,0001 mol/L et extra 1,5 mol/L
  • L’influx nerveux se déplace dans un neurone (du corps cellulaire vers le bouton synaptique en passant par l’axone)
  • La différence de potentiel dans un neurone résulte de la différence de concentration en ions entre l’intérieur et l’extérieur. L’influx nerveux se caractérise par une modification instantanée et localisée de la perméabilité du neurone.
    • Dépolarisation d’un neurone : des Na+ pénètre (+35 mV)
    • repolarisation d’un neurone : des K+ sortent de la cellule (potentiel de repos=-60 mV)
  • L’influx nerveux est un potentiel d’action. (pompe ionique ATP)
  • Durant les 4 premiers mois de la vie embryonnaire, il se forme environ 500.000 neurones par minute.
  • Le cerveau représente 5% de la masse corporelle et il consomme 20% de l’oxygène utilisé par le corps.

Le cortex cérébral

https://www.msdmanuals.com/fr/professional/troubles-neurologiques/fonction-et-dysfonctionnement-des-lobes-c%C3%A9r%C3%A9braux/
  • Aires primaires sensitives : stimuli somesthésiques, auditifs, visuels et gustatifs du thalamus (les 5 sens).
  • Cortex moteur primaire : mouvement volontaire, planification et exécutions des activités motrices complexes.
  • Les aires associatives hétéromodales des lobes frontaux, temporaux et pariétaux intègrent les données sensorielles, le rétro-contrôle moteur et les autres informations liées aux souvenirs spontanés et acquis.
    • Lobes frontaux : planifications, fonctions exécutives et les comportements sociaux.
    • Lobes pariétaux : Stimuli somesthésiques (reconnaissance et rappel de la forme, de la texture et du poids), connexions visio-spatiales, trajectoire des objets en mouvement, proprioception, capacités de calcul, d’écriture, relations entre corps et environnement, la perception de l’espace…
    • Lobes temporaux : perceptions auditive, langage, mémoire visuelle, factuelle, les émotions…
    • Lobes occipitaux :
    • Insula :
    • Lobe limbique :

Hypothèses de travail

Le 4ième sous-plan du plan physique

L’objectif étant d’associer les concepts de la science théorique avec les notions naissantes en sciences cognitives, le référentiel à choisir est essentiel pour le travail à fournir. Il me semble évident maintenant de choisir la structure des « plans » de la manifestation visible et invisible en théosophie contemporaine (HPB et AAB) :

  1. Plan physique (du 1er au 7ième sous-plan)
    • Etat solide : 1er sous-plan du plan physique
    • Etat liquide
    • Etat gazeux
    • Etat plasma (éther IV) : 4ième sous-plan du plan physique
    • Ether III
    • Ether II
    • Ether I
  2. Plan émotionnel (du 8ième au 14ième sous-plan)
  3. Plan mental (du 15ième au 21ième sous-plan)
  4. Plan de l’intuition
  5. Plan spirituel
  6. Plan monadique
  7. Plan divin

Si tous les plans (physique, émotionnel, mental…) contiennent 7 sous-plans (Solide, liquide, gazeux…) il y a 7×7=49 sous-plans dans le Plan Physique Cosmique (système solaire). La théosophie contemporaine (issue de la Sagesse antique de l’Orient) compte 7 Plans Cosmiques pour décrire les systèmes galactiques (univers) en qui nous avons la vie, le mouvement et l’être. Il y a donc 7x7x7=343 sous-plans dans l’Univers. Dans ce schéma, le plan émotionnel que les sciences cognitives s’efforcent de comprendre est au 14ième sous-plan de l’étude que j’aborde dans ce travail (inférieur au 22ième sous-plans). Je prendrais le temps d’expliquer ces nuances plus tard.

Alors bien sûr, les thèmes utilisés au delà du 28ième sous-plan (spirituel, monadique, divin…) ne sont pas universitaires ni associés à la terminologie en neurologie mais justement, c’est toute l’originalité pour détourner et innover, il faut transgresser l’apprentissage classique, conventionnel/limité et sclérosé par un intellectualisme passif. Car la véritable conscientisation des idées s’établit dans l’expérience personnellement vécue. Cette étude en sciences cognitives sera conjointement développée avec les hypothèses que j’ai déjà établies sur la manifestation de l’électron (modèle standard en physique théorique) en relation avec l’éther IV (4ième sous-plan du plan physique) et l’atome ultime ANU qui est décrit dans la chimie occulte de Besant et de Leadbeater.

La science s’appuie avec rigueur sur l’expérience pour valider ses modèles. Il y a l’expérience concrète et la simulation numérique. Le plan physique contient les secrets de la différentiation de la matière comme manifestation de l’énergie en mouvement.

Problématique

Établir des liens entre les sous-plans théosophiques et la structure électrique du cerveau humain

Hypothèses : La classification périodique des éléments chimiques (selon Crookes) et l’assemblage géométrique des atomes ultimes (ANU en théosophie) ouvre de nouvelles perspectives pour expliquer :

  • Certaines limites du modèle de l’atome (physique théorique) : l’électron n’existe pas en tant que « particule » mais comme manifestation de « l’électricité » au niveau du 4ième éther (4ième sous-plan)
  • Le cerveau est l’organe qui supporte les désirs, les émotions et les pensées ; les neurones supportent la « conduction physico-chimiques » du flux cognitif et le 4ième sous-plans peut éclairer d’un jour nouveau les liens entre la matière et le système cognitif humain en s’efforçant de caractériser l’énergie psychique.

Analogies physico-éthériques

Ainsi, la science participe de plus en plus à l’interprétation correcte du mécanisme éthérique-physique car elle prouve l’existence d’une phénoménologie montrant que les frontières de la réalité visible sont transgressées. D’un point de vue psychologique, le raisonnement linéaire (déduction et induction) est trop limité pour computer la « conduction infinie ou la résistance nulle » d’un matériau. Le raisonnement non-linéaire accède ainsi à l’équivalence matière/énergie et donc à l’expression d’H.P.Blavatski selon laquelle « la matière est de l’énergie à son niveau le plus bas. » Selon la chimie occulte, la matière est justement identifiée comme de « l’énergie en mouvement. »

Par rapport à l’homme, le corps physique représente la matérialisation de « l’énergie en mouvement » du corps éthérique. Le mécanisme éthérique-physique est donc le reflet d’une « action éthérique » qui agit dans le monde des forces. Ainsi peut-on comprendre que le corps éthérique, et plus particulièrement lorsque les centres sont hyper ou hypo-stimulés, la contre-partie physique et donc le système glandulaire est ensuite perturbé. La maladie est ainsi engendrée dans le corps physique. Quel service immense serait rendu à l’humanité, si la science médicale peut, un jour, visualiser le corps éthérique de l’homme pour anticiper la maladie physique.

L’interprétation correcte du mécanisme éthérique-physique :

  • La maladie physique comme « action mécanique » est un effet, la cause se trouve dans la « mauvaise santé » du corps éthérique ;
  • Le corps physique est le reflet de « l’énergie en mouvement. »
  • Les « actions éthériques » provoquent des résultats dans le corps physique ;
  • Les « actions éthériques » reflètent le maniement de l’énergie psychologique ; ainsi peut-on comprendre que « l’énergie suit la pensée » car la pensée met en mouvement la substance éthérique ;
  • L’énergie psychologique est mise en mouvement par le désir (Kama), par le désir et le mental (Kama-manasique) ou seulement par le mental (Manas) ;
  • Le contrôle du mental permet à l’âme d’instrumentaliser le mental, le mouvement de l’énergie psychologique est équilibré, la santé du corps physique s’en suit, c’est le résultat des « actions éthériques » cohérentes.

Cette digression pour montrer que le « monde des causes » est le monde sans formes. Le mental étant le siège de la pensée, le corps éthérique est « l’agent intermédiaire » de l’homme inférieur triple. Finalement, le corps physique représente le « monde phénoménologique des effets. »

Electron – Part. 5

L’électron est au cœur de l’explication du monde d’un point de vue scientifique. Découvert en 1887 par J. J. Thomson, l’électron participe à de nombreux modèles « flous ou incomplets » dans l’approche fondamentale de la physique. Au niveau théorique (modèle standard), au niveau macroscopique en cristallographie ou dans le domaine appliqué de la matière condensé. Les mathématiques sont au-dessus de ce débat, souvent en avance par rapport aux découvertes phénoménologiques de la réalité. L’empirisme expérimental de la science s’efforce de formaliser ses résultats tout en divergeant des « principes absolues » qui président à la manifestation de la réalité visible et invisible.

L’épistémologie des sciences doit réformer son paradigme par rapport à l’électron pour aborder, de matière novatrice et sans a priori, la matière (substance) et sa structure spatio-temporelle (essence). L’exemple de la relativité générale qui est exclue du modèle standard des particules élémentaires montre à quel point (surtout avec 96% de matière-énergie noire inconnue), la matière diffère de la structure qui la contient, sachant que les extrêmes convergent toujours vers le même point (Ouroboros). Tout est question d’enroulement dans la manifestation de l’énergie en mouvement.

Hypothèses de travail

La philosophie peut tant apporter à la science et inversement. Mais pour la théosophie contemporaine c’est autre chose. La Société Théosophique de Blavatski et l’Ecole Arcane de Bailey (publications aux éditions Adyar et Lucis Trust) révèlent tant de connaissances novatrices et d’analogies possibles qu’il est temps d’essayer d’établir des liens avec la physique fondamentale. En associant l’implication de l’électron dans les théories scientifiques et la description des plans et sous plans en théosophie, je pose comme hypothèses de travail :

  • l’électron n’existe pas en tant que tel mais comme manifestation (interaction) entre le plan physique de la manifestation et le sous-plan E4 du plan éthérique.
  • Les différentes échelles (spatio-temporelles) des interactions fondamentales en physique théorique peuvent être corrélées avec les sous-plans E(1,2,3 et 4) du plan physique cosmique. En tout cas, c’est l’intuition sur laquelle je travaille.
  • La description géométrique des sciences de la matière et celle de l’assemblage des atomes ultimes (en théosophie) correspondent nécessairement, par la vérification (multiple de 18) du poids atomique des éléments. La géométrie de l’assemblage des atomes ultimes va permettre d’expliquer certaines propriétés de la « matière condensée » (qualités premières) mais aussi de la « matière neuronale » (qualités secondes) de la matière ordinaire.

Les hypothèses de travail sont volontairement étendues pour en circonscrire, sans trop de limites, l’analyse phénoménologique de la réalité visible et invisible.

La matière ordinaire

Atome : son noyau est 100.000 fois plus petit que la sphère du nuage électronique (très ténue, de masse négligeable).

Pour comprendre la matière ordinaire, en tant que physicien, il faut déjà élucider le « fait anormal » de ne pas passer à travers, un mur ou une porte, connaissant les proportions et l’échelle de la matière atomique. Ou simplement :

Essayer de comprendre pourquoi les noyaux de mon doigt ne sont-ils pas capable de passer à travers les noyaux atomique de la table lorsqu’il s’appui dessus ?

La réponse n’est pas triviale pour un scientifique, peut-être est-elle plus simple pour un philosophe… Mais l’électron est au cœur de l’explication scientifique de la différentiation manifestée par les qualités/propriétés de la matière ordinaire sur le plan physique. Certaines propriétés quantiques doivent rentrer en jeu et l’explication des qualités premières de la matière ne va pas de soi, elle n’est pas évidente. On ne peut pas ramener les propriétés de la matière à ses seules qualités apparentes que sont : la solidité, la forme, l’étendue ou le mouvement mais on doit inventer de nouvelles qualités sous-jacentes propres à chaque niveau (J.-M. Levi-Leblond). L’analyse par divisibilité de la matière conduit à une impasse en physique théorique. Il faut raisonner différemment pour comprendre que l’intuition que nous avons de la matière, de sa substantialité, de sa consistance, de sa solidité c’est une intuition qui n’est valable qu’à notre échelle et en passant à une échelle plus petite, ce sont de nouvelles qualités, de nouvelles propriétés qui doivent émerger. Il s’agit de faire un effort de synthèse d’explication d’un niveau en fonction d’un niveau sous-jacent.

En descendant dans la matière ordinaire (divisibilité) vers les quarks à travers les atomes comme l’a fait expérimentalement la physique, on constate qu’en remontant, la reconstruction d’un niveau à partir d’un autre, ou les relations de passage d’une échelle à l’autre, sont très incomplètes voire insatisfaisantes.

  • Comprendre l’atome ou la molécule noyau-électrons : La physique théorique sait plutôt bien le faire (si atome pas trop gros).
  • Passer des atomes et molécules au niveau de la matière ordinaire : c’est à peu près valable au niveau des principes mais pas très bon au niveau des propriétés particulières et spécifiques et de la prédiction de valeurs numériques.
  • Plus bas, passer des nucléons et des particules au noyau ce n’est pas satisfaisant et passer des quarks et des gluons au nucléons et aux particules nous en savons encore moins…
La Matière – J.-M. Levy Leblond $3 Qualités premières et qualités secondes (devivevoix.com)

Les qualités premières (à priori insensibles à la division) sont : la solidité (consistance), l’étendue (extension), la figure (la forme), le nombre, le mouvement et qui produisent en nous des idées simples.

Les qualités secondes : les couleurs, les sons, les goûts, …etc. C’est à dire des qualités, qui dans nos corps, ne sont que « la puissance de produire certaines sensations en nous par les moyens des premières qualités de la matière. C’est à dire par la grosseur, figure, contexture et mouvement de leurs parties insensibles (Locke)

C’est le programme de la physique qui dure depuis +400 ans, c’est à dire expliquer les phénomènes, analyser tout les corps en termes de qualités premières de la matière : Le réductionnisme comme ultime connaissance de la réalité.

Mais la réalité est plus complexe qu’une simple réduction d’analyses basées sur la déduction, le principe de causalité, l’irréversibilité de la flèche du temps… Finalement les seules qualités premières de la matière (point de vue scientifique) concernent principalement les ATOMES et le fait de montrer comment les interactions avec nos sens produisent les qualités secondes (couleur, saveur, son…) et autres faits divers par lesquels l’ATOME se manifeste, c’est l’unique programme du réductionnisme et c’est un peu limité. Descendre du complexe vers l’élémentaire, découvrir les éléments constitutifs (réductionnisme analytique, divisibilité de la matière) pour remontrer (deuxième phase de travail à innover) vers le complexe sous forme de synthèse théorique pour expliquer les propriétés globales de la matière par les spécificités des atomes et des particules, c’est l’objectif des sciences contemporaines plus globales qu’au XXe siècle, plus inclusives disons-le.

Les éléments chimiques

Les éléments chimiques sont une conséquence logique de l’approche des matériaux au quotidien. Il y a 11.000 ans, à Troubat dans les Pyrénées, les peuplades utilisaient la chaleur (900°C) pour changer la couleur de la terre à utiliser dans les peintures rupestres. Les théories atomistes sont bien plus tardives (-500) et essentiellement grecque (analyse par dichotomie et par déduction). Ce sont elles qui ont abouties au réductionnisme dans l’étude des sciences de la matière en Europe.

https://www.elementschimiques.fr/?fr

Les éléments chimiques ont changés de noms et de symboles depuis des siècles. En Europe, il faut remercier les Arabes pour nous avoir amené d’Orient les connaissances appliquées à la matière et à ses transformations. Les étoffes, les teintures, l’agriculture, les parfums, l’alchimie et tout ce qui, depuis la nuit des temps, enivre l’humanité du raffinement nécessaire à son existence… De là émerge la chimie moderne.

Des 5 éléments à l’alchimie

Tableau des symboles alchimiques, extrait du Testament de Basile Valentin (1670)

L’élément 36 (colonne Alkalis au centre) est intéressant, il s’agit du phlogistique. Le nom est très peu utilisé de nos jours et son symbole est un triangle, une croix sous sa base inférieure et trois petits cercles sur chaque sommet du triangle.

C’est le chimiste allemand J.J. Becher (1625-1682) qui forme le mot phlogiston (latin moderne) d’après le grec phlogistos « inflammable ». Dans la chimie ancienne, le phlogistique désignait le fluide qu’on supposait inhérent à tout corps, et qui, en abandonnant ce corps, provoquait une combustion. Le FEU était l’un des principes de la composition des corps.

Les philosophes de l’antiquité (orient ou occident) ont toujours chercher à comprendre l’organisation de la matière.

  • Ve siècle avant notre ère : théories atomistes (Leucippe, Démocrite)
  • IVe siècle avant notre ère : théories élémentalistes (Empédocle pour les 4 éléments TERRE, EAU, AIR, FEU) répandue dans l’Empire d’Alexandre III de Macédoine par Aristote qui repose sur une conception du « lieu naturel » des choses organisé dans l’univers en 5 sphères, la sphère terrestre (les 4 éléments) et la sphère de l’éther (le kosmos). Aristote propose un système « d’affinités » pour expliquer comment les éléments s’associent entre eux.
  • Platon défend une théorie à 5 éléments (TERRE, EAU, AIR, FEU, ETHER) qu’il associe à une vision géométrique de la nature par l’abstraction de 5 polyèdres réguliers (tétraèdre, cube, dodécaèdre et icosaèdre).

On retrouve également la théorie des 5 éléments dans :

  • Le Mahabhuta indouiste et bouddhiste
  • Le Godai japonais (terre, eau, feu, vent, espace)
  • Le Wuxing chinois (terre, eau, feu, bois, métal)

Curieusement, au delà de l’évolution des idées, c’est l’application des concepts aristotéliciens dans lesquels résident une confusion entre les éléments physiques et la symbolique intuitive des phases de la matière (solide, liquide, gazeuse, incandescente et éthérée), que les métallurgistes qui expérimentent le « travail à chaud » constatent les incohérences et s’efforce de modifier la conception des éléments. Ce sont les alchimistes (al-kimiia, Egypte -200) qui développent une nouvelle conception de la matière par association d’idées entre les expériences sur les métaux et les symboles de la théorie hermétique.

  • L’alchimie progresse entre le VIIIe et le Xe dans l’empire islamique.
  • Après la chute du Califat de Cordoue, entre le XIe et le XVIe siècle, le monde chrétien découvre l’alchimie par la traduction de nombreux textes arabes

Aux 5 éléments aristotéliciens, les alchimistes ont ajouté les principes du Sel, du Soufre (et du Mercure) ainsi que les 7 métaux en correspondances avec les « 7 planètes » connues de l’époque :

  • OR -Soleil
  • ARGENT – Lune
  • CUIVRE – Vénus
  • VIF ARGENT (mercure Hg) – Mercure
  • FER – Mars
  • ÉTAIN – Jupiter
  • PLOMB – Saturne
science-alchimique

L’alchimie, en fait, sur la base des métaux et de leurs transformations, représente en occident la première science expérimentale. Mais en Europe, les éléments aristotéliciens tombent en désuétude lorsque les sciences rationnelles commencent à obtenir de très bons résultats :

  • Henry Cavendish (1794) : l’eau est obtenue par combinaison d’hydrogène (gaz qu’il avait mis en évidence en 1766) et d’oxygène découvert indépenddamment par C. Wilhelm (1772) et J. Priestley (1774).
  • Antoine de Lavoisier : ses travaux sur l’oxydation et sur le processus de la combustion posent les bases de la chimie moderne.
Nomenclature chimique de Lavoisier

La chute de l’aristotélisme résulte de plusieurs modifications de la pensée (analytique) que les sciences de la matière formalisent dans la douleur d’une société sclérosée par la scolastique :

  • Héliocentrisme : Copernic, Kepler, Bruno…
  • Les principes de la philosophie de Descartes (1644) et la géométrie algébrique.
  • Les principes mathématiques de philosophie naturelle de Newton (1687) et la science du mouvement
  • Publication (1787) de la première méthode de nomenclature chimique (Lavoisier, Berthollet et d’autres) comme classification méthodique des éléments,
  • La loi des proportions définies de Dalton (1808) pour expliquer la formation « algébrique » des molécules en fonction des « affinités atomiques ».

Les premières tables périodiques

L’identification des éléments chimiques et de leurs propriétés s’amplifie au rythme des découvertes stimulées par l’engouement pour les sciences. Après Lavoisier (qui a eu la tête coupée à la révolution française), J. Döbereiner et J.-B. Dumas proposent entre (1817 et 1859) de regrouper les éléments par triades ou tétrades à partir de relations arythmique entre les masses atomiques des éléments. Puis A.-E. Beguyer de Chancourtois remarque l’existence d’une périodicité dans les propriétés chimiques des éléments qu’ils organisent en spirale sur un cylindre. C’est la « vis tellurique de Chantournois » puisque les éléments des triades et des tétrades de Döbereiner et Dumas se trouvent alignés.

Classification de Mendeleïev

C’est la classification des éléments chimiques est celle que l’on découvre au lycée et que l’on utilise en général. Verticalement, les éléments chimiques possèdent des propriétés similaires.

https://ptable.com/?lang=fr# : C’est la base de données que j’utilise pour compléter mes tables de valeurs.

Le tableau périodique russe (1869) de Dimitri Mendeleïev :

(Version moderne)

Classification de Crookes

Le groupement des éléments chimiques selon William Crookes :

Cette classification périodique est parut dans Les Proccedings of the royal Sociéty dans une communication faite le 9 juin 1898.

Sur la base des éléments chimiques, et considérant les lois de symétries en mathématiques, l’idée est d’analyser l’assemblage des atomes ultimes. William Crookes était membre de la Société Théosophique fondée par H. P. Blavatsky comme Thomas Edison, Camille Flammarion dans le domaine scientifique mais aussi N. Roerich, V. Kandinsky, R. Steiner, G. Russel, J. Krishnamurti, A. Hume…

A. Besant (présidente de la Société Théosophique de 1907 à 1933) et C. W. Leadbeater ont mené un étude systématique (dans les plans éthériques) sur les atomes et leurs représentations géométriques. Et les schémas qu’ils en donnent sont de toute beauté. L’harmonie qui en résulte nécessite d’en approfondir les lois qui y préside. Chaque atome du chimiste est représenté, c’est comme une musique des formes, par la correspondance d’une quantité d’atomes ultimes. L’hydrogène en contient 18, le deutérium 36, l’hélium (4) en compte 72… En plus du nombre d’atomes ultimes correspondants à chaque élément chimique, la périodicité existe dans les formes géométriques des groupement d’atomes qui en émerge.

Forme extérieure des atomes chimiques en fonction de l’assemblage géométrique des atomes ultimes (Théosophie)

  • Les haltères – Sous-groupe 1a (-) avec Cl, Br, I comme monoatomiques, diamagnétiques et ions négatifs. Sous-group 1b (+) avec Na, Cu, Ag, Au, Gd (1909).
  • Le tétraèdre – Sous-groupe 2a (+) avec Be, Ca, Sr, Ba comme diatomiques, paramagnétiques et ions positifs. Sous-groupe 2b (-) avec O, Mo, Tu, U (une place libre entre Tu et U) comme diatomiques, paramagnétiques et ions négatifs
  • Le cube : – Sous-groupe 3a (+) avec Bore, Scandium, Yttrium comme triatomiques, paramagnétique et ions positifs. Sous groupe 3b (-) avec N, V, Nb comme triatomiques, paramagnétiques et négatifs
  • L’octaèdre (arrondi aux angles) – Sous groupe 4a (+) avec C, Ti, Zi, valence 4, paramagnétiques et ions positifs. Sous-groupe 4b avec Si, Ge, Sn
  • Les tiges – Sous groupe 5a avec fluor (à la tête d’un groupe inter-périodique ou d’un stade de transition), Mn, Fe, Co, Ni, Ru, Rh, Pa, Os, Ir, Pl. Mais le fluor et le manganèse passent dans l’autre groupe… Le groupe des pointes sous groupe 5b (+ pas pour F ni Mn ?) avec Li, K, Ru, {F, Mn} à cause de leur ressemblance interne comme monoatomique, paramagnétiques et ions positifs.
  • L’étoile : Dernier groupe du classement des lemniscates de Crookes, celui qui forme la colonne neutre avec He sui generis, Ne, Méta Ne, Ar, Méta Ar, Kr, Méta Kr. Tous ces éléments chimiques témoignent de la présence d’une loi de récurrence.
La géométrie et le quantique – Alain Connes §10 La musique des formes (devivevoix.com)
Représentation de la classification des éléments en fonction de l’assemblage et du nombre d’atomes ultimes. Société Théosophique, Adyar, Madras, India, 6 mai 1933.

on à dû remarquer que nos poids obtenus par numération sont presque toujours légèrement plus forts que les poids officels. Il est intéressant de savoir que dans le dernier rapport de la Commission Internationale (13 novembre 1907), imprimé dans les Proceedings of the chemical Society of London (vol XXIV, n°13), et mis en circulation le 25 janvier 1908, on a admis le poids de l’hydrogène = 1,008 au lieu de 1. Ceci élève légèrement tous les poids officiels, ainsi le poids de l’Aluminium s’élève de 26,91 à 27,1 : celui de l’antimoine de 119,34 à 120,2 et ainsi de suite.

La Chimie Occulte, Annie Besant et CH.W. Leadbeater, édition (française) Adyar 1920-2004

Cette classification est celle qui combine l’arrangement des atomes selon Crookes et les observations, classifications géométriques des ANU selon Besant et Leadeater.

Méthodologie de travail

Analyse sur tableur

A partir des données traitées dans une feuille de calcul, je m’efforce d’extraire des modèles mathématiques simples pour analyser, par la suite, des propriétés physico-chimiques à partir de la géométrie descriptive de chaque groupe d’éléments chimiques classés en fonction du nombre d’atomes ultimes.

Poids atomiques

Le poids atomiques (u.m.a) des scientifiques est « EGAL » au nombre d’atomes ultimes (ANU) qui composent l’élément chimiques que l’on DIVISE par 18 puisque l’hydrogène contient 18 ANU. Et cela fonctionne plutôt bien sur l’ensemble des éléments de la table périodique.

  • Hydrogène 18/18 = 1
  • Deutérium 36/18 = 2
  • Hélium (3) 54/18 = 3
  • Hélium 72/18 = 4
  • Lithium 127/18 = 7,06
  • Béryllium 164/18 = 9,11
  • Bore 200/18 = 10,81
  • Carbone 216/18 = 12
  • Etc…

La logique est simple mais elle correspond à un dénombrement empirique d’ANU dans les éléments chimiques et ce suivi expérimental a été publié dans The Theosophist au début du XXe siècle.

Un modèle linéaire : ANU = f(Z)

Le plus simple, dans un premier temps, c’est de trouver la relation entre le nombre d’ANU et le n° atomique Z.

Voir tableur de données – PP

Un modèle linéaire est toujours plus simple à utiliser car on trouve que le nombre d’ANU est proportionnel au numéro atomique Z : ANU = 46,9 Z – 151,2

Un modèle non linéaire : Les « intervalles musicaux »

Une coïncidence bienvenue émerge de la moyenne des rapports Un+1/Un appliquée à la suite du nombre d’ANU :

  • Hydrogène-Deutérium 36/18 = 2
  • Hélium (3)-Deutérium 54/36 = 1,5
  • Hélium-Hélium (3) = 72/54 = 1,33
  • Lithium-Hélium = 127/72 = 1,76
  • Béryllium-Lithium 164/127 = 1,29
  • Bore-Béryllium 200/164 = 1,22
  • Carbone-Bore 216/200 = 1,08
  • Etc…

Ce n’est pas visible tout de suite, mais en considérant la totalité des éléments chimiques calculés (une centaine), la moyenne des rapports Un+1/Un est EGAL à 1,059 (environ) soit 21/12. C’est l’intervalle de la gamme tempérée en musique.

Je calcule ensuite l’erreur relative (en %) de chaque Un+1/Un par rapport à la moyenne (21/12). La courbe de tendance des erreurs relatives en fonction de N° atomique Z est une fonction puissance :

f(x) = 137x-3/2

En plaçant les éléments jusqu’à z=32, on comprend la similitude et le travail de synthèse à fournir pour poursuivre l’étude :

Le potassium (K) est vraiment décalé, mais il y a d’autres éléments comme lui, c’est justement par les anomalies qu’il faut commencer l’étude de correspondance du nombre d’atomes ultimes en fonction du n° atomique Z.

Electron – Part. 4

Les trois premières parties de ce travail d’association d’idées et de focalisation sur certains concepts me permet d’aborder plus sereinement la beauté et l’expression géométrique des formes naturelles. Les formes qui nous entoure sont variées. La forme sphérique domine les corps célestes qu’ils s’agissent de planètes ou d’étoiles. L’atome est également identifié à une sphère mais la cristallisation moléculaire révèle une pluralité des formes plus qu’intéressante au niveau symbolique et esthétique mais également au niveau des assemblages atomiques (échelle microscopique). L’apparence des « choses physiques » se complexifie, les forces se compensent, les lois d’attraction et de répulsion se manifestent « librement » pour laisser émerger un contrebalancement des contraires faisant penser inexorablement à l’harmonie par le conflit. C’est par le tiraillement des entités présentes dans la substance que les agrégats de matière se manifestent.

Les polyèdres réguliers

Les polygones réguliers sont en nombre infini. Les polyèdres réguliers sont au nombre de 5 (solides de Platon) :

Solides de PlatonTétraèdreHexaèdre (cube)OctaèdreDodécaèdreIcosaèdre
Nombre de faces4681220
Nombre d'arrêtes612123030
Nombre de sommets4862012

Le tétraèdre

Le Tétraèdre est le polyèdre le plus simple, il a 4 faces, 6 arrêtes et 4 sommets. Son groupe de symétrie est égal au nombres de permutations de ses sommets. Le tétraèdre possède 24 symétries. Les 4 rotations autour des axes qui passent par les sommets du tétraèdre sont d’amplitude 2pi/3 et 3 autres rotations possibles de pi autour des axes qui passent par les points médians de chaque arrête. Au total, le tétraèdre possède 12 rotations propres.

A gauche un exemple de cristal dendritique givré lors de sa précipitation. A droite un exemple de cristal ayant commencé sa formation sous forme de colonne puis au sommet desquelles se sont ensuite développées les faces prismatiques (plaquettes)

L’agencement des molécules d’eau dans la glace est tétraédrique :

Les atomes d’oxygène sont rouges, et les atomes d’hydrogène sont blancs. Les liaisons covalentes sont représentées en traits épais et bicolores et les liaisons hydrogène en traits fins.

Le tétraèdre régulier donne une réponse au problème « des dictateurs ennemis » dans le cas n=4 : Quelle est la taille maximale de n calottes sphériques identiques (les états de chaque dictateur) de sorte qu’elles puissent se répartir sans se chevaucher, et quelle est leur disposition ?

Les 4 calottes maximales ont un angle au centre de arcos(-1/3) rad soit 109°28’16 » et sont centrés au sommet d’un tétraèdre régulier. Les états occupent alors 61% de la surface totale.

C’est étonnant de constater qu’une peuplade d’Ecosse (il y a 4000 ans), pour le plaisir de l’art et des formes symétriques s’est déjà exprimé en ce sens :

La chiralité du carbone tétraédrique

A gauche, en noir, l’atome tétraédrique, il peut se lier à quatre atomes aux sommets d’un tétraèdre dont il est le centre. Une molécule chirale n’est pas superposable dans un miroir (symbolisé par les traits discontinus). Les configurations non superposables sont des éléments chimiques différents (avec le changement de l’atome F sur le schéma)

La chiralité montre l’importance dans la configuration spatiale (stéréochimie) des atomes dans une molécule. Que la géométrie soit impliquée dans la forme représentative des molécules, c’est toute la pensée pythagoricienne qui revient en mémoire. Les notions de cristallographie sont initiées par René Haüy (1743-1822) qui insistait sur l’approche géométrique de la structure d’assemblages des atomes. Ampère développa cette idée avec les polyèdres. Il s’agit d’une intuition commune avec les solides platoniciens, les associations d’idées de Kepler et de Robert Hooke à Alfred Werner. La stéréochimie est plus ancienne que la découverte de l’atome tétraédrique de carbone (1874) par Le Bel et Van-t Hoff.

Logiciel pédagogique : représentation spatiale des molécules http://www.librairiedemolecules.education.fr/outils/minusc/

Le cube

Le cube (hexaèdre) forme un polyèdre plus perceptible et plus facile à appréhender intuitivement que le tétraèdre. Les isométries du cube sont des rotations propres et leur complément, une antirotation. Les rotations propres sont d’une amplitude de 2pi/3 autour des axes (4) qui passent par les sommets et des rotations d’amplitude pi/2 autour des axes (3) qui passent par les centres des faces et enfin des rotations d’amplitude de pi autour des axes (6) qui passent par le points médian de chaque arrête.

Analyse cristallographique du sel (NaCl)

Le sel de cuisine (cristal cubique ci-dessous) est une molécule qui s’inscrit dans un cube, au niveau atomique mais également à l’échelle macroscopique :

En 3D, l’assemblage des ions de sodium (Na+) plus petit que les ions chlorure (Cl-) forme une cristallisation cubique :

L’arrangement des ions (+) en bleu, le sodium Na et (-) en vert, le clore Cl pour former la molécule de sel (NaCl) est de toute beauté. Simple mais beau, la cristallographie a mesurée (par diffraction) toutes les valeurs possibles et nécessaires pour comparer l’harmonie des formes par les valeurs linéaires et angulaires.

La structure cristalline du sel de cuisine NaCl (chlorure de sodium). C’est un réseau cubique à faces centrées ou les ions chlore (en vert) occupent les sommets d’un cube, et où les ions sodium (en gris) occupent les centres des arrêtes de ce cube, ou vice-versa. Les ions sodium sont également répartis en octaèdres autour de chaque ion chlore.

L’octaèdre

L’octaèdre (8 faces) devrait avoir plus de symétries que la cube mais il n’en est rien. Le cube et l’octaèdre sont des solides duaux : si l’on relie les centres des faces d’un cube on obtient un octaèdre, et vice versa. Une conséquence de cette dualité c’est que les deux solides possèdent le même nombre de symétries. Il y a 3 plans de symétrie contenant 4 arrêtes, 6 passant par les milieux de 2 arrêtes opposées et par 2 sommets.

Analyse cristallographique de l’argile

Les minéraux argileux (aluminosilicates) présentent une structure en feuillets bidimentionnels et constitués de deux types de couches :

  • La couche tétraédrique est formée de silice tétraédrique Si4+ entouré de quatre anions O2- qui constituent les sommets du tétraèdre. Chaque tétraèdre partage trois atomes d’oxygène avec les tétraèdres adjacents. Ces atomes d’oxygènes partagés sont arrangés en réseau héxagonal qui forme la base de la couche. Le bilan des charges électriques (+) et (-) n’est pas neutre : 4 + 3x(-2)/2 + 2 = -1. L’électroneutralité de la couche est obtenue par la liaison avec une couche chargée positivement ou par ajout d’un H+ sur certain O2-. L’épaisseur de cette couche tétraédrique est de 4,63 A. {Si4+ peut être remplacés par Al3+ et plus rarement par Fe3+}
  • La couche octaédrique est formée de cations Al3+ ou Mg2+ entourés de six groupements hydroxyle OH-. Ces octaèdres sont reliés entre eux par des anions communs en formant une couche plane. Le bilan des charges électriques est de +1. Pour atteindre l’électroneutralité, seulement deux sites octaédriques sur trois son occupés par un Al3+ (couche di-octaédrique de gibbsite). Dans le cas du cation Mg2+, tous les sites sont occupés, la couche est neutre. C’est la structure tri-octaédrique de brucite. L’épaisseur de la couche octaédrique est de 5,05 A. {Al3+ peut être substitué par Fe2+ et surout Mg2+}

Des couches tétraédriques et des couches octaédriques forment des feuillets, séparés par des espaces interfoliaires pouvant contenir des molécules d’eau et des ions. L’ensemble d’un feuillet et d’un espace interfoliaires est une unité structurale. Ces unités s’agencent entre elles pour formes des particules argileuses. La liaison entre la couche tétraédrique et la couche octaédrique se fait par l’intermédiaire du quatrième oxygène de la silice tétraédrique qui appartient aussi à un octaèdre du feuillet octaédrique. Les espaces interfliaires peuvent être vides (feuillets neutres) ou remplis, ils sont occupés par des cations dès que l’empilement des charges présentes un déficit de charge. Les cations les plus présents sont le calcium Ca2+, le magnésium Mg2+, le potassium K+, le sodium Na+ et le lithium Li+.

L’intuition d’A.-M. Ampère

Biographie : Pierre Laszlo (Polytechnique) – https://journals.openedition.org/bibnum/455#tocto1n3

En 1814 parut une lettre d’Ampère à M. le Comte Berthollet sur la détermination des proportions dans lesquelles les corps se combinent, d’après le nombre et la disposition respective des molécules dont leurs particules intégrantes sont composées.

un polyèdre dont chaque molécule {atome} occupera un sommet, et il suffira de nommer ce polyèdre pour exprimer la situation respective des molécules dont se compose une particule {molécule}. Je donnerai à ce polyèdre le nom de forme représentative de la particule {molécule, structure atomique}

Ampère, 1814

Il explique en fait, que les molécules se forment proportionnellement, en nombre et en nature d’atome, en fonction des assemblages géométriques possibles.

{dans la combinaisons possibles des tétraèdres et des octaèdres} on doit conclure que le corps A et le corps B ne s’uniront pas de manière qu’il y ait dans la combinaison une proportion de A et deux proportions de B ; cette autre combinaison sera facile au contraire, entre deux proportions de A et une de B, puisque deux tétraèdres et un octaèdre forment, par leur réunion, un dodécaèdre.

Ampère, 1814

Ampère a raison si l’on regarde l’analyse cristallographique de l’argile structurée en feuillet de 2 plans tétraèdriques (2 corps A) qui se superposent à un plan octaédrique (1 corps B). Ampère indique une combinaison possible en proportions égales : Réunion de deux octaèdres et de deux tétraèdres en un triacontaèdre tel qu’il le désigne :

Une structure de triacontaèdre dans un quasi-cristal de cadmium-Ytterbium, dit Cd5,7Yb (mis en évidence en 2000). Le triacontaèdre (en bas à gauche) avec ses faces en losanges et en parallélogrammes. Ces polyèdres s’encastrent à plusieurs dans des structures cubiques. Ils sont formés de plusieurs couches (en gris le cadmium, en jaune l’Ytterbium) : une première couche tétraédrique de cadmium (4 atomes), une seconde couche dodécaédrique de cadmium (20 atomes), une troisième couche icosaédrique d’ytterbium (12 atomes), chacune de 20 faces ayant en son centre l’atome de cadmium de la couche antérieure (détail dans la figure encadrée), et une quatrième couche icosidodécaédrique de cadmium (30 atomes) chacune des 12 faces pentagonales ayant en son centre l’atome ytterbium de la couche antérieure. (ESRF et CNRS)

Représentations de polyèdres par Ampère (1815)

Le dodécaèdre

Polyèdre régulier composé de 12 faces pentagonales. Le groupe présente 60 rotations propres et 120 éléments. Dix siècles avant notre ère, les Étrusques utilisaient des dès dodécaèdriques, solide de de Platon décrit en -370. Le diamètre de la sphère circonscrite est phi multiplié par (3a)1/2 soit 2,8a environ. Avec a la longueur de l’arrête du dodécaèdre. Il a 12 sommets (permutés circulairement) et 8 sommets d’un cube. On compte 15 plans de symétrie avec 6 axes de rotation passant par les 2 centres de faces opposées, 15 axes passant par les milieux de 2 arrêtes opposées et 10 axes passant par 2 sommets opposés.

Dans le domaine biologique, certains planctons holococcolithes et nannolithes présentent une forme parfaite de dodécaèdre naturel (braarudospaerales)

http://www.mikrotax.org/Nannotax3/index.php?taxon=ntax_cenozoic&module=ntax_cenozoic&dpage=1

Et le ballon de foot est une projection centrale du squelette du dodécaèdre sur la sphère circonscrite, on obtient un pavage régulier de la sphère par 12 pentagones sphériques réguliers.

Le dodécaèdre et l’icosaèdre sont deux polyèdres duaux.

L’Icosaèdre

Les faces de l’icosaèdre représentent 20 triangles, 12 sommet de degré 5 et 30 arrêtes de longueur a. Le volume de l’icosaèdre est (5/6)phi2a3 avec phi le nombre d’or. Il y a 15 plans de symétrie contenant deux arrêtes opposées. Les axes de rotation :

  • 15 axes passant par les milieux de 2 arrêtes opposées (1 rotation d’ordre 2 par axe). Amplitude pi.
  • 10 axes passant par les centres de 2 faces opposées (2 rotations d’ordre 3 par axe). Amplitude 2pi/3.
  • 6 axes passant par 2 sommets (4 rotations d’ordre 5 par axe). Amplitude 2pi/5.

Le groupe présente 60 rotations et 120 éléments. Si l’on effectue la construction par les 3 rectangles quelconque 2 à 2 orthogonaux, on obtient successivement l’octaèdre, l’icosaèdre et le cuboctaèdre.

Image mathcurve.com

La forme géométrique d’un virus (adenovirus)

Bibliographie : Elèves de terminale S (2015-2016) Lycée Barthou, PAU

La connaissance de la géométrie d’un virus permet d’optimiser son traitement qui va « casser » sa structure atomique. Les capsides virales sont des icosaèdres ou utilisent une symétrie icosaèdrique. La capside, c’est la structure protéique qui protège le génome du virus en l’emballant. Elle peut être tubulaire ou polyédrique. Les capsides sont faites de protéines virales polymérisées et on une très grande stabilité. Lorsqu’on place des protéines ayant la même charge de répulsion et la même masse, elles se placent à la surface d’une sphère selon une symétrie régulière qui dépend du nombre de protéines (ligne, triangle, carré, pentagone, hexagone…). Des particules de même charge se placent naturellement et symétriquement les unes aux autres du fait de leur force de répulsion. On sommets des capsides icosaèdriques, les faces se réunissent pour former des pentons tandis que les arrêtes et les faces forment des hexons.

Adenovirus – Icosaèdre – Capsule virale
  • L’hexon est la protéine la plus abondante et la grosse en taille. Elle compte 720 monomères (grosse protéine) et forment 240 hexons trimétriques (3 molécules) qui vont constituer les 20 faces triangulaire de l’icosaèdre.
  • La base de penton est une protéine pentamétrique (5 molécules) située au 12 sommets de l’icosaèdre. Elle joue un rôle majeur dans la structure géométrique, la fixation et l’exposition de la fibre porteuse de l’antigène à la surface de la particule virale.
  • La fibre est constituée de 3 molécules identiques (homotrimère) projetée vers l’extérieur sur les 12 sommets de l’icosaèdre. La tête de la fibre permet de reconnaître le récepteur à la surface de la cellule cible lors de l’infection par adenovirus.

Cristaux et minéraux

Cristallographie

Un cristal, c’est la base de la matière qui nous entoure et son étude s’effectue à l’échelle microscopique même la symétrie passe à l’échelle de l’œil humain c’est à dire l’échelle macroscopique.

Un cristal c’est la forme thermodynamique stable de la plupart des solides à basses températures. La symétrie d’un cristal est définie par son groupe d’espace dont chaque élément est le produit d’une translation par la rotation autour d’un point donné. Si on ne considère que les rotations, elles forment aussi un groupe (fini) appelé groupe ponctuel. Certaines propriétés ne dépendent que du groupe ponctuel. Un cristal à un seul atome par maille (comme le fer et beaucoup de corps simple) s’appelle un réseau de Bravais.

Il existe 32 groupes ponctuels et 230 groupes d’espace comme l’ont démontré indépendamment Schönflies et Fedorov en 1890. Il existe 14 réseaux de Bravais (1848). Ces nombres résultent de la solution d’un pur problème de maths, comparable à l’énumération descriptive des 5 polyèdres réguliers (Euclide).

Schémas originaux de Bravais

A quoi servent les groupes d’espace et ponctuel ?

Bibliographie : Symétrie et théorie des groupes à travers la physique – Jacques Villain (2009)

Certaines propriétés physiques existent ou n’existent pas selon la symétrie du cristal, c’est à dire selon son groupe d’espace ou son groupe ponctuel. La pyroélectricité est caractérisé par un moment dipolaire électrique par maille P non nul. Toute opération de symétrie doit préserver la direction de la polarisation du cristal pyroélectrique. Le seul axe de rotation possible est donc parallèle à P. Et il ne pas peut pas y avoir de plan miroir perpendiculaire à P. Cela n’autorise que les groupes ponctuels Cn, Cnv et C1h.

  • Le groupe C1 est constitué par l’élément unité seul, il est triclinique.
  • Le groupe Cn comporte un axe de rotation d’ordre n = 2, 3, 4, 5 et rien d’autre.
  • Le groupe Cnv comporte un miroir (plan de symétrie) parallèle à cet axe.
  • Le groupe C1h est constitué par l’élément unité et un miroir.

Plus simple encore, la biréfringence existe pour tous les cristaux non cubiques. La forme du tenseur de permittivité électrique epsilon est défini par D = epsilon.E avec E et D respectivement le champ et le déplacement électrique. Il y a biréfringence si la matrice epsilon n’a pas ses valeurs propres dégénérées.

Classification des minéraux

Images CNRS

Symétries en physique

  • En mécanique quantique : factorisation des fonctions d’onde en une fonction déterminée par les symétries et une fonction d’onde dépendant, explicitement du système considéré, prévision de la dégénérescence des niveaux d’énergie et des bons nombres quantiques, etc.
  • Dans l’étude des molécules : classification des niveaux électroniques et de smodes de vibrations, prévision de leur activité en spectroscopie (Raman, Rayleigh, THz, neutron).
  • En matière condensée : description des excitations collectives élémentaires (phonons, magnons, excitons…) ; dans la forme des propriétés tensorielles des cristaux, qui traduisent la réponse de ces systèmes à une perturbation extérieure, telle qu’un champ électrique ou magnétique, un contrainte ou la température. Par exemple : pyroélectricité, effet électrocalorique {réponse électrique à une variation de température et inversement}, piézoélectricité et l’électrostriction {réponse électrique à une contrainte mécanique et inversement}, ferroélectricité {réponse électrique via polarisation par champ électrique}, l’élasticité, le ferromagnétisme, l’expansion thermique et l’effet piézocalorique {réponse mécanique à une variation de température et inversement}, la magnéto-électricité, le piézomagnétisme et la magnétostriction, l’effet électro-optique et magnéto-optique {réponse optique sous la forme d’une polarisation rotatoire ou de biréfringence à un champ magnétique et électrique), etc.

Classification des cristaux de glace

La formation des cristaux dépend de certaines conditions :

Diagramme montrant la morphologie observée des cristaux de neige en fonction de la température et de la sursaturation régnant lors de leur formation. La courbe de saturation de l’eau, plus élevée que celle de la glace, est indiquée ; les saturations plus importantes que la saturation de l’eau peuvent se trouver dans les nuages mixtes. (Libbrecht, 2005)

Cristallographie de la glace Ih

Bibliographie : Thèse d’état – Contribution à l’élaboration d’un modèle d’évolution physico-chimique de la neige Josué Block (2012), université de Grenoble)

De par leur géométrie non linéaire et leur moment dipolaire, les molécules d’eau créent, en phase condensée, des liaisons hydrogène. Chaque atome d’oxygène est relié à quatre atomes d’hydrogènes différents au travers de 2 liaisons covalentes et 2 liaisons hydrogène. Chaque molécule d’eau est entourée de 4 autres molécules d’eau qui sont disposées aux sommets d’un tétraèdre régulier (voir § Tétraèdre dans la section polyèdres réguliers en haut de l’article). La glace Ih est formée d’un empilement régulier de ces tétraèdres.

Arrangement des atomes d’oxygène dans la glace Ih : maille élémentaire (à gauche) et vue parallèle à l’axe c (à droite). Les longueurs des côtés de la maille élémentaire sont a0 = 4,5 A et c0 = 7,34 A.

Le cristal de neige est obtenu par la reproduction périodique d’un motif (maille élémentaire) dans lequel on retrouve la coordination tétraédrique des molécules. En représentant quelques mailles, la structure hexagonale apparait dans le plan normal à l’axe c.

Arrangement des atomes d’oxygène dans la glace Ih : vue normale à l’axe c (à gauche) et le long de l’axe c (à droite). Les molécules d’eau formant un « plan » normal à l’axe c sont en fait réparties sur 2 niveaux (bicouche) bien visible sur le plan central d ela projection à gauche.

La glace est donc constitué d’un empilement de couches présentant cette structure hexagonale, qui se traduit par une anisotropie : ses propriétés sont différentes selon l’orientation considérée. Cette structure anisotrope, à symétrie hexagonale, va se conserver lors de la croissance cristalline, et se retrouve à l’échelle macroscopique dans la forme des flocons de neige.

Croissance des flocons de neige

Les flocons de neige (comme la pluie et la grêle) se forment dans les nuages stratosphériques. Les nuages mixtes contiennent également de l’eau liquide et de la glace (ou que de la glace à -40°C). C’est la congélation de gouttelettes d’eau ou la condensation de vapeur d’eau (nucléation). Souvent, la nucléation est hétérogène. La tension de vapeur saturante étant plus élevé au dessus de l’eau qu’au dessus de la glace, un flux de vapeur d’eau s’établit des gouttelettes vers les cristaux, et de la glace va donc croître au détriment des gouttelettes d’eau. C’est l’effet Bergeron (1935), et son intensité est maximale lorsque la différence des pressions saturantes au-dessus de la glace et au-dessus de l’eau est plus importante entre -10 et -15°C.

Les cristaux de neige révèlent une grande diversité de formes. Mais la structure cristallographique Ih est commune à tous les cristaux de neige et est à la base de toutes les géométries observées.

Cristal macroscopique muni de ses axes cristallographiques c et a ; les deux faces basales sont normales à l’axe c, les six faces prismatiques sont normales aux composantes des axes pris deux à deux.

Il existe une alternance entre les formes aplaties (plaquettes, cristaux dendritiques), observées entre 0 et -4°C puis entre -9 et -22°C, et des formes allongées (prismes, colonnes, aiguilles), observées entre -4 et -9°C et au dessous de -22°C. Dans le premier cas, les formes allongées s’expliquent par une croissance privilégiée des faces prismatiques, tandis que les formes s’expliquent par une croissance plus rapide des faces basales.

Electron – Part. 3

Pour comprendre la matière, je combine deux modèles distincts dans l’idée hypothétique de trouver un angle de vue ouvrant de nouvelles perspectives. Le modèle standard en physique des particules et le modèle des Plans et de l’atome ultime en théosophie contemporaine. Le schéma de la matière que nous offre la science s’apparente plus à un croquis inachevé et illisible. Comment accepter que le modèle standard n’explique pas la matière-énergie noire dans l’Univers. La vitesse de rotation des galaxies est un fait observable par une grandeur physique mesurable (par spectroscopie). Des deux articles précédents j’en déduis que l’électron n’existe pas comme « particule physique » mais comme manifestation d’interaction entre notre plan physique et le sous-plan E4 (hypothèse, puisqu’il y a conservation du nombre d’ANU entre H et H+). De plus des changements d’échelles (entre les différents sous-plans) génèrent des perturbations qui nécessitent d’adapter les modèles, les interactions fondamentales et donc les Plans (sens théosophique) de la manifestation visible et invisible.

La matière-énergie noire

Les galaxies sont de grands ensembles cosmiques composées d’étoiles jaunes, rouges, bleues et blanches mais aussi de poussières, de trous noirs, de planètes, de comètes, de cadavres d’étoiles… On peut parler d’organismes cosmiques pour décrire cette ensemble que nous ne pouvons isoler (pour l’étudier) sachant que nous ne pouvons nous en extraire. Nous sommes réellement à l’intérieur de la galaxie, la Terre est infiniment petite à l’échelle de la Galaxie. Mais nous pouvons observer les autres galaxies et la plus proche s’appelle Andromède, c’est une galaxie elliptique comme la notre. Sans doute que son halo de matière noire touche le notre.

Vitesse de rotation des galaxies

La vitesse de rotation des corps célestes NE VARIE PAS en fonction de la distance au centre de la galaxie (le rayon R). C’est un fait observé contrairement à la théorie newtonienne qui prévoyait une diminution asymptotique de la vitesse de rotation (v=(GM/R)1/2).

L’écart est tellement important que les conséquences inattendues perturbent clairement la validité du modèle standard de la physique des particules.

A partir de l’analyse spectrale (ci-dessous), on peut déterminer la vitesse de rotation d’une galaxie. Les raies d’émission des gaz de la tranche de la galaxie se décalent en fonction du mouvement de rotation de la galaxie elle même. Le décalage spectral est mesurée par effet Doppler-Fizeau. Et la vitesse de rotation des bras autour du noyau de la galaxie est de 180 km/s.

Au final, que connaissons-nous ?

  • Energie noire : 73 % (inconnue)
  • Matière noire : 23 % (inconnue)
  • Atomes noirs : 3%
  • Atomes visibles : 1 %

Le modèle standard permet d’expliquer seulement 4% du monde qui nous entoure. C’est un bon début mais très insuffisant. Il y a certainement une erreur quelque part, une lacune contenant 96% de l’ensemble, le diagnostique est clair.

La physique des particules s’associe à la cosmologie, curieusement comme de l’infiniment petit à l’infiniment grand pour expliquer l’Univers. L’expansion de l’Univers est une dynamique à prendre en compte. Les paramètres physiques qui évoluent dans le temps sont la température et la densité d’énergie. LA relation à considérer est : E = kT ; avec E l’énergie en joule, T la température en Kelvin et k la constante de Boltzmann.

La masse du proton

A partir du modèle standard, on considère que la masse de la matière est contenue dans l’énergie portée par les gluons.

mp = 938 MeV/c² >> muud = 9,4 MeV/c²

Les 8 gluons (1979) représentent les « particules médiatrices » de l’interaction forte au niveau des quarks. Le photon (1905) est la particule médiatrice de l’interaction électromagnétique et les 3 bosons (1983) s’associent à l’interaction faible.

La masse d’une galaxie

L’essentiel de la masse du système solaire est contenue dans le Soleil, il n’y a pas de masse cachée même si il existe de la matière diffuse dans l’espace interstellaire répartie sensiblement comme la matière visible et observable en UV, IR, Rayons X, ondes radio…

En 1933 l’astronome Zwicky étudie les vitesses de 7 galaxies formant la chevelure de Bérénice dans l’amas de Coma : la masse estimée par les lois de Newton est 400 fois supérieure à la masse prévue à partir de la quantité de lumière observée. La différence entre la « masse dynamique » et la « masse lumineuse » doit être approfondie.

A partir des années 70, les indices en faveur de la matière noires se sont accumulées quand l’astronome Vera Rubin a étudié les spectres de galaxies spirales vues par la tranche. La matière noire n’est pas dans le disque galactique mais sous forme de halo sphérique englobant la galaxie. Les halos de matière noire sont très étendus (200 à 300 kpc). A associer aux « bulles de Koïlon » en théosophie…

  • La masse du soleil : Ms = 2.1030 kg
  • Etoile capable de donner une supernova : La masse est comprise en 8 et 60 Ms
  • Résidu étoile à neutron après explosion : La masse se situe entre 2 et 3 Ms
  • Masse d’une galaxie : De 108 à 1012 Ms

L’interaction faible et les bosons

L’interaction nucléaire faible est l’une des quatre interactions fondamentales de la physique. Et la désintégration béta(-) m’intéresse particulièrement, il s’agit de la désintégration d’un neutron en proton par exemple. Dans ce cas, la particule médiatrice est un boson W- qui manifeste la transmutation d’un quark d dans le neutron en quark u dans le proton avec émission d’un électron e- et d’un antineutrino.

L’équation de réaction en chimie nucléaire (faible) montre qu’un neutron n(udd) se désintègre en proton p(udu) plus électron et antineutrino. Soit l’équation de la chimie classique permet de formaliser cela, soit les diagrammes de Feynman (à droite) qui sont des outils puissants pour représenter sur plusieurs échelles, les phénomènes qui s’y produise.

Les différents bosons – Diagrammes de Feynman

Exemples de désintégration

Désintégration béta(-)

Désintégration béta(+)

Désintégration alpha

Au cours d’une désintégration, le nucléide formé est dans un état excité qui se stabilise par l’émission d’un rayonnement électromagnétique nommé gamma. Les rayonnements gamma sont utilisés en radiothérapie.

Energie de capture d’un électron

L’énergie de capture d’un électron est égale à la différence entre la masse de l’atome ZX et la masse de l’atome (Z-1)Y en négligeant l’énergie de liaison de l’électron sur sa couche énergétique (environ 100 keV pour les atomes lourds).

Violation de Parité – Désintégration béta

Bibliographie : Violation de la parité dans l’atome de césium : mesures sur la transition très interdite 6S1/2-7S1/2, Jocelyne GUENA. ENS thèse de doctorat d’état ès Sciences Physiques (11 juin 1985).

Violation de parité : il s’agit d’une observation dans les atomes, c’est à dire une manifestation d’une certaine préférence entre la droite et la gauche dans les lois physiques réagissant les systèmes atomiques. Ce fait, en physique atomique, n’est pas interprétable (même qualitativement) par l’électrodynamique quantique.

Mesure de violation de parité effectuées sur deux composantes hyperfines de la transition 6S-7S du césium excité par résonance. Curieusement, en ce qui concerne l’interaction faible, la physique pour un système n’est pas la même que pour « l’image du système dans un miroir ». Cela concerne les réactions nucléaires de mécanismes de radioactivité béta comme la désintégration du proton. L’interaction faible intervient aussi dans l’interaction entre les électrons et le noyau d’un atome et viole là aussi la symétrie par parité. Autrement dit, tous les états propres d’un atome sont légèrement différents de leur image dans un miroir. En effet, la règle de sélection interdisant les transitions entre états de parité identiques se fondent sur la symétrie miroir d’un atome. Si celle-ci n’est pas exacte, alors ces transitions ne sont pas complètement interdites et doivent pouvoir être (faiblement) excitées.

L’expérience de J. GUENA est un test à basse énergie des théories électrofaibles prédisant une interaction faible et neutre électron-neutron violant la parité, associé à l’échange d’un Z0 (boson neutre). Le résultat confirme la prédiction du modèle standard. En fait c’est l’existence d’une interaction faible à « courant neutre » entre les électrons et les nucléons qui, contrairement à l’interaction électromagnétique, n’est pas invariante par réflexion d’espace. Type d’interaction prédite dès 1971 dans le cadre des nouvelles théories de jauge qui unifient l’interaction faible et l’interaction électromagnétique.

L’effet physique essentiel que met l’asymétrie à la portée des expériences actuelles est la loi de croissance de l’amplitude faible légèrement plus rapide que le cube du n° atomique. La violation de parité se manifeste sous la forme d’une asymétrie droite-gauche dans un probabilité de transition entre deux états atomiques.

Interaction faible neutre

Dans les théories de jauge renormalisables, les interactions entre particules sont décrites par l’échange de particules, appelées bosons de jauge ou bosons vectoriels (spin = 1). Dans l’interaction électromagnétique, entre un proton et un électron, le boson échangé est le photon (particule neutre). Dans l’interaction faible de la capture K, le boson échangé est W+.

La portée de l’interaction électromagnétique est infinie alors que la portée de l’interaction faible est 2.10-18 m. La portée d’une interaction est reliée à la masse de la particule échangée (Yukawa, h(barre)/Mc). A la différence des photons sans masse, les bosons vectoriels faibles sont lourds (90 GeV/c²). En radioactivité beta, un neutron du noyau atomique se désintègre en un proton, en émettant un électron et un antineutrino : Ils sont TOUJOURS émis avec des hélicités qui sont positives pour l’électron et négative pour l’antineutrino (schéma a). Le phénomène inverse correspondant à l’image dans un miroir de la désintégration beta ne s’observe JAMAIS (schéma b). La violation de parité, c’est comme une préférence, dans la désintégration, entre la droite et la gauche : l’électron est « gauche » et l’antineutrino est « droit ».

Alors que l’échange de bosons chargés implique une modification de la nature des particules en interaction, l’interaction faible neutre peut se manifester entre particules stables. Et elle se superpose à l’interaction électromagnétique si les particules sont chargées comme pour l’atome. Le boson faible neutre Z0 possède la même masse que les bosons W donc la même portée.

Dans le domaine des hautes énergies (540 GeV), la production de Z0 a été mise en évidence au CERN en 1983. Mais les premières interactions faibles neutres sont observées (1973-1974) :

Les neutrinos ne permettent pas de tester la violation de la parité car ils n’existent dans la nature que dans un seul sens d’hélicité et les antineutrino dans le sens opposé. Il n’est pas possible de faire des expériences miroir.

Dans l’atome, les transferts d’impulsion entre l’électron et le noyau sont très inférieures au GeV/c² (hautes énergies) alors qu’elles sont de 2 Mev/c² (environ) dans le césium.

Expériences miroir avec Z0

Préparer, dans un même ensemble d’atomes deux expériences miroir en réalisant deux configurations chirales opposées, l’une droite et l’autre gauche. Dans chaque configuration, l’interaction électromagnétique et la parité de l’interaction faible sont simultanément présentes. Dans un processus physique caractérisé par un transfert d’impulsion q, elles se manifestent par des amplitudes de transition Aem et Af. L’expérience met en jeu la mesure d’une section efficace de diffusion qui est proportionnelle au carré de l’amplitude.

Le résultat de l’expérience miroir diffère de l’expérience elle même par le terme d’interférence électrofaible +/- 2 AemAf.

{Expérience à décrire avec résultats quantifiés}

Symétrie et Invariant

Le théorème de Noether dit qu’en physique, toute formule mathématique symétrique est équivalente à l’existence d’une entité physique invariante, et vice versa. La symétrie CPT désigne, par analogie, la structure de l’Univers dans lequel nous évoluons :

  • La charge des particules de matière (+) et (-), c’est la conjugaison de charge C
  • L’espace présent ou son image inversée (chiralité) dans un miroir imaginaire, c’est l’inversion des coordonnées ou transformation de la parité P
  • Le temps peut aussi s’écouler vers le futur ou vers le passé, c’est l’inversion temporelle T

Chaque terme peut prendre +1 ou -1, selon la parité, et ce que détermine le théorème, c’est que le produit des parités est conservé.

InvariantEntité physique conservée
Translation temporelle
Energie
Translation spatialeMoment linéaire
Rotation spatialeMoment angulaire
CPTProduit de parités
U(1)Charge électrique
U(2)Force électrofaible
SU(2)Isospin
SU(3)Couleur du quark
U(1)xSU(2)xSU(3)Modèle standard de la physique quantique

La symétrie – Théorie quantique

Hermann Weyl entreprit en 1918 l’étude de la symétrie physique, celle de jauge qu’il reliait la théorie des groupes de Lie à l’électromagnétisme et la gravité. Sa tentative était de considérer les deux champs comme des propriétés géométriques de l’espace-temps. Le concept était né…

La théorie est une théorie de jauge avec un groupe de jauge G lorsque le lagrangien du champ est un invariant de G. Les particules élémentaires sont au nombre de 24, il y a 2×6 quarks (fermions spin fractionnaire) et 2×6 leptons (spin entier). On parle de théorie de groupe lorsqu’il y a un groupe de symétrie entre les particules (géométrie différentielle). La théorie d’un champ en mathématiques, c’est une symétrie de jauge lorsque différentes configurations du même champ génèrent des grandeurs observables et identiques. C’est la notion, en physique, d’invariance et de grandeur mesurable. La symétrie de jauge implique les nombres complexes, les dérivées partielles, les intégrales curvilignes, certains objets algébriques de Lie, le calcul matriciel, les matrices infinies, les commutateurs…

La découverte de la particule OMEGA(-) par M. Gell-Mann dans les années 60 honore la théorie de jauge. C’est le groupe de Lie SU(3) qui, dans les années 70, permettra de supposer que chaque hadron était composé de 3 particules plus petites, les quarks.

La supersymétrie

La force faible est due à l’échange de bosons (pas de spin) et présente une magnitude d’ordre 10-11. La force forte qui maintient les protons et les neutrons est 105 fois plus puissante. La force forte est 100 fois supérieure à la force électromagnétique et 1039 fois celle de la gravitation. Dans le modèle standard, les différentes forces sont unifiées sauf la gravitation. C’est la théorie du tout qui est attendue. Je me demande surtout pourquoi la gravitation n’intègre pas trivialement, les théories de jauge. Car il y a un paradoxe dans la manifestation du plan physique, je le sens intuitivement mais je n’arrive pas à le définir….

Le groupe de jauge qui compile les échanges de manière symétrique les particules élémentaires du modèle standard est U(1)xSU(2)xSU(3). Mais où sont passés les antiparticules du système en évolution manifestée ? Pourquoi la matière-énergie noire n’inclut-elle pas cette théorie de jauge renormalisable ? Des questions qui ouvrent la réflexion vers la théorie des cordes…

Electron – Part. 2

La matière est polarisée électriquement (+) ou (-) comme pour l’électron (-) et le positron (+) sa particule antimatière. Lorsqu’un électron rencontre un positron, les deux possédent une masse, ils se transforment en rayonnement après la collision c’est à dire en photon de lumière. Le photon est électriquement neutre mais cette collision entre l’électron et le positron affirme clairement qu’il y a dans notre monde physique une équivalence entre la matière et le rayonnement. Ce résultat scientifique est contraire au bon sens. Mais c’est A. Einstein qui en trouve l’expression analytique : E = mc² ; avec E l’énergie en Joule, m la masse en kg et c la vitesse de la lumière en m/s. On voit que la masse s’exprime également dans l’unité usitée : eV/c². C’est celle utilisée pour comparer les masses des quarks dans la partie 1 de cet article.

Les physiciens utilisent également dans leurs raisonnements qualitatifs, pour établir des liens de correspondance, la notion de symétrie. On observe également, dans le vivant ou dans la matière des préférences chirales à la manifestation.

La Matière – J.-M. Levy-Leblond, $7 l’antimatière (devivevoix.com)

La renormalisation du modèle standard de la Physique des particules

Les physiciens n’aiment pas « les divergences à l’infini » dans les modèles. Contrairement aux mathématiciens, pour qui l’infini cela ne les dérange pas, au contraire, c’est un jeu à quantifier (théorie de Cantor). Oppenheimer et Waller (1930) publièrent indépendamment le calcul de l’auto-énergie de l’électron au premier ordre dans la constante de structure fine, la constante qui caractérise l’intensité de la force électromagnétique : alpha = 1/137 environ. Une motivation pour un tel calcul était de déterminer les corrections à la masse de l’électron en électrodynamique quantique. En théorie quantique des champs, les particules ne possèdent pas de volume, les particules sont infiniment petites. En théosophie, le « contour des formes » résulte de l’énergie en mouvement. Le plan physique n’est pas un principe.

Auto-énergie de l’électron

Prenons l’exemple d’un électron qui se déplace d’un point à un autre. La trajectoire peut être une ligne droite mais d’autres trajectoires sont possibles. Chacune des trajectoires est associée à une amplitude de probabilité qui diminue à mesure que l’on s’écarte de la ligne droite. Mais d’autres possibilités liées à la propagation d’un électron existent :

  • Un électron peut émettre un photon pour l’absorber ensuite.
  • Un électron peut émettre un photon, puis un autre, et les absorber tous les deux.
  • Ou encore, le photon peut se désintégrer en une paire électron-positron pour former à nouveau un photon qui serait à son tour absorbé par l’électron initial.

Dans ces phénomènes d’auto-énergie de l’électron, l’électron interagit avec lui-même. De ces possibilités émergent des divergences dans les calculs, des infinis qu’il faut éliminer (selon les physiciens) par la renormalisation du modèle standard. Les infinis sont absorbés par les constantes physiques. Ainsi, les valeurs introduites dans les équations de l’électrodynamique quantique, comme la masse et la charge de l’électron ne sont pas celles que nous avons mesurées : en raison de l’auto-énergie de l’électron, sa masse et son énergie réelles ne sont pas observables. Car si nous utilisons les valeurs réelles dans les calculs, les résultats divergent vers l’infini. Le renormalisation s’apparente à un « changement d’échelle » qui permet de faire coïncider les valeurs observées avec les valeurs calculées.

Le rayon de l’électron est infiniment petit

Les divergences dans la théorie des champs quantiques sont, dans une large mesure, une conséquence directe de la localité (les particules sont ponctuelles, avec interactions de contact) et de l’unitarité (conservation des probabilités). Pour intégrer les effets relativistes, c’est à dire pour tenir compte du fait que la masse d’une particule est proportionnelle à son énergie au repos, en incluant des termes d’énergie potentielle, e²/R tend vers l’infini (avec e la charge électrique de l’électron et R son rayon infiniment petit).

Le modèle standard contient également une particule scalaire, la particule de Higgs contenue dans le problème de « l’ajustage fin » ou « de la hiérarchie ». Des échelles de masse aussi grande que 1015 (masse d’unification) ou 1019 GeV (masse de Planck) peuvent être impliquées. Cela permet d’introduire une Supersymétrie pour relier des bosons et des fermions.

Les inquiétudes d’un prix Nobel

Pour Claude Cohen-Tannoudji (prix Nobel de physique), le formalisme quantique pose un problème :

  • Équation de Schrödinger continue, réversible et qui décrit l’évolution d’une fonction d’onde
  • Puis quand on fait une observation, on décrit le résultat de la mesure avec un autre formalisme (réduction du paquet d’onde) celui du 4e postulat de la mécanique quantique. Et si on inclut l’appareil de mesure dans la fonction d’onde du système global, elle devrait évoluer de manière réversible alors où va se faire la mesure…
  • Le système étant toujours couplé à un environnement (le champ gravitationnel), les relations de phases sont détruites (décohérence) et la fonction d’onde (superposition d’état) du système étudié devient un mélange statistique mais pourquoi quand on fait la mesure on observe tel ou tel résultat ?
Atomes et Lumière – Claude Cohen-Tannoudji, entretien avec Carlo Rovelli, §7 Ce que nous dit la théorie quantique du monde (devivevoix.com)

Méthode de renormalisation

En 1947, Lamb et Retheford ont mesuré avec précision la séparation entre les niveaux 2s1/22P1/2 de l’hydrogène tandis que le groupe de Rabi à Columbia mesurait le moment magnétique anormal de l’électron. Les calculs permirent de s’organiser de telle sorte que les infinis se compensent. Peu de temps après, Schwinger obtint le terme dominant du moment magnétique de l’électron.

L’idée était de commencer avec une théorie nue des paramètres nus (masse mo et charge eo de l’électron en l’absence d’interaction) et une « échelle de coupure » des grandes impulsions (quantité de mouvement). Puis on calcule les valeurs physiques renormalisées, des mêmes quantités (comme la charge observée e et la masse physique m) en fonction des paramètres et de l’échelle de coupure. Finalement, on inverse ses relations en exprimant les quantités nus en fonction des quantités renormalisées.

Quand on prend la limite de l’échelle de coupure infini, toutes les observables physiques ont alors une limite finie. Il semble que l’échelle de coupure puisse avoir une réalité physique et qu’elle est engendrée par des interactions supplémentaires non descriptibles par la théorie quantique des champs.

La limite de l’électrodynamique quantique est atteinte avec la masse nulle de l’électron. Mais dans une théorie des champs de masse nulle, il n’y a pas d’échelle. D’où l’introduction d’une masse arbitraire mu pour définir la charge e renormalisée. Il s’agit d’une charge effective à l’échelle mu. Ce genre de manipulation constitue des groupes de renormalisation.

Bibliographie : Renormalisation et Groupe de renormalisation. Les infinis en physique microscopique contemporaine. (J. Zinn-Justin, CeA/Saclay 27/10/1999)

Naissance du modèle standard

Il restait trois problèmes à résoudre pendant les années 60 :

  • Les interactions faibles étaient décrites par la théorie non renormalisable de Fermi
  • La théorie quantique des champs était désespérée dans la physique des interactions fortes
  • La force de gravité était extrêmement faible à courtes distances.

A la fin des années 60, la méthode (Faddeev-Popov, De Witt 1967) permettait de quantifier les théories de jauge non abéliennes. Et ces théories étaient renormalisables (1975) même dans une version de symétrie brisée qui permettaient de donner des masses aux particules de jauge correspondantes (mécanisme de Higgs). Ces développements ont permis de construire une version quantique des interactions faibles basées sur une symétrie de jauge. Première unification de l’électromagnétisme et des interactions faibles.

Les expériences de Diffusion Profondément inélastique faites au SLAC (Standford) révélèrent que les hadrons étaient composés de particules ponctuelles quasi libres finalement identifiées avec les quarks, des entités mathématiques introduites pour décrire de façon simple le spectre des hadrons et ses symétries. La théorie de l’interaction forte (chromodynamique quantique) devait inclure la liberté asymptotique (les interactions deviennent faible à très courte distance pour expliquer les résultats du SLAC). La faiblesse des interactions entre quarks à courte distance devient une conséquence par la décroissance de la charge effective. Donc autour de 1973-1974 un modèle complet de la théorie des champs quantique pour toutes les interactions fondamentales sauf la gravitation fut proposé : c’est le modèle standard.

La condition de protection asymptotique (existence de points fixes de grande impulsion du groupe de renormalisation) semblait nécessaire pour la COHÉRENCE à toute ECHELLE. La théorie des champs asymptotiquement libres partagent cette propriété, mais les champs scalaires de Higgs ont tendance à détruire la liberté asymptotique. Il restait à mettre la gravitation quantique dans ce cadre renormalisable… C’est la théorie des cordes qui suivra.

Des quarks (science) aux atomes ultimes ANU en théosophie

Ce rapprochement n’a jamais été fait comme celui que j’avais établi, au début d’Internet, entre la loi de dilution (infini) d’Oswald et l’homéopathie d’Hahnemann et qui s’est propagé sur le Net… Et c’est tant mieux. Maintenant, ce n’est pas la même chanson, l’intuition est profonde et les associations d’idées complexes. Je travaille sur cette hypothèse depuis plus de 15 ans juste après 2004 c’est à dire à la réédition française du livre la Chimie Occulte (A. Besant et L.W. Leadbeater) de 1920 ! L’école de Théosophie de Blavatski y donne accès à ses étudiants (depuis plus d’un siècle), mais j’ai intégré la deuxième phase de l’enseignement théosophique, c’est à dire l’Ecole Arcane à Genève… J’y reviendrai.

La matière est toujours abordées dans sa divisibilité. Deux approches sont possibles, la divisibilité des particules ou la « différentiation des plans de la manifestation » que j’associe aux « différentes échelles de coupure » des groupes de renormalisation du modèle standard. Le problème réside dans l’apparence des réalités manifestées.

Les divergences dans la théorie des champs quantiques sont, dans une large mesure, une conséquence directe de la localité (les particules sont ponctuelles, avec interactions de contact) et de l’unitarité (conservation des probabilités).

Les particules sont localisées, avec ou sans volume c’est la difficultés de combiner l’apparente localité de la matière avec l’interprétation probable des interactions soumises à la structure particulière du plan physique. Mais d’autres plans existent et la physique des particules pénètre cette compréhension de la réalité visible et invisible.

Les quarks forment des hadrons

Les quarks (jamais isolés mais collés par une interaction forte) sont confinés dans des particules de charge électrique entière appelées hadrons. Par exemple :

  • Protons (charge +1) = u(+2/3)u(+2/3)d(-1/3)
  • Neutron (charge 0) = u(+2/3)d(-1/3)d(-1/3)

Les atomes ultimes de l’Hydrogène sur le plan E2

  • H : (+-+)(-+-)(++-)//(++-)(–+)(–+) = (5+4-)//(4+5-) = 9 ANU+ et 9 ANU-
  • H+ : (+-+)(-+-)(+++)//(++-)(–+)(–+) = (6+3-)//(4+5-) = 10 ANU+ et 8 ANU-

On remarque (Voir schéma article 1 pour H+) qu’un atome ultime (-) du premier triangle de l’Hydrogène INVERSE sa polarité électrique pour devenir un atome ultime (+). Cela a pour conséquence de modifier la charge électrique totale de l’ion H+ avec 10 atome ultime de charge électrique (+) et plus que 8 atomes ultimes de charge électrique (-).

Les différentes échelles de manifestation

  • 1030 m : Echelle de gravitation
  • le mètre : Echelle ordinaire
  • 10-9 m : Echelle de cristallisation
  • 10-10 m : Echelle électromagnétique
  • 10-15 m : Echelle interactions faibles
  • 10-19 m : Echelle interactions fortes (correspondance avec le Plan E2)

Assemblage d’atomes ultimes observé au niveau du Plan E2

Il faut essayer de comprendre les assemblages d’atomes ultimes dans la DYNAMIQUE d’un flux d’énergie circulant. A ce niveau là, l’expression théosophique disant que la matière « c’est de l’énergie à son point de vibration le plus bas » (HPB) renforce l’idée d’une vérité certaine. La matière c’est de l’énergie en mouvement. L’hypothèse du modèle standard est insuffisante, les « quarks collés » n’expliquent rien de la réalité, c’est une analogie liée au limites du système explicitées par la théorie des champs quantiques.

Assemblages d’atomes ultimes observé au niveau du Plan E3

Au troisième sous plan, la circulation du flux se diversifie et se complexifie naturellement dans l’expression d’une manifestation coordonnée.

Assemblage plus complexe observé au niveau du Plan E4

Au quatrième sous-plan (E4), les analogies existent pour faire correspondre le monde cristallisé de la matière et l’assemblage cohérent des atomes ultimes. La géométrie doit nous aider à comprendre les liens entre l’apparence (les propriétés de la matière) et la puissance des formes résultantes de l’assemblage des grosses structures d’atomes ultimes (succession régulière des corps platoniciens). Nous savons, en physique, que les atomes perdent de leur stabilité, mais c’est aussi la beauté de la radioactivité qui donne à la masse une « autre manifestation de la réalité ». Cela montre un changement de Plan et d’échelle de manifestation.

Les étudiants en philosophie s’efforceront de relier ces deux écoles de pensée, et de démontrer l’adaptation intelligente du phénomène électrique que nous appelons matière – et celle de ce milieu actif et chargé d’énergie que nous appelons substance – au dessein qui est le but de la vie d’une Entité cosmique.

Traité sur le Feu Cosmique, DK

Atome ultime influencé par le courant électrique

L’atome ultime ou ANU (isolé comme observé dans le Plan E1)

La chiralité de l’atome ultime

L’atome ultime serait le dernier terme, comme son nom l’indique, de l’état de division de la matière physique. Il se trouverait sous deux formes identiques, ne différent l’une de l’autre que comme l’objet diffère de son image dans un miroir, et par le fait que l’une des formes est POSITIVE et l’autre NEGATIVE.

La Chimie Occulte, A. Besant et C.W. Leadbeater, 2004 Editions ADYAR

Les états de la matière en théosophie :

  • 2e état hyer-élémentaire : de 2 à 7 ANU
  • état méta-élémentaire : corpuscules hyper-élémentaires entre eux + ANU
  • état proto-élémentaire : corpuscules méta + hyper + ANU
  • Les états pro-élémentaires donnent naissance aux ATOMES PHYSIQUES
  • L’atome le plus petit des physiciens contient déjà 18 ANU. A priori, il n’existe pas d’assemblages physiques inférieur à 5 ANU, mais il peut exister des particules physiques qui contiennent entre 5 et 18 ANU.

Classification des éléments en fonction de leurs formes cristallines

  • La série I correspond au groupe des haltères + et à al moitié du groupe des pointes.
  • La série II correspond au groupe des tétraèdres +
  • La série III correspond au groupe des cubes +
  • La série IV correspond au groupe des octaèdres + et –
  • La série V correspond au groupe des cubes –
  • La série VI correspond au groupe des tétraèdres –
  • La série VII correspond au groupe des haltères – et à la moitié du groupe des points.
  • La série inter-périodique correspond au groupe des tiges.
 Série ISérie IISérie IIISérie IVSérie VSérie VISérie VII 
x
H 1
1Li 7Be 9,3B 11C 12N 14O 16F 19
2Na 23Mg 24Al 27,3Si 28P 31S 32Cl 35,5Fe 56
3K 39Ca 40Sc 44Ti 48V 51Cr 52,4Mn 54,8Ni 58
4Cu 63,3Zn 65Ga 68,2Ge 75As 75Se 78Br 79,5
5Rb 85,2Sr 87,2Y 89,5Zr 90Nb 94Mo 96(100)Ru 103
6Ag 107,6Cd 111,6In 113,4Sn 118Sb 122Te 125I 126,5Pb 106
7Cs 132,5Ba 136,8La 139Ce 140Di 144
8Os 186
9Er 170Ta 182W 184Pt 196,7
10Au 197Hg 200Ti 201Pb 206Bi 210

Electron – Part. 1

L’électron est une petite particule électrifiée qui donne forme à la matière et plus particulièrement à l’atome. Les électrons tournent autour du noyau de l’atome, de 1 à 100 c’est le nombre possible d’électrons qui s’organisent sur des couches énergétiques, des orbites de « gravitation électrique » autour du noyau de l’atome. La « gravitation électrique » n’existe pas, mais l’association possible des mots sur les idées fondées par la science, rend la réalité intelligible même si le monde reste inconnu à la perspicacité humaine et à la puissance de calcul de la science. Il semble logique de penser que l’humain découvre les secrets de la matière lorsqu’il est prêt pour les exploiter en toute conscience.

Connaissances scientifiques

L’électron est 1836 fois plus léger que le proton. L’atome d’hydrogène, le plus simple et le plus abondant de tous les atomes de l’Univers, l’hydrogène est composé d’un noyau (1 proton) et d’un électron qui, très loin du noyau, se déplace autour pour générer « la surface d’apparence des choses ». Le volume occupé par l’électron, dans ses déplacements incessants, est 100.000 fois plus grand que le volume occupé par le noyau de l’atome qui pourtant, contient pratiquement la totalité de la masse de l’ensemble proton-électron.

L’atome est électriquement neutre

  • Le noyau de l’atome possède une charge électrique POSITIVE, il est infiniment petit par rapport à la taille de l’atome et il est situé au centre. Le noyau contient toute la masse (+99%) de l’atome.
  • Le nuage électronique est constitué d’électrons (de 1 à 100) qui possèdent des charges électriques négatives. Leur masse est négligeable par rappoort à celle du noyau.
  • la relation entre le noyau et les électrons est l’ATOME en manifestation qui représente donc la possibilité d’interagir avec d’autres atomes selon leur nature.

La matière est électriquement neutre

  • Deux atomes peuvent se coupler par des liaisons ioniques (électriques). Ce qui manque à l’un, l’autre lui donne. La nature nous montre qu’elle combine les éléments en neutralisant la faiblesse d’un atome (il lui manque un électron) par la force d’interaction d’un autre qui possède un électron en trop. La molécule formée est électriquement neutre et elle est composée pour le sel de cuisine (chlorure de sodium NaCl) :
  • D’un atome (ion) POSITIF Na(+), le sodium
  • D’un atome (ion) NEGATIF Cl(-), le chlore

Qu’est-ce que la matière ?

La Matière – J.-M. Levy Leblond $5 Une reconstruction difficile (devivevoix.com)

Électrophilie de la matière

Les paires d’opposées (+ et -) sont à la base de l’interaction et de la manifestation de la matière. Comme toute chose, le haut et le bas, la droite et la gauche, l’homme et la femme, …, la dualité est au cœur de l’unité du monde. On peut trouver cela paradoxal car de la différence émerge l’unité, mais ce n’est pas innée, la nature comme l’humanité doivent apprendre à combiner les paires d’opposées.

Dans la molécule de sel de cuisine (NaCl), l’atome de chlore est électrophile, il aime les électrons car de 7 à 8, il stabilise son énergie pour compléter sa dernière couche électronique (règle du duet et de l’octet). Alors que le sodium, à l’inverse, possède un électron seul et isolé sur sa couche électronique de valence. Les électrons de ses couches inférieures font écran à l’attraction électrique du noyau, l’électron isolé va donc se faire capter par l’atome de chlore. De cette attraction entre l’atome (+) et l’atome (-) résulte une LIAISON entre les deux entités pour former une molécule c’est à dire un « grain, un sel » que l’on dépose sur les frittes comme exhausteur de goût.

La nature nous apprend beaucoup de chose, la matière nous indique que la puissance de la manifestation résulte de la FORCE ATTRACTIVE du pôle POSITIF sur le pôle NEGATIF l’Atome et du pôle NEGATIF sur le pôle POSITIF pour la molécule (assemblage d’atomes).

Du défaut de charge électrique résulte la FORMATION de la molécule et le défaut de masse engendre la DÉSINTÉGRATION de l’atome.

Radioactivité

La chimie (minérale et organique) s’occupe des mécanismes électroniques (charge électrique) de la matière, celle qui nous concerne tous les jours, c’est la chimie du vivant et de l’apparence des formes de la matière en manifestation (pôle NEGATIF).

La chimie nucléaire ou la radioactivité est au cœur de la matière, c’est la chimie du noyau de l’atome et les énergies mises en jeu sont bien plus importantes que les énergies électromagnétiques de la chimie traditionnelle. La chimie nucléaire s’occupe du pôle POSITIF de la matière. Il existe la fission nucléaire pour passer de gros atomes vers des plus petits (désintégration nucléaire) et la fusion nucléaire pour passer de petit atomes vers des plus gros comme le fait le soleil pour nous éclairer. Nous utilisons la fission nucléaire mais ne savons pas encore gérer la fusion nucléaire.

Dans un phénomène radioactif, on observe une « perte de masse » de l’atome qui se transforme en énergie, en lumière ou en particule. Avec toutes les théories de la matière, la science a cumulée toutes sortes de PARTICULES et d’INTERACTIONS : c’est le modèle standard des particules élémentaires.

Modèle Standard

Élaboré au début des années 1970, le modèle standard de la physique permet d’expliquer la structure fondamentale de la matière. Dans ce modèle, la matière est constituée de 12 particules et de 4 forces fondamentales dont 3 sont reliées entre elles. Les 12 particules sont regroupées entre elles comme 6 groupes de 2 paires (ou générations). Les particules les plus légères sont les plus stables, elles appartiennent à la première génération {(u,d) (e,nu)}. Tandis que les particules plus lourdes et moins stables énergétiquement, appartiennent à la deuxième et la troisième générations. L’Univers est constitué avec des particules de la première génération (G1) car les autres se désintègrent rapidement.

La masse des quarks (fermions)

Tous les quarks sont de spin 1/2 c’est à dire des fermions.

  • G1 : La masse du quark u est de 2,01 +/- 0,14 MeV/c² soit 0,214% de la masse du proton. La charge électrique est de 2/3.
  • G1 : La masse du quark d est de 4,79 +/- 0,16 MeV/c² soit 0,510% de la masse du proton. La charge électrique est de -1/3.
  • G2 : La masse du quark c est de 1,15 à 1,35 GeV/c². La charge électrique est de 2/3.
  • G2 : La masse du quark s est de 80 à 130 MeV/c². La charge électrique est de -1/3.
  • G3 : La masse du quark t est de 173,34 +/- 0,76 GeV/c². La charge électrique est de 2/3.
  • G3 : La masse du quark b est de 4,1 à 4,4 GeV/c². La charge électrique est de -1/3.

Les protons sont constitués de deux quarks u et d’un quark d noté p(u,u,d). Et les neutrons sont constitués de deux quarks d et d’un quark u noté n(d,d,u). Les protons et les neutrons s’assemblent pour former le noyau de l’atome. Le proton est une particule de charge électrique POSITIVE et le neutron est de charge électrique NEUTRE. Les quark sont « trois dans un » c’est à dire que leur charge électrique est multiple de 3.

Je comprends bien maintenant qu’il faut distinguer, dans la réflexion à l’échelle atomique, l’approche massique de l’approche électrique. La matière possède une masse (pour interagir avec la force) mais la matière possède aussi une charge électrique pour en constater son apparence, sa forme, sa couleur… ses qualités manifestées.

Exemples avec les isotopes de l’hydrogène

  • L’atome d’hydrogène : p(u,u,d)
  • l’atome de deutérium : {p(u,u,d) ; n(d,d,u)}
  • l’atome de tritium : {p(u,u,d) ; n(d,d,u) ; n(d,d,u)}

Analogies avec la chimie théosophique

Avec la science, on essaye de savoir et de prévoir le comportement d’un système. La théosophie est un courant philosophique. La philosophie conjecture en élaborant des hypothèses explicatives du monde, comme pour la science, mais les éléments considérés sont abstraits et ils émergent de la conscience humaine en l’occurrence. La science se base sur des objets matériels, la philosophie manipule des concepts…

Dans la chimie occulte d’Annie Besant et de C.W. Leadbeater, les hypothèses de travail sont nombreuses et leurs études datent déjà de plus d’un siècle. Et pourtant, les hypothèses pour l’époque étaient très pertinentes et les observations effectuées surtout sont d’une richesse inestimable.

Description visuelle Hydrogène – Hélium

Pour l’hydrogène, on observe une enveloppe extérieure, celle de l’atome mais contrairement à la description scientifique (1 proton + 1 électron), on constate qu’il y a 6 « petites boules reliées 3 à 3 » et chaque petite boule contient « 3 petits points ». Le tout donne 18 petits points nommés « atomes ultimes ».

N° atomiqueÉlémentNombre atomes ultimesPoids atomique numérique théosophiquePoids atomique ScientifiqueForme ext.
1Hydrogène1811Ovoïde
2Deutérium3622Ovoïde
3Tritium5433Ovoïde
4Hélium7244Etoile

Le poids numérique théosophique est une donnée empirique. Il s’agit du nombre d’atomes ultimes dans un atome physique et ce nombre est divisé par 18 pour correspondre avec le poids atomique. Par 18 parce que la science de l’époque et encore celle de maintenant considère que l’atome d’hydrogène n’est constitué que d’un seul proton. Depuis l’étude de Besant et Leadbetear, nous savons que le proton est constitué de 3 quarks. Mon hypothèse concerne la structure de la matière dans l’association probable de 2 réalités disjointes, celle du plan physique et celle du plan éthérique (le 4e sous plan). D’où les associations d’idées entre la physique théorique et l’approche théosophique.

De l’impératrice (3) à la lune (18)

Trois quarks dans un proton, dix huit atomes ultimes dans l’atome d’hydrogène, je rapproche les deux modèles pour lier une interprétation possible de la réalité. L’existence de l’électron n’est pas une évidence {théorie des plasmas} car l’interaction avec la matière engendre une réaction avec l’énergie en mouvement (manifestation du proton). L’électron n’est pas une particule à proprement dit, mais la manifestation d’une interaction qui concrétise l’apparence de la matière ordinaire. Mais la matière n’est pas que ordinaire justement. L’atome est une manifestation de l’énergie en mouvement, l’électron est la manifestation de l’interaction entre l’énergie et une force gravitationnelle, électromagnétique, …, du plan physique. Il y a la particule qui porte l’information d’une interaction et la manifestation de la réalité au niveau de communication qu’entretient l’humain (théories+mesures) avec la nature. Et nous à faire avec deux choses très différentes même si l’épistémologie n’a pas encore pris en compte cela mais la mécanique quantique l’a formulé dans son 4e postulat.

De la masse à la charge électrique, la compréhension induite de l’un sur l’autre me permettra d’approfondir l’approche qualitative de la réalité.

Finalement, l’électron est au centre de l’articulation entre la réalité (les attributs) et son apparence (les qualités). Et les rapprochements que je fais résultent de la multiplicité des choses et donc du lien entre le 3 (les quarks) et le 18 (les atomes ultimes). L’un est multiple de l’autre. Le poids atomique permet de faire le lien.

Il n’y a que des doutes et la conjecture des phénomènes en évolution dans le temps qui nous ouvre au champ des possibles. La certitude, non merci, l’hypothèse certainement.

Illusion des apparences

Entre la ionisation de l’atome d’hydrogène, l’explication scientifique et l’observation théosophique, il y a un beug. De H à H+ la science fait disparaître l’électron alors que la chimie occulte de Besant et de Leadbetear associe toujours 18 atomes ultimes, pas de particules en moins mais une variabilité dans l’organisation des charges électriques, c’est à dire de l’électrification des atomes ultimes.

Pour l’atome d’hydrogène, il y a 18 atomes ultimes, 9+ et 9-

L’ion H+ (une conception de Brönsted) est une théorie alors qu’en manifestation (en général aqueuse), il est solvaté (H3O+), mais qu’importe, l’ion H+ possède en chimie occulte, 10 atomes ultimes de charge (+) et 8 atomes ultimes de charges (-). Il n’y a pas de perte d’électron pour expliquer la charge électrique de l’ion H+, il n’y a pas de particule en moins.

Cet article est écrit pour essayer de comprendre la divergence entre le modèle scientifique et le modèle théosophique.

Il y a une unité, le sphéroïde gauche du triangle (+) qui contient 3 atomes ultimes de charges positives. C’est la différence avec l’atome d’hydrogène qui ne contient que 2 (+) et 1 (-). La notion de charge est validée en chimie occulte, mais la correspondance avec la masse n’est pas validée car il y a le même nombre d’atomes ultimes (18) dans les deux formes H et H+ de l’hydrogène.

On peut légitimement me demander pourquoi je tiens compte d’une théorie issue de la Société Théosophique de H.P Blavatski…

« Ces connaissances vont révolutionner la vie de l’homme ; elles placeront entre ses mains ce que les occultistes appellent « la puissance du quatrième ordre » (sur le plan physique) ». Cela lui permettra d’utiliser l’énergie électrique pour régler sa vie quotidienne, d’une manière encore incompréhensible ; il en résultera de nouvelles méthodes d’éclairage et de chauffage du monde à un prix infime et pratiquement sans investissement initial.

D.K – Traité sur le Feu Cosmique, 1940

Les dès sont jetés, les hypothèses sont lancées et elles sont claires : « l’électron n’existe pas en tant que tel », car (hypothèse que je déduis), c’est l’émergence mesurée d’une manifestation relative aux interactions entre les différents sous-plans (échelles de coupure) du plan physique.

Sciences Noologiques

Pour rendre hommage à André-Marie Ampère, je remets au goût du jour l’adjectif noologique qu’il a créé en 1834 pour s’opposer au sciences dites cosmologiques (sciences étudiant la matière) dans sa classification de la philosophie/histoire des sciences.

Noo- élément initial de mots philosophiques issus du grec Noos pour Noûs signifiant Esprit, capacités de penser, sciences étudiant l’esprit.

L’adjectif noologique est donc associé à une dichotomie sémantique voire une structure limitative d’un raisonnement manichéen :

NOOLOGIQUE / COSMOLOGIQUE

NOUMÈNE / PHÉNOMÈNE

NOOSPHÈRE / BIOSPHÈRE

Noumène : mot créé par Emmanuel Kant (1724-1804 de l’allemand Noumenon) d’après le grec noomena (ce qui est pensé) employé par Platon (Timée) en parlant des idées.

Noosphère : Theilhard de Chardin compose ce nom féminin pour l’associer au monde des idées et donc le superposer à la biosphère.

Une approche noologique s’inscrit dans la sphère des idées c’est à dire un discours philosophique qui s’éloigne d’une approche phénoménologique (positiviste) plutôt orientée vers le « système neuronal humain » par exemple. C’est pourquoi, les sciences cognitives actuelles doivent inclure l’approche noologique dans leurs recherches pour modéliser au plus près la « conscience humaine ». Par exemple, j’observe le comportement du genre humain dans sa globalité au niveau de la biosphère et je constate que les différentes COP 21, 25… ne permettent pas, politiquement, de trouver une issue favorable aux catastrophes climatiques qui vont nous arriver. Les sciences cognitives doivent conclure que l’être humain n’est pas intelligent au point d’être raisonnable puisqu’il détruit (consciemment) son environnement biologique global qu’est la Terre.

Quelles sont les variables qui agissent principalement dans les mécanismes décisifs de la noosphère humaine pour en arriver à détruire la biosphère ?

Voilà un sujet pour les futurs thésards en sciences cognitives… Le langage est important et les mots noosphère/biosphère permettent d’englober une large réalité qu’il est difficile de modéliser par des variables clairement identifiées et des relations qui permettent d’en décrire une évolution dans le temps. C’est toute la difficulté mais l’intérêt également d’utiliser la physique statistique pour cela et plus particulièrement celle de Boltzmann. Dans ce schéma politique des différentes COP 21, 25… les grands dirigeants de la planète ne prennent pas les bonnes décisions et les lycéens de la planète « sèchent les cours le vendredi » pour manifester leurs oppositions à la mollesse politique puisque la planète sèche à cause du réchauffement climatique. Et ils ont bien raison ces jeunes…

Dans ce cas là il faut considérer la variable « autodestruction {AD} » qui s’oppose à celle « d’instinct de survie {IS} » bien connue chez tous les êtres vivants (végétaux, animaux, humains…). Il existe deux relations évidentes entre les deux : Si AD est max alors IS est min. Et AD + IS = V, avec V la variable « vie {V} ». L’unité associée à ces variables est le « kilopsy » comme une sorte d’énergie que subit la conscience humaine dans le cadre des sciences noologiques.

Chacune des trois variables de la noosphère subissent l’influence des différents plans de la conscience humaine que sont les plans physique, émotionnel et mental. Ces trois plans de la réalité expérimentée par l’homme et la femme constituent donc les paramètres (p), (e) et (m). Le paramètre (p) par exemple est très influent dans les comportements de la variable {IS} puisque physiquement, on se retourne par instinct dans la rue lorsqu’un chien aboie derrière nous. Pour commencer à s’autodétruire, il faut laisser le mental s’immiscer de plus en plus dans les décisions humaines c’est pourquoi le paramètre (m) est puissant dans les actions de la variable {AD}. On peut écrire que p>m pour IS et p<m pour AD qui appartient à l’intervalle ]-infini ; 0[ et IS à l’intervalle ]0 ; +infini[.

Finalement si AD > IS alors V < 0 sachant que V appartient à l’intervalle ]-infini ; +infini[. Si V < 0 alors la « vie est négative » et la noosphère du genre humain s’oppose à la biosphère de notre planète Terre. Et inversement bien sûr, si V > 0 alors la noosphère participe à l’évolution positive de la biosphère.

J’ai simplement joué avec les variables pour essayer d’apporter une ébauche de réponse à la question initiale pour simplifier le sujet. Mais pour les relations en fonction du temps, c’est là que les choses se compliquent…

[…Boltzmann]

Information et Cognition

Le dialogue se fige dans les oppositions manichéennes de l’analyse rationnelle.
Le « débat citoyen » peut prendre de l’envergure s’il efface de son langage les insultes puériles et inutiles.

Il semble évident que nous allons droit dans le mur… nous allons rebondir sur le fronton de l’irresponsable attitude des hommes et des femmes libres dans un pays « civilisé  » qui renvoie la balle du sectarisme ambiant. Mais une personne libre de s’exprimer pousse souvent le cri du cœur dans le désert. Certains journalistes professionnels condamnent donc les « rédacteurs citoyens ». Même si les fines lames des plumes urbaines grattent le papier des informations qui submergent nos consciences autonomes, n’est-ce pas une chance (pour tous), à l’aube du 21ième siècle, de pouvoir échanger librement son point de vue sur l’état actuel de la société ? Internet le permet, pourquoi devrait-on s’en priver ? Une société démocratique n’y gagne-t-elle pas à jouer sur le terrain d’une communication rapide et exprimée par chacun et pour tous ? A l’aube d’une civilisation mondiale émergente, n’est-il pas raisonnable de contrebalancer l’information spécialisée et l’interprétation localisée d’une des activités humaines comme en économie, par une généralisation des approches holistiques du genre humain dans la biosphère ? Pourquoi le spécialiste, l’expert, dans un des domaines de l’expression humaine, vient nous expliquer le monde qu’il découpe en tranche pour mieux l’analyser. La partie d’un tout contient-elle assez d’informations pour réguler l’ensemble ? La Méthode d’Edgar Morin ne montre-t-elle pas suffisamment l’inter-dépendance psycho-socio-culturelle en l’homme, la femme et son environnement naturel et/ou cognitif ?

En voyage dans certains pays, comme « reporter citoyen », j’ai constaté que la masse se désolidarise du pouvoir en place. En général, les informations ne nous informent pas, elles endorment nos consciences éveillées sur les doux nuages de l’analyse objective d’un monde sclérosé par la pensée unique (propre à chaque pays) et dominé par l’orgueil, le pouvoir et l’égoïsme.

La théorie de l’information de Shannon, utile en physique statistique, pour valider la théorie empirique de Boltzmann, est mal interprétée (à mon avis) dans les écoles de journalisme… Ce n’est pas parce qu’une information a peu de chance de se produire, qu’elle est importante ! On s’en fout qu’un train déraille non loin de la borne kilométrique « x »… Par contre, il faut informer le public qu’une pensée libre est essentielle pour l’individu et que la conscience nourrie à la bouillie de l’inter-disciplinarité est la seule alimentation valable pour vivre une citoyenneté au IIIième millénaire.

Que l’apprentissage de la conscience de soi remplace la culture de la conscience de masse…

Je pense que nous sommes à l’aube de changements plus importants que l’imagination ne nous le permet. Le modèle économique doit sombrer dans ses échecs excessifs de croissance et admettre qu’un système financier sans le règne humain est inutile ! Pourquoi tous les spécialistes économiques nous expliquent-ils que le rôle de la finance n’est pas de faire du social ? Parce que les équations mathématiques du système ne peuvent inclure avec suffisamment de pertinence la « variable homme ». Parce que les rois de la terre, les grands, les puissants votent les mêmes décrets qui scellent l’expression du Pouvoir, de l’Orgueil et de l’Egoïsme.