Contacter l'auteur / Contact the author

Recherche dans ce site / Search in this site

 

L'Univers inflationnaire

Comment les particules ont acquis leur masse (II)

Comment expliquer que certaines particules sont massives et que d'autres comme le photon n'ont pas de masse de repos ? La question étant d'importance mais complexe, elle requiert un moment d'attention.

Les bosons vecteurs des interactions permettent de décrire la création de particules lors de collisions à hautes énergies notamment. Ces bosons n'ont à l'origine pas de masse de repos et leur portée est infinie. Si cela s'applique très bien au photon, médiateur de l'interaction électromagnétique, ce modèle ne s'applique pas aux 14 autres bosons connus dont la masse de repos dépasse 80 GeV (W, Z, H, l'hypothétique graviton, ... cf. ce tableau) auxquels il faut ajouter 12 hypothétiques bosons X et Y, les fameux leptoquarks qui présentent une masse de repos supérieure à 1015 GeV et dont la charge électrique est fractionnaire.

Dans une réaction entre particules, les lois régissant les interactions montrent que l'énergie totale de la réaction est conservée. Le boson Z0 par exemple, peut se transformer en quarks et en leptons, les deux familles de particules élémentaires qui interagissent via l'interaction faible et composant la matière, chacune apparaissant par paire avec son antiparticule (quarks u, électron et positron, etc.). La création des bosons W, Z et H massifs est donc une condition initiale sine qua non de la "matérialisation" de notre univers.

Les symétries de jauge

Les lois de symétrie qui sont discutées dans cet article sont des symétries non géométriques, abstraites, car on ne peut pas les visualiser contrairement à la géométrie de l'espace-temps par exemple. On dit que ces symétries ne sont pas géométrisables. Les physiciens parlent alors de symétrie de “jauge”, terme proposé en 1918 par le mathématicien allemand Hermann Weyl, car elles permettent de mesurer la symétrie des niveaux d'énergie en fonction d'un paramètre; l'énergie ou la masse de repos s'exprime en MeV/c² et le paramètre mesuré peut-être le nombre de spin par exemple.

Ces symétries sont fondamentales car dans le cadre de la physique quantique ces théories jouent un rôle central dans l’unification des forces de la nature.

Les exemples de symétrie non géométriques, dites de jauge, sont très nombreux, pour ne citer que les différentes formes d’énergie. Dans un circuit électrique par exemple, l’énergie dépend de la différence de potentiel (voltage) entre les bornes du circuit. Si la tension augmente d’une même quantité aux deux bornes, l’énergie potentielle du système n’est pas altérée; dans un système clos l’énergie potentielle dépend de la hauteur de l’objet au-dessus du niveau zéro de référence. Si la différence de hauteur est mesurée au niveau de la mer ou au-dessus d’une montagne, l’énergie potentielle du système n’est pas altérée non plus. Gardez bien ces principes à l'esprit car ils vous aideront à comprendre certains mécanismes discutés dans le texte.

Le champ quantique

En théorie quantique des champs (TQC), un champ quantique est une entité fondamentale qui permet de décrire les particules élémentaires et leurs interactions. C'est un champ invisible qui "remplit" tout l'espace, et chaque point de ce champ peut être excité pour créer une particule. Dans la TQC, les champs ne sont pas simplement des entités classiques comme l’électricité ou la gravité, mais sont quantifiés; ce sont les quanta, de petites quantités discrètes d'énergie correspondent à des particules. Cela permet de combiner les idées de la mécanique quantique (qui décrit le comportement des particules) et de la relativité restreinte (qui décrit l’espace-temps), offrant ainsi une description des particules et des forces qui les relient. Par exemple, le champ électromagnétique est associé à des quanta, des particules appelées photons, qui sont responsables de l'interaction électromagnétique. 

Le champ de jauge

En TQC, un champ de jauge désigne un champ quantique associé à une interaction fondamentale médiée par le boson vecteur de cette interaction. Concrètement, on parle de "champ de jauge" en relation avec les photons, les gluons, les bosons W et Z mais pas à propos des quarks ni du boson de Higgs. Pourquoi ? Parce que les photons comme les bosons intermédaires (gluons, W et Z) sont des médiateurs des interactions fondamentales et sont décrits par leur champ de jauge respectif. Les quarks et le boson de Higgs ne sont pas des champs de jauge, car ce sont des particules de matière et non des médiateurs d'interaction.

Ainsi que l'ont démontré Yang et Mills, les équations prédisent que les bosons W et Z de l'interaction faible sont très lourds. Comme l'on dit en physique quantique, ils n'obéissaient pas aux lois de symétrie. Comment dame Nature leur a-t-elle donné leur masse ? Les physiciens comprenaient bien que ni les gluons ni aucune autre particule sans masse ne peuvent pas d'eux-mêmes provoquer une brisure de symétrie et acquérir leur masse.

Il fallait donc amender la théorie des particules élémentaires et tenir compte d'un second mécanisme que les cosmologistes ont vite récupéré. L'idée était qu'un boson de jauge devait interagir avec le champ scalaire d'un boson de spin 0 afin de briser spontanément la symétrie électrofaible et donner notamment leur masse aux particules. Mais cette explication devait surmonter plusieurs difficultés.

Point essentiel, cette théorie devait s'intégrer dans le modèle Standard des particules élémentaires et ses prédictions vérifiables sinon cette théorie perdait toute crédibilité et rejoindrait toutes les autres idées utopiques.

Autre problème important, le fait que la symétrie se brisa spontanément devrait logiquement impliquer que l'énergie du vide quantique n'était pas nulle. Si c'était le cas, aucun processus quantique ne pourrait en "émerger". En d'autres termes, le vide quantique devrait potentiellement avoir une énergie colossale.

Un autre problème était qu'en partant d'une invariance de jauge globale, les modèles mathématiques prédisaient que la théorie électrofaible devait prévoir au moins un boson de Goldstone sans masse, une excitation du champ quantique scalaire. Or après la brisure de symétrie, l'interaction faible a qu'une portée finie, le boson Z0 présentant une masse de repos voisine de 91 GeV/c2, presque 100 fois supérieure à celle du proton.

Par définition, un seul état d'énergie minimale ne permet pas de briser une symétrie. Cependant, cette situation a évolué grâce à l'introduction d'une particule capable de provoquer un spectre d'états d'énergie minimale lié à la brisure de symétrie. Le principal problème de cette théorie était la portée infinie du boson de Goldstone. Il était essentiel de contraindre sa portée à l'échelle de Fermi, sinon la théorie aurait dû être abandonnée.

Les physiciens se sont alors tournés vers une symétrie de jauge locale, recherchant une loi agissant en chaque point de l'espace-temps. Comme par magie, le boson de Goldstone sans masse est absorbé par le boson Z0 de jauge, ce qui permet à ce dernier d'acquérir une masse et de devenir le boson Z0 massif issu de la brisure de symétrie électrofaible. Ce mécanisme est similaire pour les bosons W+ et W- qui acquièrent aussi leur masse grâce à l'absorption des bosons de Goldstone associés.

Enthousiasmés par leur idée, les physiciens avaient trouvé un début de solution. Cependant, cette théorie, bien que séduisante, n'était pas parfaite. Il restait des difficultés à résoudre.

La théorie de l'électrodynamique quantique (EDQ) n'était renormalisable (c'est-à-dire qu'une technique permet de supprimer les valeurs infinies des équations sur la base de mesures expérimentales) que si la masse du photon était nulle. Or, les bosons massifs W et Z médiateurs de l'interaction faible, rendaient impossible toute renormalisation par des méthodes standard. (ce phénomène est dû à la violation de certaines symétries de jauge qui sont nécessaires pour garantir la renormalisation dans les théories de jauge massives). Le modèle proposé par Glashow, Salam et Weinberg devait donc intégrer cette contrainte, en particulier par un mécanisme secondaire qui briserait la symétrie entre l'électromagnétisme et l'interaction faible.

Enfin, les théories de symétrie faisaient des calculs avec des champs scalaires, qui décrivent des valeurs pures, c'est-à-dire des particules sans masse (comme dans le modèle de Bludman), ce qui n'était pas en accord avec la réalité.

Le mécanisme secondaire évoqué était une symétrie interne de la dynamique quantique électrofaible (ou de saveur), introduisant une nouvelle interaction capable de créer des particules de masse non nulle, comme les bosons massifs, sans introduire de termes infinis, c'est-à-dire tout en étant renormalisable. Cela donna naissance au mécanisme de Higgs.

Le mécanisme de Higgs

A partir de 1964, le physicien écossais Peter Higgs de l'Université d'Edimbourg et ses collègues Robert Brout, François Englert et l'équipe d'Edgard Gunzig mirent au point cette théorie qui sera appelée le "mécanisme de Higgs".

En 1971, Gerhard 't Hooft de l’Université d’Utrecht démontra que la théorie de Yang-Mills pouvait briser sa symétrie tout en étant renormalisable. Cette hypothèse suppose l'existence d'un champ de Higgs médié par un boson de Higgs sensible à la densité d'énergie. Explications.

Questionnés par les médias, de nombreux physiciens ont essayé d'expliquer au public ce qu'est le boson de Higgs et un champ de Higgs. Mis à part les explications de John Ellis du CERN, le public n'a rien compris car la plupart des physiciens ont dévié du sujet sans vraiment l'aborder !

John Ellis compare le champ de Higgs à un champ de neige dans lequel on s'enfonce plus ou moins (cf. YouTube). Cette interaction est à l'origine de la masse des particules élémentaires. C'est effectivement l'analogie la plus facile à comprendre. Il en existe une deuxième que voici.

En 1993, William Waldegrave, ministre britannique de la Science, lança un concours mettant au défi toute personne capable de donner l'explication la plus simple du boson de Higgs (cf. New Scientist). Le lauréat remportait une bouteille de champagne millésimée. Le gagnant fut le professeur David J. Miller du Département de Physique et d'Astronomie de l'University College London qui reçut personnellement une bouteille de Veuve Cliquot 1985 de Mr Waldegrave.

Miller proposa l'analogie suivante. Une salle est remplie d'un grand nombre d'invités à l'occasion d'un cocktail. Un personnage important arrive (dans l'histoire originale, il s'agit de Mrs Margaret Thatcher) et essaie de se frayer un chemin dans la foule. Aussitôt qu'ils reconnaissent la célébrité, les invités s'agglutinent autour d'elle, ce qui ralentit sa progression. Si au contraire une personne inconnue se présente, elle peut traverser la pièce sans peine.

En fait, l'analogie est assez fidèle même si elle reste approximative. La foule représente le champ de Higgs qui remplit tout l'espace tandis que la notoriété de la personne est l'équivalent de la masse de la particule. Une particule comme le boson W ou Z, interagit fortement avec le champ de Higgs et voit son inertie augmenter, ce qui correspond à une masse d'autant plus élevée que l'interaction est forte. A l'inverse, les particules qui n'interagissent pas avec le champ de Higgs, comme le photon et les gluons, se déplacent à la vitesse maximum, c'est-à-dire la vitesse de la lumière.

A lire : Le champ

Le mécanisme de Higgs

Boson vecteur

sans masse

+   Boson scalaire

       sans masse

=   Boson vecteur

           massif

C'est l'interaction du champ scalaire du boson de Higgs sans masse avec les particules élémentaires qui leur permet d'acquérir leur masse. Cette théorie est utilisée dans les modèles cosmologiques inflationnaires d'Alan Guth et ses collègues. La découverte du boson de Higgs au CERN en 2013 valide ce modèle.

Cette théorie à des conséquences importantes. D'abord, le mécanisme de Higgs étant quantifié, cela implique que le champ de Higgs remplit tout l'Univers avec la même valeur moyenne non nulle. La masse des particules élémentaires dépend de la manière dont elles interagissent avec le champ de Higgs. Les particules élémentaires n'ont pas de masse propre, mais interagissent avec ce champ, ce qui leur confère une masse effective. Ces interactions peuvent être vues comme un échange de bosons de Higgs virtuels dans le cadre de la quantification du champ de Higgs.

Seul problème, jusqu'en 2012, si on savait simuler sur ordinateur des collisions nucléaires avec un boson de Higg (cf. cette image), il n'avait jamais été observé. Cela posait un problème fondamental car toute la théorie reposait sur son existence. Et comme nous le savons tous, une théorie invérifiable perd toute crédibilité. Ceci dit, l'un des objectifs du collisionneur du LHC du CERN consiste justement à tracer ce fameux boson de Higgs sur lequel repose le modèle Standard des particules. C'est le seul outil suffisamment puissant et sensible pour détecter sa trace.

Les premiers signaux suspects sont apparus en 2012. Finalement, en mars 2013 le CERN confirma qu'une particule découverte un an auparavant présentait toutes les caractéristiques du boson de Higgs, ce qui valut le prix Nobel de Physique à François Englert (81 ans) et Peter Higgs (84 ans) en 2013. Robert Brout qui avait cosigné l'article de 1964 avec François Englert était décédé en 2011.

Avec la découverte du boson de Higgs, la théorie devient cohérente. Ainsi, si un champ de Higgs interagit avec un boson W-, W+ ou Z0 par exemple, celui-ci acquiert une masse (~80 à 91 GeV/c2). En fonction des propriétés des particules en interaction (force de couplage, modes de désintégration, etc), la durée de vie des bosons W ou Z est limitée à ~10-25 s. Les particules qui n'interagissent pas avec le champ scalaire restent lumière, comme c'est le cas du photon; il vit éternellement. Mais ce n'est pas pour autant que le photon est inactif. Contenant de l'énergie il peut interagir avec des particules en créant ou en désintégrant la matière.

A lire : Le boson de Higgs

La production d'un boson de Higgs

Production d'un bosons de Higgs entre hadrons et leptons. A gauche, la transformation d’un quark bottom (b) en quark étrange (s) avec production d’une paire de muons μ-μ+. Cette désintégration requiert un courant neutre véhiculé par un boson de Higgs, H0. A droite, l'annihilation d’une paire de quarks u avec production d’un boson intermédiaire Z0 qui produit un boson de Higgs H0 tandis que l’énergie restante crée une paire de muons μ-μ+. Document T.Lombry.

Un univers en surfusion

Mais d'autres problèmes d'ordre cosmologique restaient en suspens. Le pas crucial dans le développement de la théorie inflationnaire fut réalisé en 1978 par le physicien Alan Guth spécialiste des monopôles au MIT. Il se demanda pourquoi l'Univers ne s'était pas effondré directement après le Big Bang ? Il calcula en effet que si les hypothétiques monopôles avaient été aussi nombreux que les protons, l'effet d'attraction des champs gravitationnels aurait entraîné l’effondrement de l’Univers au bout de 6000 ans !

Pour entraver la production des monopôles, Alan Guth imagina un mécanisme équivalent à celui de la "surfusion" de l'eau. Par analogie, l'eau gelée est dans un état particulier avec une structure cristalline bien précise et doit libérer une certaine énergie, la chaleur latente. Si l'eau est impure ou salée, elle peut rester liquide sous zéro degré et un choc suffit à la faire changer d'état, c'est l'état de surfusion.

Fin 1979, Guth discuta de son idée en compagnie de Henry Tye et Sidney Coleman et finit par découvrir que la "surfusion" de l'Univers avait dû se produire à une température de 1027 K, époque qui vit la première brisure de symétrie. La phénoménale énergie qui fut libérée pendant cette phase inflationnaire permit de créer des particules.

Ce scénario explique la platitude de l’Univers, l’isotropie du rayonnement diffus cosmologique et l’éparpillement des monopôles. Alan Guth[6] écrivit à ce propos : "Quelles que soient pratiquement les conditions initiales, l'Univers inflationnaire évolue précisément vers l'état qu'il devait assumer initialement dans le modèle Standard."

Physiquement parlant, nous savons que le bilan énergétique de l'Univers est nul mais que les particules virtuelles, alliées du vide quantique peuvent avoir des effets dans le monde réel. Les relations d'incertitudes garantissent néanmoins ce bilan énergétique en limitant notre approche.

Processus virtuels dont les effets sont observables

en vertu des relations d’incertitudes de Heisenberg

ΔE

10-5 eV

106 eV

109 eV

Δt

10-15 s

10-21 s

10-24 s

Si nous essayons de créer des particules élémentaires dans les accélérateurs de particules, nous découvrons que la durée de vie de ce processus doit être extrêmement courte, de l’ordre de 10-32 s pour respecter les relations d'incertitudes de Heisenberg. Les particules qui peuvent exister durant ce court laps de temps sont des objets virtuels, des particules de matière et d'antimatière qui effleurent à la surface du monde, ayant juste le temps de réaliser une réaction avant de disparaître dans les profondeurs du potentiel d'énergie quantique. Ce bref instant suffit à créer les quarks, les neutrinos et les électrons. Mais comment formaliser cette idée et surtout quelle théorie pouvons-nous inventer pour concevoir un tel scénario ?

Autour d'Alan Guth[7], les physiciens Andreas Albrecht du Fermilab et Paul Steinhardt alors à Stanford ont imaginé un scénario où l'Univers, qui présentait à cette époque une taille subatomique, était dans une phase de transition, dans état similaire à la "surfusion". L'Univers aurait connu un état semblable lorsqu'il atteignit un seuil critique de température, 10-43 s à 10-32 s après le Big Bang selon les modèles.

Guth propose que certaines régions de l'Univers qu'il appelle des "bulles" formées au temps de Planck étaient 10000 K plus froides que le milieu ambiant, dans un état de "faux vide", c’est-à-dire que si le vide a par définition une pression nulle, les bulles doivent avoir une pression, ou plus exactement une densité d'énergie (de masse) négative, ce qui représente une énergie potentielle phénoménale.

Prochain chapitre

La détente du faux vide

Page 1 - 2 - 3 - 4 - 5 -


[6] A.Guth, Physical Review, D, 23, 1981, p347 - A.Guth et P.Steinhardt, Scientific American, 250, 1984, p116.

[7] A.Albrecht et P.Steinhardt, Physical Review Letters, 48, 1982, p1220 - A.Linde, Physics Letters, B,108, 1982, p389.


Back to:

HOME

Copyright & FAQ