|
L'Univers inflationnaire Comment les particules ont acquis leur masse (II) Comment expliquer que certaines particules sont massives et que d'autres comme le photon n'ont pas de masse de repos ? La question étant d'importance mais complexe, elle requiert un moment d'attention. Les bosons vecteurs des interactions permettent de décrire la création de particules lors de collisions à hautes énergies notamment. Ces bosons n'ont à l'origine pas de masse de repos et leur portée est infinie. Si cela s'applique très bien au photon, médiateur de l'interaction électromagnétique, ce modèle ne s'applique pas aux 14 autres bosons connus dont la masse de repos dépasse 80 GeV (W, Z, H, l'hypothétique graviton, ... cf. ce tableau) auxquels il faut ajouter 12 hypothétiques bosons X et Y, les fameux leptoquarks qui présentent une masse de repos supérieure à 1015 GeV et dont la charge électrique est fractionnaire. Dans
une réaction entre particules, les lois régissant les interactions montrent
que l'énergie totale de la réaction est conservée. Le boson Z0
par exemple, peut se transformer en quarks et en leptons, les deux familles
de particules élémentaires qui interagissent via l'interaction faible et
composant la matière, chacune apparaissant par paire avec son antiparticule
(quarks u
Ainsi que l'ont démontré Yang et Mills, les équations prédisent que les bosons W et Z de l'interaction faible sont très lourds. Comme l'on dit en physique quantique, ils n'obéissaient pas aux lois de symétrie. Comment dame Nature leur a-t-elle donné leur masse ? Les physiciens comprenaient bien que ni les gluons ni aucune autre particule sans masse ne peuvent pas d'eux-mêmes provoquer une brisure de symétrie et acquérir leur masse. Il fallait donc amender la théorie des particules élémentaires et tenir compte d'un second mécanisme que les cosmologistes ont vite récupéré. L'idée était qu'un boson de jauge devait interagir avec le champ scalaire d'un boson de spin 0 afin de briser spontanément la symétrie électrofaible et donner notamment leur masse aux particules. Mais cette explication devait surmonter plusieurs difficultés. Point essentiel, cette théorie devait s'intégrer dans le modèle Standard des particules élémentaires et ses prédictions vérifiables sinon cette théorie perdait toute crédibilité et rejoindrait toutes les autres idées utopiques. Autre problème important, le fait que la symétrie se brisa spontanément devrait logiquement impliquer que l'énergie du vide quantique n'était pas nulle. Si c'était le cas, aucun processus quantique ne pourrait en "émerger". En d'autres termes, le vide quantique devrait potentiellement avoir une énergie colossale. Un autre problème était qu'en partant d'une invariance de jauge globale, les modèles mathématiques prédisaient que la théorie électrofaible devait prévoir au moins un boson de Goldstone sans masse, une excitation du champ quantique scalaire. Or après la brisure de symétrie, l'interaction faible a qu'une portée finie, le boson Z0 présentant une masse de repos voisine de 91 GeV/c2, presque 100 fois supérieure à celle du proton. Par définition, un seul état d'énergie minimale ne permet pas de briser une symétrie. Cependant, cette situation a évolué grâce à l'introduction d'une particule capable de provoquer un spectre d'états d'énergie minimale lié à la brisure de symétrie. Le principal problème de cette théorie était la portée infinie du boson de Goldstone. Il était essentiel de contraindre sa portée à l'échelle de Fermi, sinon la théorie aurait dû être abandonnée. Les physiciens se sont alors tournés vers une symétrie de jauge locale, recherchant une loi agissant en chaque point de l'espace-temps. Comme par magie, le boson de Goldstone sans masse est absorbé par le boson Z0 de jauge, ce qui permet à ce dernier d'acquérir une masse et de devenir le boson Z0 massif issu de la brisure de symétrie électrofaible. Ce mécanisme est similaire pour les bosons W+ et W- qui acquièrent aussi leur masse grâce à l'absorption des bosons de Goldstone associés. Enthousiasmés par leur idée, les physiciens avaient trouvé un début de solution. Cependant, cette théorie, bien que séduisante, n'était pas parfaite. Il restait des difficultés à résoudre. La théorie de l'électrodynamique quantique (EDQ) n'était renormalisable (c'est-à-dire qu'une technique permet de supprimer les valeurs infinies des équations sur la base de mesures expérimentales) que si la masse du photon était nulle. Or, les bosons massifs W et Z médiateurs de l'interaction faible, rendaient impossible toute renormalisation par des méthodes standard. (ce phénomène est dû à la violation de certaines symétries de jauge qui sont nécessaires pour garantir la renormalisation dans les théories de jauge massives). Le modèle proposé par Glashow, Salam et Weinberg devait donc intégrer cette contrainte, en particulier par un mécanisme secondaire qui briserait la symétrie entre l'électromagnétisme et l'interaction faible. Enfin, les théories de symétrie faisaient des calculs avec des champs scalaires, qui décrivent des valeurs pures, c'est-à-dire des particules sans masse (comme dans le modèle de Bludman), ce qui n'était pas en accord avec la réalité. Le mécanisme secondaire évoqué était une symétrie interne de la dynamique quantique électrofaible (ou de saveur), introduisant une nouvelle interaction capable de créer des particules de masse non nulle, comme les bosons massifs, sans introduire de termes infinis, c'est-à-dire tout en étant renormalisable. Cela donna naissance au mécanisme de Higgs. Le mécanisme de Higgs A partir de 1964, le physicien écossais Peter Higgs de l'Université d'Edimbourg et ses collègues Robert Brout, François Englert et l'équipe d'Edgard Gunzig mirent au point cette théorie qui sera appelée le "mécanisme de Higgs". En 1971, Gerhard 't Hooft de l’Université d’Utrecht démontra que la théorie de Yang-Mills pouvait briser sa symétrie tout en étant renormalisable. Cette hypothèse suppose l'existence d'un champ de Higgs médié par un boson de Higgs sensible à la densité d'énergie. Explications. Questionnés par les médias, de nombreux physiciens ont essayé d'expliquer au public ce qu'est le boson de Higgs et un champ de Higgs. Mis à part les explications de John Ellis du CERN, le public n'a rien compris car la plupart des physiciens ont dévié du sujet sans vraiment l'aborder ! John Ellis compare le champ de Higgs à un champ de neige dans lequel on s'enfonce plus ou moins (cf. YouTube). Cette interaction est à l'origine de la masse des particules élémentaires. C'est effectivement l'analogie la plus facile à comprendre. Il en existe une deuxième que voici. En 1993, William Waldegrave, ministre britannique de la Science, lança un concours mettant au défi toute personne capable de donner l'explication la plus simple du boson de Higgs (cf. New Scientist). Le lauréat remportait une bouteille de champagne millésimée. Le gagnant fut le professeur David J. Miller du Département de Physique et d'Astronomie de l'University College London qui reçut personnellement une bouteille de Veuve Cliquot 1985 de Mr Waldegrave. Miller proposa l'analogie suivante. Une salle est remplie d'un grand nombre d'invités à l'occasion d'un cocktail. Un personnage important arrive (dans l'histoire originale, il s'agit de Mrs Margaret Thatcher) et essaie de se frayer un chemin dans la foule. Aussitôt qu'ils reconnaissent la célébrité, les invités s'agglutinent autour d'elle, ce qui ralentit sa progression. Si au contraire une personne inconnue se présente, elle peut traverser la pièce sans peine. En fait, l'analogie est assez fidèle même si elle reste approximative. La foule représente le champ de Higgs qui remplit tout l'espace tandis que la notoriété de la personne est l'équivalent de la masse de la particule. Une particule comme le boson W ou Z, interagit fortement avec le champ de Higgs et voit son inertie augmenter, ce qui correspond à une masse d'autant plus élevée que l'interaction est forte. A l'inverse, les particules qui n'interagissent pas avec le champ de Higgs, comme le photon et les gluons, se déplacent à la vitesse maximum, c'est-à-dire la vitesse de la lumière. A lire : Le champ
Cette théorie à des conséquences importantes. D'abord, le mécanisme de Higgs étant quantifié, cela implique que le champ de Higgs remplit tout l'Univers avec la même valeur moyenne non nulle. La masse des particules élémentaires dépend de la manière dont elles interagissent avec le champ de Higgs. Les particules élémentaires n'ont pas de masse propre, mais interagissent avec ce champ, ce qui leur confère une masse effective. Ces interactions peuvent être vues comme un échange de bosons de Higgs virtuels dans le cadre de la quantification du champ de Higgs. Seul problème, jusqu'en 2012, si on savait simuler sur ordinateur des collisions nucléaires avec un boson de Higg (cf. cette image), il n'avait jamais été observé. Cela posait un problème fondamental car toute la théorie reposait sur son existence. Et comme nous le savons tous, une théorie invérifiable perd toute crédibilité. Ceci dit, l'un des objectifs du collisionneur du LHC du CERN consiste justement à tracer ce fameux boson de Higgs sur lequel repose le modèle Standard des particules. C'est le seul outil suffisamment puissant et sensible pour détecter sa trace. Les premiers signaux suspects sont apparus en 2012. Finalement, en mars 2013 le CERN confirma qu'une particule découverte un an auparavant présentait toutes les caractéristiques du boson de Higgs, ce qui valut le prix Nobel de Physique à François Englert (81 ans) et Peter Higgs (84 ans) en 2013. Robert Brout qui avait cosigné l'article de 1964 avec François Englert était décédé en 2011. Avec la découverte du boson de Higgs, la théorie devient cohérente. Ainsi, si un champ de Higgs interagit avec un boson W-, W+ ou Z0 par exemple, celui-ci acquiert une masse (~80 à 91 GeV/c2). En fonction des propriétés des particules en interaction (force de couplage, modes de désintégration, etc), la durée de vie des bosons W ou Z est limitée à ~10-25 s. Les particules qui n'interagissent pas avec le champ scalaire restent lumière, comme c'est le cas du photon; il vit éternellement. Mais ce n'est pas pour autant que le photon est inactif. Contenant de l'énergie il peut interagir avec des particules en créant ou en désintégrant la matière. A lire : Le boson de Higgs
Un univers en surfusion Mais d'autres problèmes d'ordre cosmologique restaient en suspens. Le pas crucial dans le développement de la théorie inflationnaire fut réalisé en 1978 par le physicien Alan Guth spécialiste des monopôles au MIT. Il se demanda pourquoi l'Univers ne s'était pas effondré directement après le Big Bang ? Il calcula en effet que si les hypothétiques monopôles avaient été aussi nombreux que les protons, l'effet d'attraction des champs gravitationnels aurait entraîné l’effondrement de l’Univers au bout de 6000 ans ! Pour entraver la production des monopôles, Alan Guth imagina un mécanisme équivalent à celui de la "surfusion" de l'eau. Par analogie, l'eau gelée est dans un état particulier avec une structure cristalline bien précise et doit libérer une certaine énergie, la chaleur latente. Si l'eau est impure ou salée, elle peut rester liquide sous zéro degré et un choc suffit à la faire changer d'état, c'est l'état de surfusion. Fin 1979, Guth discuta de son idée en compagnie de Henry Tye et Sidney Coleman et finit par découvrir que la "surfusion" de l'Univers avait dû se produire à une température de 1027 K, époque qui vit la première brisure de symétrie. La phénoménale énergie qui fut libérée pendant cette phase inflationnaire permit de créer des particules. Ce scénario explique la platitude de l’Univers, l’isotropie du rayonnement diffus cosmologique et l’éparpillement des monopôles. Alan Guth[6] écrivit à ce propos : "Quelles que soient pratiquement les conditions initiales, l'Univers inflationnaire évolue précisément vers l'état qu'il devait assumer initialement dans le modèle Standard." Physiquement parlant, nous savons que le bilan énergétique de l'Univers est nul mais que les particules virtuelles, alliées du vide quantique peuvent avoir des effets dans le monde réel. Les relations d'incertitudes garantissent néanmoins ce bilan énergétique en limitant notre approche.
Si nous essayons de créer des particules élémentaires dans les accélérateurs de particules, nous découvrons que la durée de vie de ce processus doit être extrêmement courte, de l’ordre de 10-32 s pour respecter les relations d'incertitudes de Heisenberg. Les particules qui peuvent exister durant ce court laps de temps sont des objets virtuels, des particules de matière et d'antimatière qui effleurent à la surface du monde, ayant juste le temps de réaliser une réaction avant de disparaître dans les profondeurs du potentiel d'énergie quantique. Ce bref instant suffit à créer les quarks, les neutrinos et les électrons. Mais comment formaliser cette idée et surtout quelle théorie pouvons-nous inventer pour concevoir un tel scénario ? Autour d'Alan Guth[7], les physiciens Andreas Albrecht du Fermilab et Paul Steinhardt alors à Stanford ont imaginé un scénario où l'Univers, qui présentait à cette époque une taille subatomique, était dans une phase de transition, dans état similaire à la "surfusion". L'Univers aurait connu un état semblable lorsqu'il atteignit un seuil critique de température, 10-43 s à 10-32 s après le Big Bang selon les modèles. Guth propose que certaines régions de l'Univers qu'il appelle des "bulles" formées au temps de Planck étaient 10000 K plus froides que le milieu ambiant, dans un état de "faux vide", c’est-à-dire que si le vide a par définition une pression nulle, les bulles doivent avoir une pression, ou plus exactement une densité d'énergie (de masse) négative, ce qui représente une énergie potentielle phénoménale. Prochain chapitre
|