Contacter l'auteur / Contact the author

Recherche dans ce site / Search in this site

L'accélération de l'expansion de l'Univers

L'échelle des distances cosmiques. Adapté de NASA/JPL-Caltech.

Vers une révision du modèle cosmologique standard (I)

Depuis les travaux de l'astronome Edwin Hubble en 1929, nous savons que l'Univers est en expansion à un taux qui dépend de certaines conditions comme la valeur de la constante de Hubble, Ho. Mais à partir de 1998 et les travaux de Saul Perlmutter et son équipe puis d'Adam Riess notamment sur la constante cosmologique, l'analyse de divers objets célestes qualifiés de "chandelles standards" servant à échaffauder ce qu'on appelle "l'échelle des distances" cosmiques ainsi que la cartographie du rayonnement cosmologique ont montré que l'Univers s'étend entre 5% (WMAP) et 9% (Planck) plus rapidement que prévu.

Constante de Hubble et chandelles standards

Etablir une mesure précise de la constante de Hubble exige non seulement des moyens techniques puissants et performants entre termes de calibration et précision mais également de gros investissements en temps d'observation sur les télescopes en plus de trouver suffisamment d'objets célestes lumineux dont les propriétés sont connues pour effectuer des mesures de distance si possibles directes (sur base de la parallaxe mais valable jusqu'à ~20000 a.l. avec les nouvelles techniques) sinon indirectes par le truchement de l'estimation de leurs magnitudes apparente et absolues pour les objets plus éloignés.

Les objets célestes habituellement utilisés sont les étoiles variables Céphéides et les supernovae de Type Ia (SNe Ia). Un lecteur attentif aura noté qu'Edwin Hubble utilisa également les Céphéides pour déterminer la distance de la "grande nébuleuse spirale" M31. Pourquoi sont-elles si importantes ? Car ces étoiles variables représentent les échelons fondamentaux de l'échelle de distance. Leur période de pulsation est facile à déterminer et est directement corrélée avec leur luminosité comme l'a montré Henrietta Leavitt en 1912 qui décrivit leur période-luminosité connue sous le nom de loi de Leavitt en étudiant les Céphéides du Petit Nuage de Magellan. Un autre raffinement de cette échelle de distance est le fait qu'on peut également observer ces Céphéides en proche infrarouge où ces étoiles variables sont de meilleurs indicateurs de distances qu'en lumière visible en raison de la plus faible absorption par la poussière. En principe, on peut détecter des Céphéides jusqu'à ~100 millions d'années-lumière.

Il en est de même des SNe Ia. Ces étoiles massives qui explosent avec une luminosité parfois aussi importante que celle de toute une galaxie (10 milliards d'étoiles, magnitude absolue de -19.5) évoluent en suivant précisément les lois de la physique. Après leur explosion, on peut donc estimer avec précision leur masse résiduelle ainsi que la courbe de décroissance de leur luminosité, y compris celle des différents isotopes radioactifs. A partir de la mesure de leur magnitude (par voie photométrique) et du module de distance (m-M), on peut déterminer leur distance après correction de l'extinction par la Voie Lactée et les autres sources d'assombrissement situées sur la ligne de visée.

Leur masse résiduelle dite masse de Chandrasekhar présente une limite physique qu'on suppose similaire pour toutes les supernovae de Type Ia. C'est un avantage précieux car cela signifie qu'il y a peu de différences entre les explosions individuelles, ce qui permet de les utiliser comme chandelle standard de la même manière que les Céphéides mais en utilisant une méthode de mesure tout à fait différente.

En pratique, depuis les premières observations faites à l'observatoire du CTIO au Chili en 1996, on sait que les supernovae pâles brillent puis disparaissent très rapidement tandis que les supernovae brillantes s'illuminent et s'éteignent beaucoup plus lentement. En observant comment les SNe Ia perdent leur éclat les 15 premiers jours suivant leur maximum, on peut déterminer leur distance avec une précision d'environ 7%, équivalente à celle des meilleurs indicateurs astronomiques.

Deux supernovae de Type Ia. A gauche, SN 1994D (en dessous à gauche) dans la galaxie NGC 4526. A droite, ASASSN16-oh dans la galaxie M66. Documents NASA/ESA/STScI et Roman Kulesza.

En moyenne, une supernova de Type Ia explose chaque année dans la Voie Lactée. Avec les millions de galaxies cataloguées dont quelques centaines de milliers sont facilement accessibles aux grands télescopes, les astronomes ont suffisamment de candidates potentielles pour effecteur leurs mesures.

SNe Ia ou quand la chandelle vacille

De nouvelles observations indiquent que les SNe Ia ne sont peut-être pas des chandelles aussi standards qu'on le pense. Dans un article publié par Patel Numesh de l'Université d'Harvard et son collègue Paul T.P. Ho dans la revue "Nature" en 2018, les chercheurs ont présenté les résultats de l'analyse du rayonnement X émis par la supernova ASASSN16-oh qui explosa en 2016 dans la galaxie M66 du Lion. Ils ont découvert que ce rayonnement X peu pénétrant était localisé et provenait vraisemblablement d'un disque d'accrétion et non d'une réaction de fusion nucléaire globale. Cette découverte remet en question la validité de cette méthode fondée sur les SNe Ia pour calculer le taux d'expansion de l'Univers.

Ceci dit, s'il s'avère que la courbe de luminosité des SNe Ia n'est pas une donnée fiable, les astronomes disposent d'autres chandelles standards.

Au fil du temps, les astronomes ont cherché différents types d'indicateurs de distances pour affiner leurs mesures. Aujourd'hui la collection de chandelles standards comprend les sources suivantes :

- les Céphéides

- les Supernovae de Type Ia (jusqu'à preuve du contraire)

- les amas globulaires

- les galaxies émettant à 21 cm (calcul de la magnitude absolue grâce à la relation Tully-Fisher)

- les galaxies elliptiques (contenant peu ou pas d'hydrogène, relation Faber-Jackson)

- les lentilles gravitationnelles

- les surfaces de brillance

- les masers d'eau

- l'anisotropie du rayonnement cosmologique à 2.7 K,

parmi d'autres sources dont Wendy Freedman et Barry Madore (2010) ainsi que Mario Livio et Adam Riess (2013) ont fait une revue détaillée dans le cadre de leurs travaux.

Les 20 galaxies ayant vu l'apparition d'une supernova de Type Ia et dans lesquelles Adam Riess et son équipe ont identifié des Céphéides. Le cadre magenta couvre le champ de 2'7" de côté de la caméra WFC3/IR du HST.

Des programmes d'observations visant à préciser la constante de Hubble par le truchement de la mesure de la distance des SNe Ia ont été spécialement développés ces dernières années comme le "High-Z SN Search" (Schmidt et al., 1995), le "HST Key Project" (Freedman et al. 2001), le "SN Ia HST Calibration Program" (Saha et al., 2001, Sandage et al., 2006) et plus récemment le programme SH0ES (Supernova H0 for the Equation of State of Dark Energy) qui débuta en 2005 (cf. SH0ES I R09 in Riess et al., 2009; SH0ES II R11 in Riess et al., 2011; SH0ES III R16 in Riess et al., 2016 et SH0ES-IV R22 in Riess et al., 2022).

Notons que des astronomes amateurs participent à cette recherche des supernovae, en particulier l'Observatoire Puckett et son réseau international d'observateurs qui comptent à leur actif la découverte de plus de 270 supernovae depuis 1994, soit plus d'une par mois.

Parmi les résultats les plus précis, dans un article publié en 2017 dans les "MNRAS" et dont le site Space Telescope s'est fait l'écho, dans le cadre du programme H0LiCOW (H0 Lenses In COsmograil's Wellspring), grâce à l'analyse des fluctuations du rayonnement des quasars associés à des lentilles gravitationnelles, une équipe internationale d'astronomes a pu déterminer la constante de Hubble. La valeur retenue pour Ho = 71.9 ±2.7 km/s/Mpc à 3.8% près, soit plus élevée que les précédentes estimations dont celle relevée par le satellite Planck (67.8 ±0.9 km/s/Mpc, cf. cet article de la collaboration Planck XIII publié en 2016) mais toujours compatible avec un modèle d'Univers ΛCDM plat. Reste à identifier cette composante Λ.

A son tour, l'équipe de l'astrophysicien Adam Riess du STScI et de l'Université Johns Hopkins qui travaille sur le sujet depuis près de 20 ans a utilisé le Télescope Spatial Hubble et de nouvelles techniques proche-infrarouge pour analyser les Céphéides identifiées dans 20 galaxies extérieures dont M101 et NGC 4258 associées à des supernovae de Type Ia ayant explosé entre 1995 et 2015. Au total la luminosité de 2400 Céphéides dans 19 galaxies a été minutieusement mesurée et comparée à celle des supernovae et les distances d'environ 300 supernovae de Type Ia ont pu être calculées. En 2022, une nouvelle estimation fut réalisée à partir des Céphéides identifiées dans 37 galaxies ayant abrité des supernovae.

La difficulté de ce type de projet est à la mesure de l'Univers car comme le dit Riess, "cela équivaut à mesurer un bâtiment avec un long mètre ruban au lieu de déplacer une règle bout à bout. Vous évitez d'accumuler les petites erreurs chaque fois que vous déplacez la règle. Plus grand est le bâtiment, plus grande est l'erreur."

Sur base de ces travaux longs et fastidieux qui ont demandé la collaboration de 15 astronomes, en 2016 Riess et ses collègues obtinrent une nouvelle estimation de la constante de Hubble, Ho = 73.23 ±1.51 km/s/Mpc. Puis, en affinant leurs méthodes de calibration des Céphéides, en février 2018 ils obtinrent une nouvelle estimation, Ho = 73.48 ±1.66 km/s/Mpc avec un niveau de confiance de 3.7σ, soit 8.9% supérieure à la valeur prédite par le modèle ΛCDM (66.93 ±0.62 km/s/Mpc).

NGC 5468 située à 130 millions d'années-lumière est la galaxie la plus éloignée dans laquelle les astronomes ont identifié des Céphéides. Document HST/JWST.

Ensuite, grâce aux données du satellite Gaia DR2, en juillet 2018 Riess et ses collègues ont obtenu une nouvelle valeur, Ho = 73.24 km/s/Mpc à 2.2% près avec un niveau de confiance de 2.9σ ou 99.6%. Le prochain défi de Riess est de porter le niveau de confiance à 3.89σ ou 99.99%. Rappelons qu'un écart-type de plus de 4σ (ou vise souvent les 5σ) correspond à 100% de confiance ou une certitude (cf. cette brève explication du CERN).

Après avoir étudié pendant plusieurs années l'image double du quasar SDSS J1206+4332, en 2019 Simon Birrer de l'UCLA à Los Angeles et ses collègues du programme H0LiCOW ont publié dans les "MNRAS" une nouvelle estimation de Ho = 72.5 km/s/Mpc avec une précision de 3%, mais elle ne lève toujours pas l'incertitude.

Ensuite, dans un article publié dans "The Astrophysical Journal" en 2022, grâce à l'étude de Céphéides situées dans 37 galaxies hôtes de 42 SNe Ia observées avec le Télescope Spatial Hubble, l'équipe de Riess obtint une valeur Ho = 73.04 ±1.04 km/s/Mpc avec une précison de 1.35% et un niveau de confiance de 5σ. Cela cimente apparemment l'écart avec le taux d'expansion théorique beaucoup plus faible de 67 km/s/Mpc.

Cela n'a l'air de rien, mais avant que le Télescope Spatial Hubble ne soit lancé en 1990, l'estimation de la valeur de la constante de Hubble variait du simple au double. A la fin des années 1990, grâce au projet "Hubble Space Telescope KeyProject on the Extragalactic Distance Scale", les astrophysiciens réduisirent l'incertitude sur la constante de Hubble jusqu'à 10%. En 2018, Riess et son équipe ont encore réduit cette incertitude à 2.2%. En fait, la valeur actuelle est 4 fois plus précise que celle déterminée en 2001 grâce au HST et presque deux fois plus précise que la valeur calculée en 2009 grâce au HST (72 ±8 km/s/Mpc) dans le cadre du programme SH0ES (Supernovae, H0, for the Equation of State of dark energy) mais dont la valeur fut affinée en 2016.

Rappelons qu'une valeur de 73 km/s/Mpc signifie qu'une galaxie située à 1 Mpc soit 3.26 millions d'années-lumière s'éloigne de nous à la vitesse comobile (du fait de l'expansion de l'Univers) de 73 km/s. La nouvelle valeur indique que la distance moyenne entre les astres doublera dans 9.8 milliards d'années.

Cette valeur relativement haute a été obtenue sur base de deux échelles absolues différentes, la constante de Hubble et l'horizon sonique observé à travers le rayonnement cosmologique (comme ce fut déjà le cas en 2001), c'est-à-dire aux deux extrémités opposées de la ligne du temps de l'Histoire de l'expansion de l'Univers. La différence avec les anciennes mesures, c'est qu'en 2001 toutes les autres échelles étaient relatives et ajoutaient une incertitudes pouvant atteindre 10%.

Cosmocalc

Comme son nom l'indique Cosmocalc est une calculette cosmologique en ligne développée par Aaron Robotham et Joseph Dunne. Elle permet de calculer les paramètres cosmologiques dont le paramètre de Hubble H en fonction du décalage Doppler z. On peut également afficher le résultat sous forme de courbe.

On peut par exemple utiliser ce programme pour savoir ce que valait le taux d'expansion dans le passé, il y a 5 ou 10 milliards d'années.

Ces relations se basent sur quelques hypothèses standards, notamment le modèle ΛCDM à courbure nulle (univers plat). Par le paramètre w = -1, on suppose aussi une équation d'état pour l'énergie sombre constante au cours du temps (en fait équivalente à la constante cosmologique).

En entrant des valeurs, on peut par exemple reproduire le point d'inflexion du facteur d'échelle à environ z = 0.7, soit 6 milliards d'années en arrière, époque où le taux d'expansion a cessé de diminuer pour commencer à croître.

Notons que si on ajoute un petit peu de courbure, cela ne change pas grand chose.

Il existe une version simplifiée CosmoCalc sur la page d'Edward L. Wright à l'UCLA.

Dernière valeur du taux d'expansion

Dans deux articles publiés dans les revues "Science" et "The Astrophysical Journal" en 2023 par l'équipe de Patrick Kelly, professeur adjoint au Collège of Sciences and Engineering, les chercheurs ont calculé la constante de Hubble en utilisant les données d'une supernova cataloguée SN HFF14Ref alias "Refsdal" découverte par Kelly en 2014 dans l'amas de galaxies MACS J1149.6+2223 situé à 5 milliards d'années-lumière (z = 0.542) - le tout premier exemple d'une supernova à images multiples générées par une lentille gravitationnelle, c'est-à-dire que le télescope a capturé quatre images différentes du même évènement astronomique. Après la découverte, des astronomes prédirent que la supernova réapparaîtrait à une nouvelle position en 2015 et, comme prévu, l'équipe de l'Université du Minnesota détecta cette image supplémentaire.

En utilisant les délais entre les apparitions des images de 2014 et 2015, les chercheurs ont pu mesurer la constante de Hubble en utilisant une théorie développée en 1964 par l'astronome norvégien Sjur Refsdal (cf. MNRAS, 1964) qui était auparavant impossible à mettre en pratique. Ils ont obtenu une valeur Ho = 66.6 +4.1-3.3 km/s/Mpc en accord avec les modèles de matière sombre dans le halo des galaxies et dans les amas de galaxies. Si cette valeur est très proche de celle calculée par la mission Planck, elle est 9% inférieure à celle obtenue par l'équipe SH0ES en 2022 à partir des mesures sur les SNe Ia.

Deux images agrandies de l'amas de galaxies MACS J1149.6+2223 et les emplacements des images multiples de la supernova Refsdal. Une première apparition s'est produite selon le modèle dans l'image de la galaxie hôte (en haut à gauche de l'image de droite) à la fin des années 1990, mais ne fut pas observé. En revanche, les images S1 à S4 furent observées dans une configuration en croix d'Einstein en novembre par l'équipe de Patrick Kelly. Suite à cette apparition, les modèles de lentilles gravitationnelles ont prédit la réapparition de la supernova, qui fut effectivement détectée fin 2015. L'encart en haut à droite est une image IR (F125W) prise par la caméra WFC3 du HST le 11 novembre 2014 montrant la cinquième et nouvelle image de la supernova dans l'image SX. Documents Hubblesite et P.Kelly et al. (2023).

Kelly concède que ces découvertes ne règlent absolument pas le débat sur le taux d'expansion de l'Univers mais elles permettent de mieux comprendre le problème et rapprochent les astrophysiciens de l'obtention de la mesure la plus précise de l'âge de l'Univers. Selon Kelly, "Notre mesure est en meilleur accord avec la valeur du fond cosmique micro-ondes, bien que - compte tenu des incertitudes - elle n'exclue pas la mesure de l'échelle de distance locale. Si les observations de futures supernovae qui sont également sous l'effet de lentilles gravitationnelles par des amas de galaxies donnent un résultat similaire, cela identifierait un problème avec la qualité des supernovae ou de notre compréhension de la matière sombre dans les amas de galaxies."

En utilisant les mêmes données, les chercheurs ont découvert que certains modèles actuels ΛCDM d'amas de galaxies étaient capables d'expliquer leurs observations des supernovae. Cela leur permit de déterminer quels sont les modèles les plus précis indiquant les emplacements de la matière sombre dans les amas de galaxies, une question toujours ouverte.

L'étude des lentilles gravitationnelles sur les quasars a permis de déterminer le taux d'expansion de l'Univers, la fameuse constante de Hubble. Comme le montre le graphique ci-dessus, depuis environ 5 milliards d'années, le taux d'expansion de l'Univers augmente pour une raison inconnue, probablement en raison des effets de la matière sombre. A gauche, l'image du quasar HE0435-1223 dont voici une vue générale. C'est l'un des rares spécimens où les quatre "étoiles" (les quatre images du quasar) fluctuent à tour de rôle, ce qui permit de déterminer avec précision la constante de Hubble. A droite, RXJ1131-1231. Documents H0LiCOW team/ NASA/ESA/MPI/U.Cambridge/Space Telescope et T.Lombry adapté de LBNL/BOSS.

A l'avenir, grâce aux télescopes spatiaux JWST et WFIRST, on devrait pouvoir réduire l'incertitude en dessous de 1% en effectuant de nouvelles mesures de la parallaxe des Céphéides de la Voie Lactée et du Grand Nuage de Magellan, la calibration de nouvelles SNe Ia proches et une meilleure caractérisation des incertitudes systémiques. Avec une constante de Hubble plus précise, on devrait arriver à poser des contraintes plus sévères sur les modèles cosmologiques.

Si le problème de précision est aujourd'hui pratiquement résolu, la raison de cette expansion accélérée de l'Univers reste mystérieuse et constitue un véritable défi pour les chercheurs.

Une expansion accélérée ? Finalement, peut-être pas

Ceci dit, selon une autre étude publiée en octobre 2016 dans la revue "Nature" par Subir Sarkar de l'Université d'Oxford et ses collègues, le taux d'accélération de l'Univers ne serait que marginal. En effet, sur base du catalogue JLA (Joint Light-curve Analysis) contenant 740 supernovae de Type Ia et une analyse statistique de "maximisation de vraisemblance" (tenant compte d'effets correctifs dans l'analyse des courbes de luminosité des SNe Ia), ils ont obtenu un résultat "cohérent avec une expansion non accélérée", c'est-à-dire que l'Univers s'étendrait plutôt à une vitesse constante, tout en ne s'opposant pas aux résultats des études précédentes.

Diagramme des contraintes sur la matière en fonction de l'énergie sombre permettant de déterminer les principaux paramètres de l'Univers. Document A.Riess et al. (2015) adapté par l'auteur.

Pour comprendre cet apparent paradoxe, le diagramme de contrainte matière-énergie sombre présenté à gauche est plus parlant, en particulier l'écart-type représenté par les zones en bleu basées sur l'analyse des supernovae. Le recoupement de ces données avec celles de la mission Planck permet d'obtenir la petite zone orangée qui se situe clairement dans la région du diagramme où l'Univers est en accélération.

Le point faible de l'étude de l'équipe de Sarkar est justement son écart-type ou écart significatif qui est de 3σ soit d'au moins 99.7% de confiance. Bien que la valeur soit élevée, statistiquement ce n'est pas suffisant pour considérer leur résultat comme pertinent (et une découverte) car un écart-type significatif exige au moins 5σ ce qui représente un niveau de confiance supérieur à 99.99997% ou une erreur inférieure à 0.00003%, ce qui n'est pas le cas de leur étude. 

Par expérience (par exemple dans les expériences du CERN) on sait qu'un résultat si peu significatif représente généralement une fluctuation statistique. La "découverte" de Sarkar et son équipe reste donc toute relative et comme l'indique le diagramme, elle reste compatible avec un Univers en accélération. De ce fait, l'équipe de Sarkar reconnait "également que l'expansion est accélérée". Ils ont bien conscience que d'autres études confirment l'accélération du taux d'expansion de l'Univers, non seulement les résultats de l'équipe d'Adam Riess publiés quelques mois auparavant mais également les résultats obtenus par la collaboration Planck qui étudia le rayonnement cosmologique (2015). Pour leur défense, Sarkar et ses collègues rappellent que les résultats de la mission Planck sont basés sur des tests indirects fondés sur le modèle ΛCDM et d'insister sur le fait que la matière noire n'affecte pas directement le rayonnement cosmologique.

De plus, si on analyse non pas les supernovae mais les quasars distants d'au moins 10 milliards d'années-lumière, l'analyse de la "forêt Lyman-alpha" (provoquée par les absorbeurs d'hydrogène après la réionisation) permet de conclure qu'à cette époque reculée l'Univers était en décélération, le phénomène d'accélération n'apparaissant qu'environ 5 à 8 milliards d'années après le Big Bang, c'est-à-dire à l'époque où les astronomes exploitent les données des supernovae de Type Ia.

Mais l'équipe de Sarkar va plus loin et suggère que selon les résultats de leur étude statistique, on ne peut pas écarter l'hypothèse que l'apparente contribution de l'énergie sombre à travers la constante cosmologique soit la conséquence d'une analyse des supernovae effectuée dans le cadre d'un modèle cosmologique trop simple, en particulier trop homogène et sur base de suppositions sinon gratuites du moins non validées. Dans une interview publiée dans le webzine de l'Université d'Oxford, Sarkar considère que "le modèle cosmologique Standard repose sur des bases chancelantes" car peu conformes à la réalité, d'où le risque de mal interpréter les données observationnelles comme dans le cas présent. Mais cette remarque a toujours été acceptée par les cosmologistes, encore faut-il avoir les ressources nécessaires (financières, techniques, humaines et intellectuelles) pour développer un modèle plus précis de la réalité que même Sarkar et ses collègues sont bien en peine de proposer. On y reviendra dans un autre article et à propos du sondage DES.

Finalement, Sarkar reste dubitatif quant à la réalité de l'expansion accélérée de l'Univers mais arrive à une conclusion honnête qui satisfait tous les acteurs : "L'expérience CODEX proposée pour le ELT (Extremely Large Telescope) devrait mesurer la dérive Doppler sur une période de 10 à 15 ans afin de déterminer si le taux d'expansion est réellement en accélération."

En attendant de trancher la question, la communauté des cosmologistes se base sur des données significatives dont l'échantillonnage offre un écart-type bien précis (de 7σ et 9σ selon les méthodes de "best fit" utilisées) indiquant que l'Univers est effectivement en expansion accélérée comme nous l'avons expliqué plus haut. Reste à présent à comprendre pourquoi et comment cela s'est-il déclenché et à identifier cette énergie sombre apparemment à l'origine de cette expanson accélérée.

Mais comme nous allons le découvrir, tout le monde ne croit pas en ce modèle, non pas a priori mais sur base de faits, il est vrai statistiquement parfois un peu moins bien étayés. Mais il existe d'autres méthodes fiables pour mesurer l'accélération de l'expansion. C'est l'objet du prochain chapitre.

Deuxième partie

Mesure de la distribution des grandes structures cosmiques

Page 1 - 2 -


Back to:

HOME

Copyright & FAQ