Contacter l'auteur / Contact the author

Recherche dans ce site / Search in this site

 

Les problèmes du modèle Standard

Simulation de la distribution des galaxies et de la matière sombre.

A la recherche de la Grande Unification (I)

Pour les cosmologistes et grâce aux travaux de Gamow en particulier, le modèle Standard FRW reste la référence par définition. Mais comme nous l’avions présagé dans les premières pages, ce qui devait advenir d'une théorie advint. Malgré sa conformité avec l'évolution générale de l'Univers, nous avons constaté que le modèle Standard ne répond plus exactement aux questions fondamentales que les cosmologistes se posent, en particulier concernant les détails des processus qui se sont déroulés à l'époque du Big Bang et de quelles manières se sont formées les grandes structures cosmiques.

Parmi leurs questions anodines, nombreuses sont celles qui n'ont pas reçu de réponses malgré les efforts considérables des expérimentateurs comme des théoriciens. Que l'Univers soit fermé ou ouvert, pourquoi sa densité est-elle si proche de la valeur critique ?

Questions et tentatives de réponses

Si l'Univers est plat, sa densité Ω = 1 et le sera toujours mais l’Univers est dans un état instable. Si sa densité avait été légèrement différente de 1 quelques instants après le Big Bang, cette différence se serait amplifiée avec le temps. Actuellement toutes les mesures tentent à confirmer que la densité de l'Univers est proche de sa valeur critique. Dans ces conditions, Robert Dicke et P.James Peebles ont calculé qu'il y a environ 15 milliards d'années, la densité de l'Univers devait être égale à 1.0, le premier chiffre significatif étant placé 1015 positions derrière la virgule !

L'ère de la Grande unification se situe à la fin du temps de Planck et dura à peine 10-35 sec. A cette époque l'écart entre la densité de l'Univers et sa densité critique était inférieur à 10-53. Une fraction de seconde plus tard, l'Univers était dans l'état du modèle Standard, c'est-à-dire homogène et isotrope. Comment peut-on expliquer que la densité de l'Univers fut à ce point proche de sa valeur critique ? Le modèle Standard ne l'explique pas.

Le modèle Standard n'explique pas non plus comment s'est formé la matière et pourquoi est-elle aujourd'hui dominée par plusieurs composantes sombres.

Autre objection, pour quelle raison l'Univers est-il homogène à grande échelle et le rayonnement cosmologique isotrope ? L’Univers devait paradoxalement être uniforme dès le départ. Si aucun rayonnement ne peut se propager plus rapidement que la vitesse de la lumière, comment peut-on expliquer qu'à 30 milliards d'années-lumières de distance ce rayonnement soit uniforme ?

Les défauts du modèle Standard

- Le problème de l’homogénéité de l’Univers à grande échelle confirmé par l'isotropie du rayonnement cosmologique (dans tous les modes géométriques, scalaire, vectoriel et tensoriel)

- Le problème de la densité de matière de l’Univers qui représente à peine 27 % de la densité critique (le problème de l'énergie sombre)

- Le problème de l'accélération de l'expansion de l'univers

- Le modèle Standard n’explique pas ce qui s’est produit avant le premier centième de seconde.

La théorie étant en difficulté devant l’épreuve de l’observation, le modèle Standard doit être amendé. Ce fut réalisé avec l'invention des modèles de la matière sombre et la théorie de l'univers inflationnaire.

En 1998, les astronomes découvrirent que l'Univers était en expansion accélérée car la luminosité des supernovae extragalactiques était inférieure aux valeurs théoriques (cf. la constante cosmologique). Le modèle Standard n'explique pas ce phénomène. Au contraire, avec le temps cette expansion doit ralentir si aucune force interne ne s'y oppose. Pour expliquer cette accélération continue, physiciens et cosmologistes évoquent l'influence d'une matière noire et d'une énergie sombre voire des deux composantes. Certains vont jusqu'à évoquer de nouvelles lois qui ne s'appliqueraient qu'aux photons ou à envisager l'existence d'une cinquième interaction fondamentale. Mais les preuves manquent encore car par nature cette composante obscure interagit très peu (on sait seulement qu'elle est légèrement sensible aux forces gravitationnelle et électromagnétique).

Le modèle Standard n'éclaircit pas non plus le scénario de l'Univers avant le premier centième de seconde, ni le problème de la singularité initiale. Par quel mécanisme les différentes forces de la nature étaient-elles unies, comment se sont-elles découplées ? Nous comprenons le phénomène à basse énergie car nous pouvons en partie l'étudier dans les installations du CERN mais c'est la grande inconnue au niveau des hautes énergies ayant existé dans l'Univers primordial.

Enfin, le principe anthropique n’a pas de réponse, bien qu'il ne s'agisse plus tout à fait d'un problème scientifique mais plutôt du ressort de la philosophie.

Histoire de la découverte de la matière sombre

En démontrant dans les années 1930 l'existence d'une matière invisible dans les galaxies, Jan Oort et Fritz Zwicky mirent le doigt sur un phénomène qui allait déclencher bien des questions[1]. Découvrons le travail des pionniers de cette aventure plus que jamais d'actualité.

La découverte de Lindblad (1927)

Pendant qu'Edwin Hubble explorait les "univers-îles", l'astronome suédois Bertil Lindblad étudia les amas globulaires de la Voie Lactée et analysa leur spectre de raies d'absorption afin de déterminer leur vitesse radiale et compléter le modèle dynamique de la Voie Lactée développé par Jacobus Kapteyn. Il découvrit que ces amas se déplaçaient à 250 km/s. Or sur base du théorème du viriel, en tenant compte de la masse totale de la Voie Lactée, Kapteyn avait calculé une vitesse de libération de 20 km/s.

Lindblad qui se spécialisa par la suite dans l'étude de la formation des galaxies, des ondes de densité et autres résonances savait que son résultat était vraisemblable; ces amas étaient pour la plupart éloignés de toute contamination par le disque galactique et isolés des autres composantes de la Voie Lactée. Sa vitesse était donc correcte.

En fait, si le résultat de Kapteyn était correct dans le plan vertical de la Voie Lactée, il était totalement faux dans le plan horizontal. Quelques années auparavant l'astronome hollandais Jan Oort (celui du fameux "nuage de Oort") savait déjà pourquoi. En effet, dans une lecture publique de 1926 intitulée "Non-light emitting matter in the Stellar System", Oort qui avait travaillé avec Kapteyn conclut que la solution la moins artificielle est que l'extinction de la lumière par la poussière interstellaire présente le long de la ligne de visée faussait les mesures. Mais visiblement, à l'époque de ses calculs Kapteyn ne le savait pas.

Après le décès de son mentor, Jan Oort repris son travail pour terminer sa thèse doctorale et introduisit en 1927 la "constante de Oort". Il y en aura finalement deux, A et B, qui interviennent dans le calcul de la vitesse radiale (vrad = r A sin 2l ) et du mouvement propre (μ = A cos 2l + B). Démonstration rapide.

Si la masse de la galaxie est réduite à son bulbe, dans ce cas la vitesse varie comme la 3e loi de Kepler, le terme en dérivée prend une valeur non nulle et les deux constantes sont reliées : concrètement, la vitesse radiale chute à mesure qu'on s'éloigne du centre. En revanche, si le profil de densité montre que la vitesse est indépendante de la distance, alors le terme en dérivée est nul et les deux constantes sont opposées : concrètement, la courbe de rotation Θ(R) est globalement plate jusqu'en périphérie de la galaxie, ce qu'on observe principalement dans les galaxies spirales.

Grâce à l'invention de ces deux constantes, Oort découvrit la vitesse de rotation différentielle de la Voie Lactée en 1927. Son article cite bien entendu Kapteyn et se réfère plusieurs fois à Lindblad.

Selon les relevés effectués par le satellite astrométrique HIPPARCOS et affinés par GAIA, aujourd'hui les valeurs des constantes de Oort de la rotation différentielle sont les suivantes : A = 14.8 ±0.8 km/s/kpc et B = -12.4 ±0.6 km/s/kpc.

A partir de la vitesse radiale et du mouvement propre ainsi que des constantes de Oort, on peut déterminer que la courbe de rotation de la Voie Lactée, dΘ/dR = -(A+B) = -2.4 ±1.0 km/s/kpc. Cette pente est très faible et donc relativement plate au niveau du Soleil, en accord avec les mesures effectuées en HI à 21 cm. Notons que cette méthode de calcul ne s'applique pas au-delà de la distance du Soleil (Ro) où nous devons trouver des objets dont on connaît la distance et la vitesse radiale pour déterminer leur vitesse de rotation.

Les découvertes de Oort et Zwicky (1932-1937)

En 1932, Jan Oort observa que les étoiles  de la Voie Lactée se déplaçaient plus rapidement que prévu. Pour expliquer cette anomalie, dans un article publié dans le Bulletin of the Astronomical Institutes of the Netherlands (Vol.6, p249), il évoqua la présence de "matière sombre" (dark matter) mais en précisant au conditionnel qu'"il pourrait s'agir d'étoiles ordinaires qui seraient soit sombres ou - en particulier pour la matière proche du centre de la Voie Lactée - cachées à nous derrière les étoiles".

A la même époque et indépendamment de Oort, l'astronome suisse Fritz Zwicky alors en poste au Caltech observa un groupe de 8 galaxies de l'amas de Coma (qui aux dernières estimations contient plus de 36000 galaxies). Il mesura tout d'abord leur décalage Doppler et constata que leur vitesse radiale était de 1019 ±360 km/s alors que les calculs basés sur le théorème du viriel prédisaient une vitesse de dispersion de l'ordre de 80 km/s.

En réalité, la valeur exacte recalculée en 1996 par Matthew Colless et Andrew Dunn (ApJ 458, p435-454) à partir des redshift de 552 galaxies de l'amas de Coma est de 1082 km/s, mais dans les deux cas l'écart atteint un facteur d'environ 13 ! Même si on écarte la galaxie déviant le plus de ce groupe, on obtient encore une vitesse d'environ 706 ±267 km/s au lieu de 80 km/s !

Les acteurs

Jan Oort (~1975), Fritz Zwicky à l'oculaire du télescope Schmidt de 18" (46 cm f/2) du Mt Palomar vers 1940 et Vera Rubin (~1980). Documents Jonathan S.Blair/NGS, ETH Zurich et Vassar College.

Zwicky se douta que ce n'était pas une erreur de calcul et que ce paradoxe apparent cachait probablement une autre réalité. Il décida de confirmer son intuition en calculant la masse équivalente de l'amas à partir de sa quantité de lumière, c'est-à-dire le rapport Masse/Luminosité ou M/L, symbolisé par la lettre Y (la lettre grecque Upsilon en capitale). Pour une vitesse de 1000 km/s, il obient un rapport moyen de 400Y.

Toutefois Zwicky surestima la densité moyenne de l'amas car il utilisa à l'époque une constante de Hubble Ho=558 km/s/Mpc. Si on la corrige avec la valeur actuelle, on obtient un rapport M/L de 50Y.

En 1933, Zwicky écrivit un article en allemand devenu célèbre dans les Helvetica Physical Acta (Vol.6, p110-127) dans lequel il déclara à propos de cette densité moyenne élevée de Coma : "Si ceci est vrai, le résultat surprenant qui en découle est que de la matière sombre est présente en bien plus grande densité que la matière radiative". Il évoqua la "dunkler materie" mais aussi pour la première fois la "dunkle (kalte) materie", c'est-à-dire de la matière sombre et froide.

Toutefois la nature de cette matière n'était pas la même que celle dans son sens moderne qui fut introduite par Bond et son équipe en 1983.

Après plusieurs années de recherches, en 1937 Zwicky obtint d'autres valeurs mais sa conclusion publiée dans l'Astrophysical Journal (ApJ 86, p217) resta la même : "La différence est si grande qu'une analyse ultérieure de ce problème est prévue".

Les travaux de Babcock (1939)

En 1939, Horace Babcock qui fut par la suite directeur des Observatoires des monts Wilson et Palomar étudia la galaxie M31 au moyen du télescope Crossley de 36" (91 cm) de l'Observatoire de Lick et obtint un rapport Masse/Luminosité (M/L) variant entre 20 et 60. Autrement dit la partie visible de M31 représentait entre 1/20e et 1/60e de sa masse totale ! Pour Babcock, la présence de matière sombre était si évidente qu'il ne la cita même pas dans certains de ses articles.

Mais avec l'arrivée de la guerre et l'enrollement de la plupart des scientifiques, le problème de la matière sombre fut oublié dans les archives des magazines et des observatoires pendant plus d'une génération.

Les travaux de Rubin, Roberts et consorts (1970-1975)

Le sujet ne retrouva de l'intérêt et une chance d'être approfondi qu'à partir de 1970, lorsque Vera Rubin et Kent Ford (ApJ, Vol. 159, p379) pour la partie optique du spectre et Morton Roberts pour la partie radio étayèrent les observations de Zwicky et Babcock, déduisant l'existence d'une matière cachée dans le halo galactique et les bras spiralés de la galaxie M31 d'Andromède présentée ci-dessous. Ils estimèrent que cette matière sombre était trois fois plus importante que la masse stellaire.

A voir : Milky Way Rotational Velocity, UNL

D'autres applets sont disponibles sur le site de l'Université de Nebraska-Lincoln

La courbe de rotation de la galaxie M31 obtenue en 1970 par Vera Rubin et Kent Ford par des moyens optiques, complétée en 1975 par les données radioélectriques obtenues par Morton Roberts et Robert Whitehurst. Ces observations appuyent l'idée de Zwicky proposée en 1933 selon laquelle il existe une importante quantité de matière sombre dans les galaxies et leur halo. Document V.Rubin/K.Ford/M.Roberts/R.Whitehurst.

Par la suite, on découvrit que cette matière sombre était constituée de plusieurs composantes, une matière froide et un gaz chaud et était jusqu'à 10 fois plus massive que la matière stellaire, et ce n'était encore que le sommet de l'iceberg ! En effet, en effectuant ces mesures sur des milliers de galaxies relativement proches accessibles aux télescopes de l'époque (situées dans les amas et superamas situés à moins d'un milliard d'années-lumière), on découvrit que l'hydrogène neutre (région HI) représentait entre 109-1010 M soit à peine 5 % de la masse dynamique totale des grandes galaxies spirales et entre 107-108 M soit 40 % de la masse totale des galaxies naines irrégulières !

Grâce au Télescope Spatial Hubble (opérationnel en 1990) et aux nouveaux télescopes géants de la classe VLT (opérationnels depuis 1998), les astronomes ont pu reculer ces mesures jusqu'à une dizaine de milliards d'années-lumière. Bientôt tout l'espace manquait de la plus grande partie de sa masse et les astronomes durent abandonner leurs préjugés concernant leur conception très simple de l'Univers.

Scientifique cherche désespérément une nouvelle théorie

A partir du début des années 1980, les théoriciens, physiciens et cosmologistes, furent contraints de développer de nouvelles théories pour expliquer l'existence de cette matière sombre et invisible qui structure l'Univers et qu'il "tourne" comme il faut. La difficulté est que par définition on ignore la nature de cette matière et étant invisible, sa détection pose un gros problème qui n'est toujours pas résolu. En effet, inventer une théorie autour d'un sujet aussi obscur et impalpable ne facilite pas le travail des chercheurs qui ont sont pratiquement réduits à réaliser des simulations en espérant y trouver des indices grâce auxquels ils pourraient prédire quelque chose d'observable.

Mais pour commencer, comme le fit notamment Leo Blitz et son équipe, il fallut être certain que les courbes de rotation de la Voie Lactée et des autres galaxies étaient correctes car c'est à partir de ces données que sont élaborés les modèles numériques de la distribution des masses dans les galaxies dans le modèle Standard FRW. Seul contrepoint, il existe aujourd'hui une centaine de variantes du modèle FRW (espace Euclidien avec une métrique plane et H constant) et toutes font appel à de la matière et de l'énergie sombres. Parmi les théories qui ont eu un certain succès ou sont toujours d'actualité, c'est-à-dire capables de décrire la plupart des observations mais également de prédire certains évènements, citons :

- Le modèle de la matière sombre, froide ou chaude

- Le modèle de l'énergie sombre constituée de cordes cosmiques

- Le modèle de l'énergie sombre constituée de "défaut de texture".

Ainsi qu'on le constate d'emblée, évoquant des cordes et autres textures, nous sommes déjà loin de la cosmologie du modèle Standard. Déjà à partir d'ici, les chercheurs se divisent en deux camps : ceux qui défendent un modèle d'Univers "classique", obéissant au modèle Standard même dans une version plus complète de la théorie des particules élémentaires, et ceux prêts à sacrifier leur bon sens et leurs acquis pour explorer des domaines en friche et de nouvelles dimensions.

Si nous voulons garder l'esprit ouvert, nous devons au moins examiner toutes les solutions. La nature départagera bien assez tôt le meilleur candidat (et c'est effectivement ce qui s'est produit mais laissons l'histoire se dérouler à son rythme).

1. Le modèle de la matière sombre

Ce modèle cosmologique est également appelé modèle de la matière sombre ou, bien que le terme soit impropre, modèle de la masse manquante[2] bien que ce qualificatif ne soit plus utilisé puisque nous savons que cette composante est bien là mais indétectable.

Ce modèle tente d'expliquer comment l'Univers passa d'un état homogène et isotrope, où les propriétés du milieu variaient peu avec une densité Ω = 1, à une structure si hétérogène aujourd'hui.

Mais le défi est à la mesure de l'Univers : il doit expliquer la formation des galaxies et le fait qu'elles se regroupent en superamas pour tisser une vaste tapisserie sidérale. Il doit en outre conserver les quantités de deutérium et de lithium que l'on observe dans les étoiles; leur rapport ne peut augmenter. Nous en sommes encore très éloigné.

Bien que cette théorie soit mieux acceptée aujourd'hui que dans les années 1980 par exemple, elle reste controversée par certains chercheurs car elle sort uniquement de l'imagination des physiciens théoriciens. En revanche, ils doivent bien admettre que ce modèle et ses dérivés ont le mérite d'essayer d'unifier les quatre forces de la nature. A ce titre, rendons une fois de plus hommage au travail des physiciens et des cosmologistes.

Simulation de la structure de l'univers en tenant de la matière sombre et froide (CDM). Les galaxies et les amas de galaxies s'agglutinent pour former une sorte de maillage sidéral à grande échelle par attraction gravitationnelle. Mais la seule "masse de lumière" n'explique pas cette structure filiforme et noueuse. Il faut tenir compte d'une matière sombre qui demeure invisible aux instruments. Document DEEP/Lick Obs.

En considérant - et c'est ce que nous détaillerons plus loin - que les galaxies et les amas de galaxies sont issus de fluctuations d'énergie survenues quelques cetaines de milliers d'années après le Big Bang, c'est-à-dire au moment où l'Univers devint transparent pour le rayonnement, permettant à la matière de se refroidir et de s'agglomérer, les cosmologistes constatèrent que de petites "rides" de densités ne pouvaient pas former des structures hautement organisées comme le sont les galaxies, un ou deux milliards d'années seulement après le Big Bang.

En fait, à cette époque la matière ordinaire était encore trop chaude et trop diffuse pour former rapidement des galaxies hautement structurées. Seules des petites protogalaxies et des protoétoiles ont pu se former. Aussi les cosmologistes ont-ils inventé une nouvelle composante à côté de la matière ordinaire - la seule visible - qu'ils ont appelé la matière sombre, bientôt complétée par de l'énergie sombre afin que le bilan énergétique de l'Univers reste en équilibre.

Matière froide ou chaude ?

Le modèle de la matière sombre et froide, CDM en abrégé, fut introduit en 1982 par P.James Peebles mais il fut ensuite modifié par plusieurs astronomes, dont Carlos Frenck de l'Université de Durnham[3].

Pour Frenck, toutes les étoiles et les galaxies que nous observons ne sont que la partie émergée dans un océan obscur. Cette matière sombre est dite "froide" car les particules qui la compose se déplacent lentement, à l'instar des molécules d'un gaz qui s'est refroidi.

Nous savons que le rayonnement est en équilibre lorsque le temps des réactions est inférieur au temps d'expansion. Dans le cas contraire il y a découplage des composants et la matière se fige. La matière froide offre une plus grande inertie au mouvement et ses composantes sont donc plus lourdes que les particules rapides, dites relativistes. Leur faible vitesse aurait permis la condensation des protogalaxies.

Simulation de la structure des halos galactiques dans un modèle CDM (à gauche) et HDM (à droite), ce dernier comprenant de la matière sombre d'une énergie de 1.5 KeV. L'image couvre un champ large de 3 Mpc. Noter dans le modèle chaud l'absence totale de matière dans les régions vides. Simulation à N-corps réalisée par Bode, Ostriker et Turok. Document Paul Bode/U.Princeton.

Sans preuve d'une matière "chaude" dans l'Univers, de particules figées alors qu'elles avaient encore une vitesse relativiste, (modèle dit HDM) la théorie CDM a le plus de chances d'être vérifié par l'observation, quitte à ce que certains paramètres ou certaines étapes soit légèrement adaptées pour expliquer la structure en "bulles" de l'Univers à grande échelle, à condition bien sûr que ces corrections ne soient pas faites de manière ad hoc pour la protéger coûte que coûte !

Aujourd'hui, le modèle CDM est intégré à la théorie du Big Bang. Ce modèle d'évolution de l'Univers à partir d'une matière froide est largement accepté au point qu'un physicien le dénomma le "canon". Tous cherchent des particules fantômes qui établiraient la jonction entre les forces de la nature, reliquat de la période quantique.

Mais où se cachent les preuves de l'existence de cette matière sombre ?

Simulations à n-corps de la matière sombre

par Bode, Ostriker et Turok

>

Evolution de deux univers de densité différente intégrant de la matière sombre et froide (images de gauche) ou sombre et chaude (images de droite). Mpeg de 126 Kb de Paul Bode/U.Princeton.

Evolution de 50 galaxies sur une période de 16 milliards d'années en tenant compte de la matière sombre (en bleu et rouge). Le champ couvre environ 1 Mpc. Mpeg de 3.3 Mb. Document Paul Bode/U.Princeton.

Evolution de 100 galaxies sur une période de 10 milliards d'années en tenant compte de la matière sombre dans le halo et intra-amas. Le champ couvre environ 1 Mpc. Mpeg de 2.7 Mb. Doc Paul Bode/U.Princeton.

Les preuves observationnelles

On peut se demander avant toute étude extragalactique, si cette matière est décelable à petite échelle ? Dans un petit volume centré sur le Soleil, on a découvert quelque chose d'étonnant. Dans une sphère centrée sur le Soleil de 5 pc de rayon il existe 61 étoiles. A 10 pc de rayon on en dénombre 300. La masse volumique respective de ces deux sphères est de 0.065 -0.12 M/pc3. Cela signifie que sur une distance très proche, 26 a.l. en l'occurrence, au lieu d'être constante la densité augmente d'un facteur 2. Le même résultat fut déjà obtenu en 1922 par Jacobus C. Kapteyn.

Mais où peut-on trouver cette matière ? Nous pouvons tenter de trouver de la matière dans le halo sphérique qui entoure la plupart des galaxies. Celui-ci contient au moins autant de matière que les galaxies elles-mêmes. Depuis quelques années on a imaginé qu'il existait de nombreuses petites étoiles brunes très sombres ou des mini trous noirs que les détecteurs pouvaient à peine déceler. La masse des petites étoiles oscillerait entre 0.07-0.1 M, celle des mini trous noirs de l'ordre de 0.5 M. Le travail des astrophysiciens consiste maintenant à les localiser sur le fond du ciel. Ces objets peu ordinaires sont appelés des "Massive Astrophysical Compact Halo Objects" ou MACHO[4]. Mais ajoutés aux quelques pourcents de matière visible, il manque malgré tout la plus grande partie de la masse de l'Univers.

On peut envisager la localiser dans l'hydrogène neutre interstellaire qui semble omniprésent. Mais quelle que soit sa forme il ne pourrait contribuer qu'à quelques pourcents de la masse "manquante". Quant au rayonnement, les rayons cosmiques (électrons, protons, neutrinos, etc) ne participent qu'à raison d'un millième de la masse nécessaire et le rayonnement cosmologique qui domina pendant le Big Bang a une masse cent mille fois plus faible que la matière. La masse "manquante" est cachée. Elle existe donc bien et doit se présenter sous la forme d'une matière baryonique quelconque mais qui reste invisible aux yeux des détecteurs actuels, qu'ils soient optique, infrarouge, radio, UV, X ou même gamma.

Comme l'ont compris les pionniers, il existe plusieurs méthodes pour déterminer la quantité de matière sombre présente dans l'Univers :

- Calculer le rapport entre la masse totale des galaxies et leur luminosité

- Calculer le rapport entre la masse totale des galaxies et leur vitesse de rotation

- Calculer le rapport entre la masse totale d'un amas de galaxies et la dispersion des vitesses

- Mesurer la densité du halo X qui entoure les amas de galaxies

- Mesurer l'effet de la distorsion due aux lentilles gravitationnelles (sous l'effet de la matière sombre).

Nous avons déjà évoqué sommairement certaines d'entre elles et nous devons à présent vérifier leur congruence pour élucider le problème que nous pose la matière sombre.

Prochain chapitre

Les effets de la matière sombre

Page 1 - 2 - 3 - 4 - 5 -


[1] Concernant les articles historiques sur la matière sombre lire, F.Zwicky, Pysical Review Letters, 5, 1937, p290 - V.Rubin et K.Ford, "Rotation of the Andromeda Nebula from a Spectroscopic Survey of Emission Regions", ApJ, 159, p379, 1970 - M.S.Roberts et R.N.Whitehurst, ApJ, 201, p327, 1975 - V.Rubin et al., Astrophysical Journal Letters, 225, 1978, L107. Lire aussi S.van den Bergh, "The early History of Dark Matter" ApJ, 1999 - J.P.Ostriker, "Discovery of 'Dark Matter' in clusters of galaxies", ApJ, 525C, pp297-298, 1999 - "M.S.Roberts, "M31 and a Brief History of Dark Matter", 2007 - J.Einasto, "Dark Matter", ApJ, 2011.

[2] Science, 272, 1996, p1426 (Dossier).

[3] C.Frenck, Nature, 317, 1985, p595 - C.Frenck et S.White, Nature, 317, 1985, p670.

[4] M.Pratt et al., “Workshop on Dark Matter in the Universe”, Santa Monica, Feb. 1996.


Back to:

HOME

Copyright & FAQ