dg2

Membre
  • Compteur de contenus

    1 436
  • Inscription

  • Dernière visite

  • Jours gagnés

    6
  • Last Connexion

    Soon available - 42142

Tout ce qui a été posté par dg2

  1. Un trou noir né trop tôt ?

    Cher barnabé, votre formule telle quelle est fausse puisque selon qu'on décide d'exprimer les distances en mètres ou en centimètres, on va fatalement obtenir un résultat différent. Donc pour essayer d'en faire quelque chose de juste, il faudrait écrire quelque chose comme M = F X / [4 / 3π ( [(r + r0)/r0] p - (r / r0)p ) ]2 où j'ai noté p votre exposant (de 0, 00000195) et où r0 est une constante qui vaut 1 mètre et X une quantité homogène à... à quoi, en fait ? Car j'ai un problème. Vous dites que "F" est égal à 9,81. Quand on note un truc F, c'est en général une force, mais le "truc" qui est sensé valoir 9,81 ça ressemble plutôt à l'accélération de la pesanteur exprimées dans les unités du Système international, donc 9,81 m/s2. Donc du coup, X est homogène à une masse divisée par une accélération, et vaut miraculeusement 1 dans le système international d'unité. Rien que cette affirmation est bizarre. L'unité de longueur, le mètre a été de façon conventionnelle choisi pour que le quart de méridien terrestre vaille10 millions de mètres, mais on aurait pu choisir une autre convention (les anglais définissent en gros le mile nautique par le fait que le même quart de méridien fait 5400 de ces miles). De même, la définition du kilogramme est prise de façon conventionnelle comme la masse de 1 dm3 d'eau de telle composition à telle température, mais franchement, on aurait pu choisir autre chose (il y a eu de nombreux débats à ce sujet à la fin du XVIIIe siècle, n'hésitez pas à lire ''Mesurer le monde' de Ken Alder). Donc que les constantes qui interviennent dans votre formule soit de façon absolument miraculeuse exactement égale à 1 est pour le moins assez peu crédible. Mais là où j'ai un gros problème, c'est dans le fait que la dépendance en r de la "force" (enfin, de l'accélération de la pesanteur) doit être, en moins en première approximation, en 1 / r2. Et là, ce n'est pas le cas. Amusez-vous à calculer avec votre formule l'accélération à laquelle est sujette la Lune, et vous verrez qu'on est très, très loin de la valeur observée. Pour mémoire, la cinématique de base (rien à voir avec la gravitation) vous dit qu'un objet en mouvement circulaire uniforme doit subir pou conserver cette trajectoire circulaire uniforme une accélération égale à v2 / R, où R est le rayon orbital et v la vitesse.Je vous laisse calculer la vitesse de la Lune (dans les 1 km/s) vu que son rayon orbital R fait dans les 400 000 km. On en déduit que l'accélération correspondante est dans les 0,0027 m/s2. On retrouve bien que l'accélération subie par la Lune est dans les 3700 fois moins importante, comme attendu par le fait que le rapport entre R et le rayon terrestre est de l'ordre de 60 (qui au carré nous donne à peu près les 3 700 suscités). Bref, tout cela pour dire que si la dépendance de la force n'est pas (très, très, très) proche de 1 / r2, vous n'avez aucune chance de retrouver la troisième loi de Kepler qui était déjà le B-A-BA indispensable il y a 400 ans. Ceci étant, je me garderais bien de faire une quelconque application numérique de votre formule car vous annoncez gaillardement que 4/3π= 19,46... Alors je ne sais pas si votre notation ambiguë est (4/3) x π ou 4 / (3 x π), mais dans un cas comme dans l'autre , cela ne saurait en aucun cas faire 19,46...
  2. Venus, grosse annonce à venir!

    Non je ne le pense pas . Mème si la pression est très forte sur venus (9 e6 Pa ) et que la viscosité d'un gaz (CO2 ) augmente avec la pression.(théorie d'Enskog) Le rapport de viscosité avec un liquide est très importante de 6 mini à 300 fois plus élevé . La mobilité ne serait pas gênée sauf si on y ajoute un vecteur vitesse important et donc le frottement dans le gaz serait beaucoup plus important . La puissance dépensée pour se mouvoir rapidement serait importante . (le frottement dépend du carré de la vitesse, et est proportionnel à la densité du gaz, à la surface frontale et de son aérodynamique Cx ) La question à se poser c'est, s'il y a des vents très violents qui règnent sur Vénus, ce qui se rajouterait. Extrapolation : si le gaz ( CO2 ) était supercritique alors sa viscosité est proche d'un gaz mais sa densité est proche d'un liquide et on aurait peut être cette impression de flotter et de se mouvoir facilement Cordialement Êtes-vous sûr de tout cela ?? Reprenons D'après la loi des gaz parfait et le fameux P V = N R T, en passant de la température terrestre (20°, soit en arrondissant 290 K) à cette de Vénus (450 °C, donc 720 K), le produit pression x volume molaire est augmenté de 2,5, et attende que la pression est 90 fois plus grande que la pression terrestre, volume molaire est dans les 90 / 2,5 plus élevé, soit environ 40. Avec une masse molaire de 44 g / mol, on est dans les 1,5 fois celle de l'air ambiant, donc une atmosphère 60 fois plus dense que l'atmosphère terrestre. Ensuite, attention à ce qu'on appelle viscosité. Il y a la viscosité dynamique et la viscosité cinématique, la seconde étant égale à la première divisée par la densité. La viscosité cinématique ne varie pas très rapidement avec la densité et la température, ce qui est une façon de dire que les molécules du gaz considéré (ici du CO2) interagissent individuellement de la même façon quel que soit leur densité. MAIS ce qui nous intéresse, c'est la viscosité dynamique, celle qui détermine les forces de frottement. Et cette quantité là augmente comme le produit de la viscosité cinématique et de la densité. Et c'est assez logique : plus vous avez de molécules, plus vous frottez. Donc avec 40 fois plus de molécules de CO2 à la surface de Vénus, vous allez, mécaniquement, frotter 40 fois plus modulo le fait que la viscosité du mélange O2-N2 est sans doute différent de celle du CO2, mais le facteur dominant c'est le nombre de molécules, 40 fois plus élevé)... Du reste, tout ceci est bien connu depuis les sondes Venera : Le parachute de Venera 8 a fondu à 3 km d'altitude, et malgré 3 km de chute libre la sonde a survécu à son atterrissage (à 16 m/s, lis-je, soit dans les 60 km/h). A partir de Venera 9, le parachute était volontairement largué à haute altitude pour diminuer le temps de descente (afin d'augmenter la durée de vie de la sonde une fois posée). Par comparaison sur Terre, un parachutiste a une vitesse de chute libre de l'ordre de 200 km/h, soit dans les 50 m/s (certes avec une gravité plus élevée). Pour ce qui est du ressenti : Aucune plongée profonde sur Terre n'a été effectuée au-delà de 700 m, soit 70 bars. Donc impossible probablement de survivre à la pression de surface, indépendamment de la température ou de la composition du gaz. L'atmosphère est 60 fois plus dense, soit dans les 70 kg/m^3. C'est relativement peu, la poussée d'Archimède est assez faible (quelques kilos). Mais il y aura une sensation de légèreté du fait de la faible gravité (enfin, si on est dans une capsule qui se pose à la surface). La viscosité est très significativement plus grande que celle de l'air terrestre, mais moindre que l'eau, sans doute suffisant pour rendre les mouvement plus difficiles. Les faibles vents enregistrés en surface sont sans doute liés à cela (au moins en partie).
  3. Venus, grosse annonce à venir!

    Il me semble que c'est là une légende urbaine. Les vapeur de H2SO4 (que je déconseillerais à quiconque de prendre en traitement de n'importe quelle affection) condensent à haute altitude, puis donnent des précipitations, mais celles-ci s'évaporent longtemps avant d'avoir atteint le sol. Je ne pense pas qu'il pleuve en surface. En tout cas, à pression atmosphérique normale, le point d'ébullition est nettement en-dessous de la température au sol (340 °C vs. 450 °C). Alors certes la très haute pression qui règne au sol de Vénus doit élever le point d'ébullition, mais cela ne me semble pas suffisant, d'autant que la viscosité d'une atmosphère aussi dense doit être importante, ce qui rallonge le temps de précipitation et diminue d'autant la possibilité qu'elle ne s'évapore pas avant d'atteindre la surface.
  4. La taille d'Olympus Mons

    A noter que Olympus Mons est effectivement le volcan le plus haut (quoique son altitude exacte, difficile à définir, soit à mon avis inférieure à 22,5 km), mais qu'il n'est pas le plus étendu, étant battu à plate couture par Alba Mons et ses 1600 km de diamètre (c'est la tache rouge la plus septentrionale de la carte altimétrique ci-dessous).
  5. Allons, allons, si je dis que cette citation est attribuée à de nombreuses personnes... c'est qu'elle est attribuée à de nombreuses personnes, n'est-ce pas ? Et ce n'est pas en trois recherches Google que vous aurez la réponse...
  6. Cette citation fait partie de celles attribuées à de nombreux auteurs, mais sauf erreur de ma part, elle est de Niels Bohr (physicien et prix Nobel de son état).
  7. Cérès vu par Dawn

    Si on considère comme probable que la composition rocheuse de Cérès est proche de celle de la Terre il n'y a pas assez, loin de là d'énergie fournie par la désintégration radioactive pour perdurer jusqu'à maintenant. Il en est de même pour Encelade, du reste.
  8. Un autre visiteur estival : 2011ES4

    Divisez le premier chiffre par 1,609 et vous obtenez un truc pile entre les deux autres : ce n'est pas imprécis, mais juste une (énième) confusion d'unités (km vs. miles), à mon avis.
  9. Comme certains d'entre vous le savez, un des sujets les plus chauds du moment en cosmologie concerne la constante de Hubble, dont les mesures "locales" (= directement liée à l'expansion aujourd'hui) sont dans les 5 à 10% supérieures aux mesures plus "globales" (= tenant compte de l'Univers plus primordial, notamment le fond diffus cosmologique). Il ne semble pas y avoir de moyen simple de réconcilier ces deux jeux de mesure, ni d'explication évidente pour que l'un ou l'autre soit inexact (ou, disons, imprécis). L'ESO avait prévu d'organiser une conférence au format ordinaire sur le sujet, qui s'est transformée en conférence virtuelle pour les raisons que vous savez. L'horaire en tout cas n'a pas changé : c'est cette semaine, du lundi au vendredi. Elle sera retransmise si j'ai bien compris en direct sur YouTube. Le programme est sur le site de la conférence, qui donne accès au live YouTube. Si cela vous intéresse, c'est ici : https://www.eso.org/sci/meetings/2020/H0/program.html Le programme d'aujourd'hui (lundi 22) permettra de voir l'état des lieux sur les mesures locales (A. Riess et R. Beaton) et globales (S. Galli).
  10. Oui, et c'est le genre de niveau de précision dont on a sûrement besoin pour tenter de détecter des ondes gravitationnelles de très basse fréquence avec les pulsars. Une erreur de 100 m sur la position du barycentre, c'est une erreur de 0,3 microsecondes dans le détermination des temps d'arrivée rapportés du barycentre du Système solaire (ce qu'on a besoin de faire pour détecter les OG via les irrégularités de ces temps d'arrivée), erreur qui se produit dans une unique direction (en tout cas sur une courte fenêtre d'observation) , exactement comme pourrait le faire une onde gravitationnelle de très basse fréquence. (ou un petit nombre d'entre elles sur de plus grandes échelles de temps). De ce que je comprends, on connaît grâce à la télémétrie de Cassini la position de Saturne avec une précision de 75 m (donc son influence sur la position du barycentre d'un quart de millipoil), par contre c'est beaucoup moins bien pour les autres planètes géantes. On va à (court) terme améliorer la situation pour Jupiter grâce à la télémétrie de Juno, on peut à la rigueur mieux connaître la masse d''Uranus via son influence sur Saturne déduite de la télémétrie de Cassini. Pour les positions de Uranus et Neptune, ça a l'air plus compliqué mais apparemment Gaia pourra aider (je n'avais jamais lu de truc à ce sujet, donc je ne sais pas si c'est un projet ou un truc déjà bien maîtrisé). Ceci dit, à la fin, les gens de NanoGRAV concèdent qu'ils ne pourront connaître la masse de Neptune que par déduction de leurs données alors qu'à la base ils auraient aimé la connaître pour mieux contraindre les ondes gravitationnelles. Ceci dit même sur plusieurs années, on peut dans le contexte de NanoGRAV considérer Neptune comme en mouvement quasi rectiligne et cela est moins gênant.
  11. Un trou noir né trop tôt ?

    C'est un marronnier de la physique extragalactique : des trous noirs trop gros, trop jeunes, ce qui signifie que soit on évalue mal leur masse il existe un processus permettant de former des "graines" très massives il existe un processus leur permettant de grossir très rapidement. Les points 1 et 3 sont possiblement en rapport : d'ordinaire, on considère que l'accrétion est modulée par la limite d'Eddington, qui dit que le flux de masse (et donc la luminosité) est proportionnel à la masse du trou noir, ce qui fait que celle-ci croît au plus vite exponentiellement, avec une constante de temps de 40 millions d'années. Une accrétion super Eddington aurait le double avantage de : permettre au tour noir de grossir plus vite expliquer qu'on surévalue la masse du trou noir en supposant à tort qu'il accrète à un rythme plus lent. De mon point de vue (distant), l'hypothèse 1 + 3 l'emporte sur la 2 dans la littérature actuelle.
  12. Il y a déjà eu un exemple d'étoile disparue entre 2007 et 2015 dans NGC 6946. Apparemment ici, l'étoile "progénitrice" n'est pas la même (supergéante rouge pour NGC 6946 et variable lumineuse bleue ici). Pour rappel ,dans NGC 6946, cela avait donné ça :
  13. La rumeur des ondes gravitationnelles...

    Je pense que ce manque d'attention est normal : L'événement est considéré comme un candidat, pas une détection La probabilité que ce soit un artéfact terrestre est estimée à 3% La distance de l'événement (si c'en est un, donc) est de 4000 Mpc avec une incertitude de 1000 Mpc (six milliards d'années-lumière en profondeur, donc La localisation sur le ciel de 600 degrés carrés, soit à cette distance, une zone de plus de 1000 Mpc de côté Dans ce volume, on doit avoir une énorme palanquée de galaxies Dans ce volume, donc, des gens disent avoir observé un sursaut bizarre Le sursaut a eu lieu plusieurs semaines après l'événement. Comme le sursaut est bizarre ils se disent que c'est peut-être la contrepartie optique tardive d'un événement incertain issu d'une configuration improbable. Tout ressemblance avec la fugacement célèbre étoile KIC 8462852 n'est à mon avis pas complètement fortuite, à moins que ce ne soient avec les canaux martiens.
  14. Je ne pense pas puisque les pose seront de 10 secondes, ce qui limite fortement les risques que le champ soit pollué par quoi que ce soit. Par contre il faudra peut-être plus de nuits d'observation avant d'atteindre les objectifs en terme de magnitude limite vue qu'il y aura peut-être des champs inexploitables. Je suppose qu'il y a déjà de la littérature à ce sujet, donc tout ceci est dit sous toute réserve.
  15. C'est plutôt l'hypothèse de Thomas Buchert, mais en moins pire. Buchert dit que en fait personne ne sait si l'Univers reste homogène à des échelles plus grandes que ce que l'on observe (c'est indiscutable), et il émet des doutes quant au fait qu'un Univers inhomogène à plus grande échelle soit sans conséquence sur la dynamique de la région observable. Son principal résultat est que ces effets d'Univers inhomogène à très grande distance peuvent induire une "constante cosmologique apparente", qui en réalité n'existe pas. Pour lui, la totalité de l'expansion accélérée observée pourrait être liée à cela, ce qui ne convainc pas grand monde, sauf ceux qui n'aiment pas la constante cosmologique. Mais il rajoute qu'il y a certainement un risque qu'un effet de ce type existe, quelle que soit son amplitude. Et là, ce n'est pas que personne ne le croit, mais que personne n'a envie que cela soit vrai car prendre en compte ceci dans les simulations compliquerait singulièrement la tâche. L"hypothèse de mon message ci-dessus est moins extrême, mais du même type : il n'est pas clair que la façon dont un modélise l'Univers qui au départ était un milieu parfaitement homogène et en expansion, reste une modélisation acceptable dès un redshift situé quelque part entre 1000 et 10. Et en particulier, il n'est pas exclu que ces effets ne soient pas dépendant de la résolution. Le fond diffus qui nécessite au max une fraction de minute d'angle pourrait être mieux loti par effet de moyennage que des objets ponctuels situés dans des "faisceaux" bien plus fins dont la propagation pourrait être altérée plus que ce que l'on croit lors de leur propagation dans le milieu intergalactique (effets de lentille plus important, par exemple, qui causerait des erreurs systématiques sur la photométrie et fausserait la mesure des distances). Mais en l'absence d'orateur, il est difficile de se prononcer sur l'importance de la remarque. C'est dommage, une revue sur le sujet aurait été un plus.
  16. Quelques remarques personnelles sur ce que je n'ai pas vu / entendu : Pour un modèle donné, l'âge de l'Univers est inversement proportionnel à H0. Si vous prenez une valeur haute comme Riess et ses céphéides, il n'est pas exclu que vous finissiez à être en désaccord avec l'âge de certaines très vieilles étoiles. Donc les valeurs "hautes" de H0 pourraient très bien se fracasser sur un écueil de ce type, à supposer que les âges soient estimés avec une précision acceptable (aucune idée si c'est le cas). Il y a une alternative quelques fois évoquée mais pas abordée ici : quand on modélise l'Univers, on fait l'hypothèse que c'est un Univers homogène et isotrope en expansion, et avec de petites fluctuations, qu'on modélise avec une technique classique de linéarisation (plus termes non linéaires au besoin). Mais en fait à aucun moment on ne démontre que cette approximation est OK dans le cadre de la relativité générale. Bref, on a ici pensé à regarder si les observations étaient en erreur, si la recette cosmique était en erreur, mais n'a pas été abordée l'hypothèse que le formalisme sous-jacent soit en erreur. C'est un point qui a déjà été regardé, mais dont l'effet exact est pour l'instant impossible à quantifier parce que c'est très compliqué. Je ne pense pas que beaucoup de gens seraient heureux de cette issue, qui pourrait ajouter une grosse couche de complexité aux simulations de formation des structures ou autre, mais cela reste une possibilité.
  17. Dernier intervenant, Raphael Flauger sur le futur de l'observation du fond diffus. Ce qu'on fait déjà : les fluctuations de température, observées de façon optimale : l'époque d'émission est dite à 380000 ans après le Big Bang, mais en fait ça s'étale sur plusieurs dizaines de milliers d'années avant et après, donc en gros (c'est pas tout à fait ça mais c'est l'idée), on a un énorme bougé. On ne voit rien à petite échelle angulaire à cause de ça. On dispose déjà de la carte "ultime", avec un niveau de bruit qui n'est pas parfait, mais on sait qu'on ne grattera pas grand chose de plus. Ce qui manque : la polarisation. Le rapport signal sur bruit des données est mauvais, le contrôle des avant-plans aussi, la résolution imparfaite, etc. Enfin, ce n'est pas "mauvais" dans l'absolu, mais nettement perfectible. Par exemple, on peut encore améliorer la résolution d'un facteur trois et mieux tester diverses explications citées par V. Poulin hier. On peut aussi espérer observer la trace d'ondes gravitationnelles primordiales, mais cette fois à grande échelle angulaire (cf. la tristement célèbre annonce de BICEP en 2013). Revue des projets du moment '("Stage 3", ou S3) : projets au sol, focalisés sur la mesure de la polarisation. Selon qu'on s'intéresse aux grandes ou petites échelles, le design de l'instrument est très différent : on ne peut pas tout faire avec un seul instrument. La problématique couverture du ciel vs. profondeur se pose autant que pour les observations en optique (cf. exposé de E. Krouse). Il passe maintenant au futur, le projet anonymement baptisé S4 (stage 4, si vous avez suivi). Manip au sol en opération en 2028-2035, puis mission japonaise LiteBird lancée en 2028 (?). Cette dernière aura une faible résolution, donc sera dédiée à la recherche des OG primordiales. La raison est que le contrôle des avant-plans est ce qui prime, donc nécessité d'aller dans l'espace au détriment de la résolution angulaire (difficile de faire les deux dans l'espace à cause du volume de données et de la télémétrie). Il revient sur les performances de ces projets pour la mesure de H0 : incertitude (en km/s/Mpc) de 0,6 pour le meilleur projet S3, jusqu'à 0,2 avec S4. Si jamais il faut ajouter un ingrédient ou deux à la recette cosmique (neutrinos, etc, cf V. Poulin), S3 reste aussi bien (incertitude de 0,6), les S4 se dégradent, conséquence des choix sur lesquels ils arrêtent la stratégie d'observation. Bref, ce sera mieux demain.
  18. C'est au tour de Elisabeth Krause de parler des projets de détermination des propriétés de l'énergie noire. De très nombreux projets : CFHTLS, COSMOS, DLS (terminés), KiDS, DES, HSC (en cours), Euclid, Vera Rubin Observatory (ex LSST), Nancy-Grace-Roman Space Telescope (ex WFIRST) En couverture du ciel, Euclid et VRO dépassent largement le reste (première lumière en 2023 et 2027 respectivement). Elle passe un peu trop rapidement pour que je suive sur les types d'observations faites (ou favorisées) par les différents relevés : cisaillement, catalogue, lentilles. Pas mal de points techniques sur le nerf de la guerre, à savoir non pas l'argent, mais l'estimation et le contrôle des incertitudes. Elle passe au détail ce que fera le NGRST (lancement prévu en 2025), dont la stratégie d'observation est encore en cours d'élaboration. Comme toujours, la question est de trouver meilleur compromis entre la couverture du ciel (nbre de degrés carrés observés) et la profondeur du relevé (redshift maximum pour la classe de galaxies cibles. Le choix est d'autant plus complexe à faire qu'à un moment ou un autre, il est important de comparer avec d'autres relevés, et donc d'avoir une couverture du ciel qui chevauche celle des autres relevés, mais cela limite la magnitude max, etc nuit à la calibration interne de la manip. C'est de la cuisine interne, mais c'est essentiel pour obtenir les meilleurs résultats possibles. Elle passe (rapidement) en revue la problématique du côté du VRO et avec un peu plus de détail celle de Euclid. et revient au NGRST. Un peu trop technique/rapide pour faire un compte-rendu live. Sa conclusion est le truc que j'ai souligné : on va avoir de très gros relevés, de très gros volume de données, et comme le disent les physiciens des particules, "precision is difficult".
  19. Deuxième intervenant, Stefano Casertano(du STScI) sur le JWST. Il rappelle (comme l'intervenante d'avant aurait pu le faire) que ces gros instruments ne vont pas faire de gros relevés, mais observer des cibles plus spécifiques. Ils ne vont pas participer à des programmes de type DESI ou autre. Rappel des performance du JWST : de la bande R (0,6 microns min) à plus de 30 microns. Pb actuels avec les céphéides : calibration locale (améliorables avec Gaia), petitesse de l'intervalle où on peut étudier céphéides et SN Ia. Céphéides les plus éloignées étudiées par SH0ES (Riess) : NGC 5468 à 42 Mpc. En fait on peut déjà observer des céphéides dans l'amas de Coma, mais au pris de 100 orbites HST (je ne sais pas quel temps d'observation par orbite). Ex. : on a trouvé des céphéides dans NGC 4291. Pour résumer, le JWST fera à 100 Mpc ce que le HST fait à 40 Mpc. Pb quand même : difficile de trouver des céphéides en IR, donc le HST servira en complément à ça (rappel le HST détecte aussi en UV). a priori, le HST est en bonne forme pour pouvoir fonctionner jusqu'en 2030. Sinon, il est d'accord que le problème de pollution des céphéides par les autres objets du champ est réel. Il insiste sur le fait qu'un instrument genre JWST va avoir une énorme pression niveau demande, donc tout ce qui n'est pas indispensable à faire avec le JWST gagnera à être fait ailleurs, et vraiment réserver le JWST au reste. C'est évident, mais on ne l'a pas entendu lors de l'exposé précédent. Il passe maintenant à ce qu'on peut faire de mieux avec la méthode TRGB (extrémité de la branche des géantes rouges sur le diagramme HR). Apparemment, l'apport du JWST est moins fort mais je n'ai pas bien compris la raison. A l'inverse, le JWST est plus intéressante pour les Mira, parce qu'il va bien plus loin en IR, surtout pour les Mira les plus brillantes (qui sont plus rouges). En terme de temps d'observation, il faut 1 h de JWST pour une Mira à 50 Mpc (plus plusieurs époques pour faire la courbe de lumière bien sûr). Par contre la recherche prendra beaucoup de temps. Autre apport, les lentilles/images multiples car avec le gain en résolution on reconstitue bien mieux le profil de masse.
  20. C'est parti pour la première intervenante, Giuliana Fiorentino. Rappel du calendrier : l'ELT de l'ESO a une première lumière prévue en 2025, puis 2027 pour le TMT et 2029 pour le GMT, tous en construction. Elle passe diverses images du site de l'E-ELT (déjà postées ici). Elle passe aux instrument de 1ere génération : MICADO et MAORY MICADO : imageur/spectro (bande I,J,H,K - en IR donc). Taille pixel : 0,0015" ou 0,004" Champ : 20x20 minutes ou 50x50'. MAORY est le système d'AO. Pas spécialiste du truc, donc difficile de suivre, mais les simulations des performances sont remarquables. Elle compare ce qu'on peut faire avec un 8m et un 40m ( et un HST). Apparemment, il y a les "single conjugate" et "multi conjugate" système d'optique adaptative. Apparemment le gain est très important, surtout en terme de photométrie (car moins de pollution des objets proches, j'imagine, cf. exposé de Riess lundi ou mardi). Autre avantage : on pourra bien mieux déterminer la métallicité des cibles observées en spectro IR (bande J), qui sont une possible source de biais pour ce qui est des céphéides. L'apport des ELT sur la problématique de la conf : les céphéides, sur des distances de 7 à 40 Mpc. D'ordinaire on ne voit pas de céphéides plus loin, mais là oui, ce qui évitera en principe de calibrer les supernovae sur les céphéides : on fera tout avec les céphéides. Petite comparaison au passage des performances optiques ELT vs. JWST (ça ne fait jamais de mal de dire qu'on est meilleur que la concurrence). Retour à la problématique de la détermination de H0 avec les céphéides. Un instrument tel l'ELT permettra aussi de mieux déterminer l'amplitude de variation des céphéides (elle parle presque exclusivement de photométrie, en fait), toujours grâce au meilleur pouvoir séparateur. Bref, ce qui importe pour la problématique n'est pas ici le gain en flux, mais en résolution. Elle finit son intervention sur ce qu'on peut faire de mieux, cette fois parce qu'on recueille plus de flux : étudier les céphéides jusqu'à 100 Mpc (objectif avoué : aller jusqu'à l'amas de Coma).
  21. Bon, voici le programme de cette dernière journée, qui apportera des réponses à ce qu'évoquait Superprospecteur lundi dernier : que peut-on attendre des années à venir? En premier, Giuliana Fiorentino va parler des mesures de distances à l'ére des E-ELT. Ensuite, Stefano Casertano va faire pareil mais pour ce qui concerne le JWST Après, Elisabeth Krause va parler des projets futurs de sonder les propriétés de l'énergie noire Enfin, Raphael Flauger parlera des manips futures d'observation du fond diffus, dont les fluctuations de température sont déjà observées de façon optimales, mais pas les fluctuations de polarisation. A priori, ce sera plus reposant que les autres jours, avec de nombreuses promesses (sincères) de lendemains qui chantent.
  22. Bon, dernière intervention de la journée d'hier, Vivian Poulin, sur diverses pistes théoriques pour expliquer l'anomalie. Spoiler : il n'y a pas de solution satisfaisante qui se détache de la (grosse) foule d'explication proposées Petit rappel : on peut toujours avec le fond diffus tirer les paramètres pour avoir une valeur plutôt haute de H0, mais dans ce cas, on va être en tension avec les BAO ou le reste. Le pb n'est pas avec UNE manip, mais leur combinaison. Il propose une autre façon de voir les choses : ce qu'on peut mesurer n'est pas la H0 mais l'horizon sonore, et on retrouve la même chose : les proxies locaux (cisaillement à ne voient pas la même valeur de cet horizon sonore. Une possibilité de résoudre les tensions est donc de trouver un moyen de faire grandir l'horizon sonore plus vite entre z = 25000 et 1000, de sorte que notre analyse se basant sur une croissance plus lente se sera en fait trompée sur sa vraie valeur (j'espère que je suis clair ?!). Des pistes simples : l'horizon sonore dépend du degré d'interaction entre les photons et la matière mais aussi entre matière noire et photons. Quand on joue avec cela, ça ne marche pas car la structure à plus petite échelle de la carte ne convient pas. Autre possibilité : supposer qu'on a mal évalué l'époque d'émission du fond diffus. Si on le voit plus récemment, la taille angulaire des structures change. Ca ne marche pas un peu pour la même raison (je résume, c'est un poil plus technique en vrai, mais l'idée est que l'on observe une carte avec des structures à toutes les échelles. Changer la physique qui affecte la granularité la plus évidente n'est pas sans conséquence sur tout le reste). Pour que ça marche, il faut changer simultanément deux trucs : la constante de structure fine (l'intensité de la force électrique, en gros) ET la masse de l'électron. Ca fait beaucoup. Et même avec ça, on réduit la tension plus qu'on ne l'annule complètement... tout en créant une tension avec les BAO. Dernière possibilité (par élimination) : changer l'histoire de l'expansion entre z = 25000 et z = 1000., ce qui implique changer le contenu matériel de l'Univers à cette époque, ou changer la façon dont elles sont diluées par l'expansion. L'hypothèse canonique est de supposer qu'il n'y a pas trois espères de neutrinos dans l'Univers, mais un autre nombre (ou que l'abondance des trois espèces ne suit pas la loi attendue quand tout ce petit monde est en équilibre thermique avec tout le reste). Du coup, une autre hypothèse est de supposer qu'en pus de matière noire, il y a aussi de la "radiation noire" (espèces se déplaçant à la vitesse de la lumière sans interagir avec rien). Mais dans ce cas, il faut que ladite radiation noire interagisse avec la matière noire. -> on rajoute un truc, et au final, on doit en rajouter un 2e. Autre hypothèse : pour une raison transcendantale, les neutrinos interagissent entre eux longtemps après qu'il devraient avec cessé de le faire. Aucune justification à cela dans le cadre du modèle standard, mais cela donne des résultats intéressants... mais surtout cela nécessite d'avoir un 4e neutrino, avec des masses qui commencent à être sévèrement en tension avec les limites supérieures sur les masses mesurées en laboratoire (aujourd'hui). Il évoque ensuite l'autre recette canonique pour essayer de s'en sortir. Rappel, les distance croissent au cours du temps, c'est l'expansion de l'Univers, on appelle a, ou facteur d'échelle, le truc qui croît proportionnellement aux distances. La matière est diluée par l'expansion, sa densité décroît inversement proportionnellement au volume, donc 1 / a^3. Pour al radiation, c'est pareil, sauf que l'énergie des photons décroît elle aussi puisque l'expansion étire leu longueur d'onde, donc la densité d'energie va en 1 / a^4 . Pour bidouiller la loi d'expansion, on a besoin d'un truc de densité d'énergie au départ négligeable, mais qui décroît moins vite que le reste (en 1/ a^2 par exemple), mais qui après doit disparaître, donc décroître plus vite, genre en 1/a^5. Il existe une entité qui peut faire cela, c'est un truc appelé champ scalaire, donc la densité d'énergie décroît selon les situation en 1/a^0 (donc elle est constante) et 1/a^6. Le problème c''est qu'il faut ajuster la dynamique de ce truc pour qu'il entre en scène à la bonne époque et qu'il en disparaisse assez rapidement après pour ne plus jamais jouer de rôle. Il essaie de résumer les avantages et les inconvénients des différentes pistes évoquées (warning : il travaille sur celle sur laquelle il voit le plus d'avantages). Ca donne cela : Bref après s'être convaincu que les observateurs bossaient tellement bien que c'étaient les théoriciens qui avaient loupé un truc, quand on écoute les théoriciens, on se dit que c'est probablement les observateurs qui se sont plantés.
  23. Le rendu dépend des filtres utilisés pour la prise de vue et leur conversion en RGB, donc difficile pour moi de vous en dire plus sans ces informations, mais si on montre les bandes V à IR, l'effet de la raie Lyman alpha n'apparait pas, et de toute façon si les galaxies d'arrières plan ne sont pas à z > 2, l'effet ne se voit pas non plus. Je profitais de l'occasion de montrer l'image pour illustrer le cisaillement pour poser cette petite colle (en supposant implicitement que l'image était assez proche de la sensibilité de l'oeil), à laquelle la plupart des étudiants ne trouvent pas la réponse. Donc aucune malice de ma part : c'était une question amusante, mais difficile.
  24. Outre les illuminations superfulgurantes : effet Sachs-Wolfe (comme semble le suggérer aussi PascalD ?) ou l'effet est-il encore négligeable à cette échelle ? Sinon, je ne vois pas... L'effet que vous citez est effectivement l'effet Sachs Wolfe, dont l'amplitude est de 10^-5. Important (essentiel même) pour le fond diffus, mais négligeable ici. L'autre effet est en fait une conséquence de l'effet cité par super Super : beaucoup d'étoiles jeunes, donc beaucoup d'UV qui ionisent l'hydrogène, qui va se recombiner en émettant entre autre un photon Lyman alpha. Ledit photon a une longueur d'onde de 121 nm, donc largement dans l'UV.... sauf quand la galaxie a un redshift qui dépasse 2 et quelques, ce qui fait entrer la raie dans la bande visible du côte du violet.
  25. Bon, troisième orateur, Julien Lesgourgues, qui va parler du fameux horizon sonore. L'horizon sonore est le nom que les gens qui étudient le fond diffus cosmologique au même truc que les gens qui font des catalogues de galaxies appellent les BAO. Visuellement, cet horizon sonore correspond à la granularité que l'on voit sur les cartes du fond diffus : En gros, cet horizon sonore n'est rien d'autre que la distance parcourue par une onde sonre (= de densité) entre le Big Bang et 380000 ans plus tard. Elle dépend de la quantité de matière orinaire (qu'on peut ramener au nombre actuel de protons + neutrons par mètre cube), la quantité de matière noire et H0. En un sens, le pb est très simple : on s'intéresse juste à une onde de densité qui se propage dans un milieu pas franchement dense, pas franchement chaud et qui se refroidit lentement. Sauf à imaginer qu'il y a des formes d'énergie inconnues, il n'y a pas d'autres paramètres libre. Le résultat de cette investigation, c'est qu'on trouve les valeurs des trois paramètres, avec une valeur "basse" de H0 (dans les 67 km/s/Mpc). Peut-on tester que tout cela marche bien ? Oui, car en plus de H0 , on connait les densités de matière ordinaire et matière noire. La densité de matière baryonique peut être déterminée de façon complètement indépendante par la nucléosynthèse : la fraction de deutérium qui suit à la nucléosynthèse est fonction de la seule densité baryonique. La fraction de deutérium est désormais très bien déterminé, ce qui donne une estimation indépendante de la densité baryonique à 1% compatible avec le fond diffus. La densité de matière noire (ou plutôt sa contribution au bilan énergétique total) est bien déterminé (avec des incertitudes plus ou moins grandes) par quantité d'autres observations comme les BAO ou les supernovae. Donc on peut retourner le pb dans tous les sens, hormis H0 les quantités déterminées par le fond diffus sont confirmées par d'autres jeux de données (là où les céphéides que donnent que H0 au passage, sans test d'autocohérence avec d'autres paramètres Il donne pas mal de points un peu techniques, mais qui visent à expliquer qu'on comprend vraiment bien la physique à l'oeuvre, et qu'est ce qu'on peut mesurer avec ceci ou cela. Grosso modo, tout ce qui concerne les catalogues de galaxies donne la même valeur de H0 que le fond diffus. Il commence à expliquer comment on pourrait s'en sortir : on mesure l'horizon sonore, mais la physique qui le détermine est plus complexe. En gros, on rajoute une forme d'énergie (de l'énergie noire qui ne se manifeste que temporairement, des neutrinos exotiques, etc). Mais c'est là que ça se complique. On peut par exemple rajouter des neutrinos, ça marche un peu, mais il faut alors que ces neutrinos aient de faibles interactions avec la matière ordinaire, ou alors des interactions plus intenses avec la matière noire. On peut aussi rajouter une forme d'énergie noire qui a un effet entre qqes milliers d'années et 380000 ans après le Big Bang mais qui disparaît peu après. Bref tout ces modèles sont assez tordus.