dg2

Membre
  • Compteur de contenus

    1 436
  • Inscription

  • Dernière visite

  • Jours gagnés

    6
  • Last Connexion

    Soon available - 42142

Messages posté(e)s par dg2


  1. Il y a 7 heures, edubois3 a dit :

    -a-t-il une zone équivalente pour la galaxie du 2nd plan, zone dans laquelle son image sera plus faible, voire invisible, car la lumière qui devrait s'y trouver est en fait concentrée ailleurs, dans l'anneau d'Einstein autour de la galaxie du 1er plan ?

    Il y a conservation du flux, donc si on focalise la lumière dans certaines directions, on défocalise dans d'autres. Mais en gros la focalisation est importante sur une très petite zone (le voisinage immédiat de l'axe source-lentille-Terre) et la défocalisation est distribuée uniformément partout ailleurs, aussi en pratique est-elle invisible.

    On peut tenter quelques chiffres avec la sphère céleste vue depuis la Terre, et déformée par le Soleil. Un rayon lumineux qui rase le Soleil est dévié de 1,87 seconde d'arc (mesuré par Eddington en 1919 puis Campbell en 1922). Un rayon lumineux atteignant la Terre depuis une étoile perpendiculaire au plan de l'écliptique approche le Soleil d'une distance égale à la distance Terre-Soleil, soit 230 rayons solaire. La déflexion est donc 230 fois moins que précédemment, soit 8 millisecondes d'arc :  c'est la moitié de cet écart (4 mas) qu'elle montre par rapport à la perpendiculaire au plan de l'écliptique puisqu'au moment où on voit l'étoile, la lumière de celle-ci n'a subi que la moitié de sa déviation. Donc en gros la moitié de la sphère céleste située à l'opposé du Soleil est en fait comprimée, son rayon angulaire n'est pas de 90°, mais de 90° - 4 mas. Le disque de chacune de ses étoiles est donc, en moyenne réparti sur une région qui ne fait pas la moitié de la sphère céleste (2 pi stéradian) mais un chouias moins, genre 0,0004 stéaradians de moins, soit un écart relatif de 0,006%. Avec un amas bien plus lointain, l'effet est encore plus faible.

    • J'aime 1
    • Merci 3

  2. Il y a 2 heures, Mercure a dit :

    Accessoirement pour moi 3 c'est plusieurs, mais je ne suis pas woke alors il faut me pardonner

    La subtilité de la remarque de votre interlocuteur a dû vous échapper, donc je vais traduire : un projet à "seulement" trois personnes, ce n'est pas forcément beaucoup en sciences. L'heure est de plus en plus aux grandes collaborations et aux grands projets. Ce n'est pas forcément nécessaire pour répondre à cette question, cela dit.

    • J'aime 3
    • Merci 1
    • Haha 1

  3. Il y a 1 heure, BobMarsian a dit :

    Sinon, comprend-on son côté lisse très peu cratérisé vs Phobos, un vrai champ de bataille fortement fracturé ?

     

    Pour Phobos, il y a je crois deux hypothèses concurrentes :

    • Le gros impact qui a produit Stickney (le plus gros cratère) a fracturé l'astéroïde
    • Les effets de marées de Mars sont en train de le fracturer

    Je n'ai pas spécialement suivi la littérature récente, mais j'ai le souvenir que l'hypothèse 2 est désormais jugée plus crédible car l'alignement des fracture est incompatible avec ce qui résulterait d'un impact, alors qu'elle sont vraiment alignées avec le grand axe de Phobos. Une des conséquences de l'hypothèse n°2 est que Phobos ne s'écrasera peut-être pas sur Mars, il sera désintégré bien avant.

     

    Déimos n'étant sujette à aucune des phénomènes envisagés pour la fracturation, il est normal que son aspect soit bien plus lisse.

     

    À faire confirmer par les planétologues de formation, bien sûr.

    • J'aime 1
    • Merci 1

  4. il y a une heure, jackbauer 2 a dit :

    Un joli cratère à reboucher sous la table de lancement :

     

     

    FuKl3PcWwAIjAt5.jpg

     

    C'est le truc qui me laisse le plus perplexe dans toute cette affaire. Quand je vois les chantiers que représentent la fabrication d'un pas de tir raisonnablement solide (j'ai en tête Soyouz et Ariane 6 à Kourou), avec des durées qui se comptent en années, et des centaines de milliers de m3 de béton, je suis quelque peu surpris par le côté rudimentaire du truc ici, qui à l'évidence devra être reconstruit à chaque lancement (en supposant même qu'il résiste à chaque tir). Quelqu'un a-t-il une idée de ce qui a été annoncé à ce niveau ?

    • J'aime 4

  5. Il y a 2 heures, edubois3 a dit :

    je n'imaginais pas pour autant des orbites aussi larges autour de ce point

    Si vous regardez les orbites des troyens de Jupiter, vous verrez que les excursions sont assez larges autour de L4 et L5.  Mais pour de ce qui est de l'astronautique et des points L1 et L2 terrestres, je pense qu'il y a des aspects liés à la navigation et à la consommation de carburant. La mise en orbite n'a pas de raison de demander autant de carburant en fonction de la taille de l'orbite de halo, par exemple.

    • J'aime 1
    • Merci 1

  6. Il y a 2 heures, edubois3 a dit :

    Une question bête : a-t-on une idée de la distance qui peut séparer les différents satellites qui orbitent là-bas ?

     

     Plusieurs centaines de milliers de kilomètres au minimum, voire plus d'un million. Cela dépend de la taille de l'orbite de halo choisie autour de L2, elle-même déterminée par des paramètres que j'avoue mal connaître (Planck avait une orbite bien moins large que Herschel, par exemple). Au passage, rappelons qu'il serait totalement inutile de se mettre pile au point L2, car dans ce cas la Terre y occulterait presque complètement le Soleil : vu que la Terre est un peu moins de 4 fois plus grosse que la Lune, à 1,5 millions de km de la Terre, la taille angulaire de celle-ci est assez voisine de celle de la Lune vue depuis la Terre à 400000 km de distance. En conséquence, depuis le point L2 on aurait une sorte d'éclipse annulaire en permanence, ce qui serait, hum, préjudiciable pour la production d'énergie avec les panneaux solaires.

    • J'aime 6

  7. Il y a 14 heures, aubriot a dit :

    Je viens justement de lire un article un peu surprenant: "De la matière noire amoncelée sous la forme d’exoplanètes sombres"

     

    Une équipe de physiciens a imaginé un type d’exoplanète totalement en dehors du modèle standard.

    Ils ne l'ont pas vraiment imaginée, ils ont plutôt réfléchi à si on pourrait les détecter si elles existaient. Mais justement, la partie difficile n'est pas au niveau de la détection, c'est que de tels machins existent. Donc le problème évoqué n'a que peu d'intérêt si celui passé sous le tapis n'est pas résolu. C'est un peu comme l'histoire de la planète prétendument habitable dont les découvreurs réfléchissaient déjà à la couleur des feuilles des plantes qui pourraient y pousser... jusqu'à ce qu'on montre que en fait non, la planète n'était pas là.

     

    Au passage, l'auteur de l'article de numerama n'a quand même pas tout compris. Il y a un passage assez savoureux, je trouve :

     

    Tout cela relève exclusivement du domaine de la physique théorique. En premier lieu, parce que ces travaux n’ont pas encore été publiés dans une revue scientifique (et n’ont donc pas été relus par des pairs).

     

    Genre la physique théorique, c'est-à-dire par exemple la relativité et la mécanique quantique, c'est un truc qui n'a jamais été publié dans une revue scientifique. Einstein et consorts apprécieront !

    • J'aime 1
    • Merci 1
    • Haha 5

  8. il y a 1 minute, Kirth a dit :

    Je me demande donc s'il existe des modèles expliquant l'existence de TN supermassifs dans l'univers jeune par des fusions successives de trous noirs plus petits, pourquoi pas des trous noirs primordiaux imaginés par certains.

    Cela fait effectivement partie des quatre ou cinq scénarios pour expliquer l'émergence d'une "graine" bien plus massive à l'origine des trous noirs supermassifs. Si celles-ci faisait quelques milliers de masses solaires et pas quelques dizaines, tous les problèmes d'âge seraient réglés.

    • J'aime 5

  9. il y a 34 minutes, aubriot a dit :

    son modèle big bounce (il le dit lui même ) part du principe qu'il n'y a jamais eu de big bang

    Il faut bien comprendre de quoi on parle. "Pas de Big Bang" = pas de singularité initiale. Mais on sait que la nucléosynthèse a eu lieu, donc que la dynamique de l'expansion est bien celle prédite de longue date depuis la première seconde. Le Big Bounce, s'il a eu lieu, ne se produit qu'au tout début du début de cette première seconde. Rien du déroulé de l'histoire ultérieure n'est affecté par l'existence ou non de ce rebond.

     

    il y a 35 minutes, aubriot a dit :

    ce que l'on observe aujourd’hui dans le passé <11 milliards d'année le modèle actuel ne sait l'expliquer

    D'où sortez-vous cela ? On sait expliquer l'évolution de l'Univers depuis l'époque d'émission du fond diffus cosmologique (380 000 ans après le Big Bang) jusqu'à aujourd'hui. Dans l'intervalle, il n'y a pas grand chose qui ne colle pas aux observations : peut-être que la croissance précoces des galaxies n'est pas comprises, mais l'état actuel l'est. Et l'Univers 380 000 ans après le Big Bang est compatible avec la nucléosynthèse (entre 1s et 3 minutes après l'éventuelle singularité initiale). Un modèle avec rebond qui ne concerne que les périodes antérieures ne change strictement rien à cela. Ce qu'un tel modèle peut apporter, c'est que la nouvelle physique qui produit le rebond (souvent c'est compliquer à implémenter) peut avoir pour conséquence que la matière noire ou l'énergie noire aient telle ou telle nature.

    • J'aime 6

  10. Il y a 5 heures, Mercure a dit :

    Merci DG2, cette histoire de Bicep2 est à la fois confondante et passionnante.

    Cela pourrait faire une excellente série en 3 épisodes mais un public peut-être un peu trop limité empêcherait sans doute sa production.

    L'explication de leur déconfiture est-elle complètement officielle? J'avoue ne pas avoir vu ailleurs qu'aujourd'hui ces informations, qui sont beaucoup plus préoccupantes sur la déontologie qu'une erreur d'interprétation éventuellement liée à un artefact...

     

    Alors, de mémoire, le preprint de l'équipe BICEP2 est ici : https://arxiv.org/abs/1403.3985

    Ensuite vous cliquez sur le petit "v1" pour voir la version fautive, et vous téléchargez le pdf qui va bien : https://arxiv.org/pdf/1403.3985v1

    Sur le pdf, vous allez au paragraphe 9.1, fin p. 12, intitulé "Polarized Dust Projections". En gros, les auteurs en sont au moint où ils ont détecté de la polarisation "intéressante", mais ne savent pas si elle est due au fond diffus (Nobel en vue) ou aux avant-plans de notre galaxie, dont personne à l'époque ne connaît le niveau de polarisation (poubelles de l'histoire en vue). Impossible de savoir depuis le sol : les avant-plans émettent surtout au-delà de 300 GHz, rayonnement rendu inexploitable par la vapeur d'eau de l'atmosphère (raison pour laquelle en interférométrie radio on ne descend jamais en dessous de 1,3 mm, soit 230 GHz ; si on pouvait, on aurait des images bien plus résolues de Sgr A* et M87*). Pour savoir, il faut aller dans l'espace et donc utiliser les données de Planck. Sauf qu'elles ne sont pas encore publiques à ce moment-là.

     

    Les auteurs reconnaissent donc qu'ils n'ont pas les données de Planck et donc qu'ils vont essayer de deviner ce qu'il y aura. Ils se basent sur diverses estimations antérieures (FDS, BSS, LSA et PSM) publiées dans la littérature... et sur des trucs internes à la collaborations Planck, le DDM1 et le DDM2. Qu'est-ce que le DDM2 ? Un truc jamais publié, décrit par les auteurs comme "constructed using all publicly available information from Planck" (ça commence déjà à sentir mauvais), et là les auteurs ne mettent donc pas une référence publiée dans la littérature, mais une note de bas de page (la n°32) qui renvoie sur la présentation dont j'ai extrait une page dans le post précédent : http://www.rssd.esa.int/SA/PLANCK/docs/eslab47/Session07_Galactic_Science/47ESLAB_April_04_11_25_Bernard.pdf . Le lien ne marche plus et ne semble pas non plus archivé sur Internet Archive [edit : une présentation du même gars datée de quelques semaines après est ici : https://www2.mpia-hd.mpg.de/RSF13/archive/day_1/Bernard.pdf ], mais il existe encore une présentation des gens de BICEP2 qui revendiquent très explicitement le truc : https://indico.in2p3.fr/event/9931/contributions/51126/attachments/41399/51300/20140610_clem_apc.pdf (p. 57 et 58).

     

    Baser un article digne du Nobel sur une note de bas de page et non une référence publiée est effectivement quelque peu atypique pour ne pas dire franchement discutable d'un point de vue déontologique. C'est cela qui est curieux, en fait : personne au sein de la collaboration BICEP2 n'a froncé les sourcils. Qu'un chercheur isolé se laisse aller à divaguer ainsi, OK, mais sur une collaboration de plusieurs dizaines de personnes, c'est vraiment surprenant.

     

     

    • J'aime 3
    • Merci 4

  11. Le 15/03/2023 à 22:22, Mercure a dit :

    Biceps?? Ce que j'avais lu à l'époque était une erreur d'interprétation d'un artefact.

    La collaboration BICEP2 avait besoin de disposer de données du satellite Planck pour interpréter leurs propres données, plus précises sur certains points mais pas sur d'autres (impossible d'étudier l'infrarouge lointain depuis le sol en raison de l'absorption atmosphérique de la vapeur d'eau). Ces données n'étant pas publiques et de toutes façons soumises à embargo, ils ont tenté de contourner le problème de façon éthiquement discutable en accédant à des présentations internes à la collaboration Planck, dont certaines étaient accessibles. Sauf que évidemment, les gens de la collaboration Planck savaient parfaitement que tout ce qu'ils pourraient mettre en ligne était susceptible d'être exploité par d'autres. Donc ils ont soigneusement veillé à rendre les données présentes sur leurs présentation inexploitables. Et ils l'ont fait dès le début, sans toujours le dire explicitement, mais en laissant des indices assez "évidents" pour tout chercheur un tant soit peu lucide. 

     

    Premier exemple : dès août 2009, soit trois mois après le lancement, l'ESA avait fait un communiqué de presse pour expliquer que tout allait bien et avait montré un début de carte du fond diffus cosmologique pour indiquer où en était la couverture du ciel :

    Planck_first_light_survey.thumb.jpg.92649da18bfb78fa4a80d1afe2767d83.jpg

    Croyez-vous qu'on pouvait extraire de l'information de ce moignon de carte ? Bien sûr que non. Elle avait été soigneusement dégradée, et pour que les gens comprennent bien que c'était le cas, les données subtilement dégradées étaient même à la fois de moins bonne qualité et incompatibles avec celles de la mission américaine WMAP, lancée en 2003, comme tous les petits malins qui ont essayé de tirer de l'information de cette carte s'en sont rendus compte (plus ou moins rapidement).

     

    Autre exemple, encore plus évident : peut-être vous souvenez-vous de cette carte, qui avait même eu les honneurs du journal Le Monde à l'hiver 2010 (ou 2011 ?).

    The_microwave_sky_as_seen_by_Planck.jpg.aa2b34e380eb201084c069a72807d166.jpg

    C'est joli, n'est-ce pas ? Sauf que si vous projetez cela sur une sphère, vous vous rendez immédiatement compte qu'il y a une discontinuité. Les gens de Planck ont rajouté (a minima) un petit gradient pour indiquer que les données étaient préliminaires et qu'il ne fallait pas s'amuser à en tirer quelque chose.

     

     

    Quelques années plus tard, c'est en gros la même chose que les gens de BICEP2 ont tenté de faire, et se sont plantés dans les grandes largeur. Si vous voulez tout savoir, c'est ce transparent là qui les a perdus :

    image.png.924565c32c9f6eafea1ed7d6b7795580.png

    Le nom de l'auteur et la réunion où il l'a montré sont indiqués. C'est une carte qui montre des données liées à la polarisation du ciel (ce que les gens de BICEP2 étudiaient), sauf que le "Not CIB substracted" indique clairement (et c'était plutôt sympa) que on parle d'un mélange de pas mal de trucs, dont certains non polarisés (CIB = Cosmic Infrared Background). Donc impossible d'en tirer quoi que ce soit relativement à la polarisation galactique vu que deux informations décisives manquant : l'intensité relative du fameux CIB et le degré de polarisation de celui-ci par rapport aux autres avant-plans. En gros, c'est comme si quelqu'un vous dit que sa moyenne pondérée en maths et français est de 10/20. Il a peut-être eu 10/20 en français et en maths, ou alors 5/20 et 15/20, mais même pas forcément. Si les maths sont coefficient 2, alors il peut avoir eu 0 en français et 15 en maths. La seule moyenne ne permet pas de conclure quoi que ce soit. [edit : corrections diverses]

     

    Ensuite, transformer en png un bout de pdf, le déprojeter pour le mettre sur une sphère et en tirer une information statistique, clairement, c'est source de quantités de problèmes supplémentaires (peut-être est-ce cela que vous évoquez avec le terme "artéfact"). Mais ce n'était même pas le plus gros problème, cf. ci-dessus.

     

    • J'aime 5
    • J'adore 1
    • Merci 3

  12. Il y a 6 heures, jmr a dit :

    Naïvement je pensais que tout astrophysicien pouvait parler de cosmologie..., de ce fait quel est le domaine de compétence particulier qu'il est nécessaire d'avoir  pour parler de cosmologie ?

    Si votre médecin généraliste soupçonne que vous avez un glaucome, vous sollicitez l'avis de qui  ? Un kiné ou un ophtalmo ?

     

    Chacun peut parler de ce qu'il veut. Mais se prétendre en mesure d'exercer un regard critique n'a de sens que si l'on sait de quoi on parle.

    • J'aime 8

  13. Le 16/03/2023 à 16:58, iblack a dit :

    Je ne comprends pas pourquoi vouloir ajouter de la complexité. le TUC se suffit à lui même.

    Si vous voulez faire de l'interférométrie radio avec des instruments terrestres et une station sur la Lune, la synchronisation doit sa faire avec une précision qui peut dépasser le milliardième de seconde. À ce niveau de précision, le temps terrestre ne vous suffira pas.

    • J'aime 2

  14.  

    Il y a 4 heures, Daniel Bourgues a dit :

    Alors ce gars là est présenté par la SAF... je pensais donc qu'on pouvait avoir assez confiance... à priori ce ne sont pas dés rigolos ou alors il y a une couille dans le potage...

    Les gens de la SAF sont des bénévoles, pleins de bonne volonté, mais qui peuvent se faire avoir, comme divers journalistes qui se sont déjà faits embobiner par le gars (qui a eu droit à un portrait à sa gloire dans Le Monde. JMBB est plutôt avenant, calme, posé, bref, il fait bonne impression sur la forme. Sur le fond par contre... 

    Il y a 4 heures, Daniel Bourgues a dit :

    mais avec la caution SAF, comment puis-je en juger à mon niveau?

    La bibliométrie. Allez sur le site ADS, tapez son nom, et vous verrez ceci :

    image.png

     

    Ils sont où les articles de cosmologie ? Le gars s'intéresse aux naines blanches et autres variables cataclysmiques, c'est tout. Il a le droit de parler de cosmologie, mais son avis ne sera jamais autorisé puisqu'il n'est pas spécialiste. L'éthique voudrait qu'il se contente de rapporter le consensus de la communauté et qu'il garde son avis pour lui puisque celui-ci ne vaut rien.

     

    Après, on trouve des traces de lobbyisme du temps où il avait ses entrées à Ciel et Espace (temps révolu, fort heureusement).

    image.png.47dc240850ad846a9cc9c1fde04dda56.png 

    (conclusion : les gens qui disent que l'énergie noire existe ont des preuves fausses)

    image.png

    image.png

    (ne voyez-vous pas un schéma qui commence à se dégager ?)

    image.png

    (mon favori niveau titre foireux)

    image.png

    (ou alors il faut revoir son article à lui ?)

    image.png

    (du temps de l'acmé médiatique de Laurent Nottale et sa relativité d'échelle)

    image.png

    image.png

    image.png

    J'arrête là, mais je pense que vous voyez l'idée.

    • J'aime 1
    • Merci 1

  15. il y a une heure, Christophe H a dit :

    Que se passe t'il quand la lumière émise par un objet très lointain franchit localement une zone de propagation d'une onde gravitationnelle?  Est ce que ça produit un effet mesurable? Et si oui, comment l'image d'un objet lointain serait affectée? On peut imaginer que ça dépende de la direction de propagation de la lumière par rapport à l'onde gravitationnelle? 

    C'est mesurable dans le fond diffus cosmologique. Les ondes concernées sont d'une longueur d'onde démesurée, donc elles provoquent une déformation statique mais qui possède des caractéristiques spécifiques.  La recherche de ces ondes gravitationnelles primordiales a donné lieu à un des plus gros ratés scientifiques de la dernière décennie , où des gens ont cru hacker des données non publiques du satellite Planck pour en déduire la présence de ces ondes, visiblement en croyant que personne de la mission Planck n'avait pensé que des indélicats comme eux tenteraient de procéder ainsi.

    • J'aime 2
    • Merci 1

  16. Il y a 3 heures, glevesque a dit :

    Conférence "Histoire critique du Big Bang"

    Conférence prononcée par Jean-Marc BONNET-BIDAUD, astrophysicien au Commissariat à l'Energie Atomique et aux énergies alternatives.

    On a déjà parlé de ce gars là par le passé. C'est le summum de la guignolitude. Zéro connaissance en cosmologie, zéro article scientifique cité dans le domaine (vérifiez), zéro participation à des ateliers, écoles d"été séminaire et, ce qui est pire, zéro déontologie. C'est un peu le Claude Allègre de la cosmologie si vous voulez : un lobbyiste marchand de doute, incapable de convaincre les spécialiste du sujet (normal il n'y connaît rien), mais qui estime que l'important n'est pas qu'il ait raison, mais que les non spécialistes (comme vous) croient que c'est le cas. On pourrait résumer ce gars-à une blague entendue dans les couloirs de son employeur : quelle est la différence entre JMBB et les frères Bogdanov ? Eux au moins ont passé une thèse en cosmologie.

    • J'aime 1
    • Haha 7

  17. il y a 11 minutes, Mercure a dit :

    Sauf erreur de ma part les trous noirs primordiaux ne sont pas encore exclus des candidats au titre de matière noir.

    De plus en plus, car il y a quantité d'intervalles de masses où les trous noirs en question auraient dû laisser une trace observable. Donc ce qu'il reste, c'est l'hypothèse que sur un intervalle très restreint de masse, on ait formé énormément de trous noirs. OK, mais dans ce cas, vous devez... faire appel à de la nouvelle physique pour expliquer par quel miracle, à une époque très ancienne de l'histoire de l'Univers, un phénomène non prédit par les lois de la physique a rendu l'Univers très inhomogène à une certaine échelle, et uniquement à cette échelle-là. Certains modèles d'inflation permettent d'implémenter cela, mais ils sont d'une laideur formelle absolue. Ajoutez à cela que les gens qui n'aiment pas l'hypothèse de la matière noire détestent en général encore plus celle de l'inflation, aussi je ne sais pas si l'hypothèse des trous noirs primordiaux leur plaira tant que cela si jamais ceux-ci devaient être détectés. 

     

    Il n'y a aucune ironie dans cette dernière remarque. Si c'est le côté ad hoc du truc qui déplaît, il en sera de même, à mon avis en largement pire, pour toutes les alternatives envisageables.

    • J'aime 4
    • Merci 1

  18. Il y a 3 heures, Fred_76 a dit :

    C'est comme tenter de trouver la cause d’une nouvelle maladie en n’étudiant que ses symptômes. Tant qu’on n’a pas trouvé si elle est due à un virus, une bactérie, des toxiques… ou n’importe quoi d’autre, on en est réduit qu’à des conjectures en attendant mieux.

     

    Il en va de même de ces deux notions. Ça me fait penser à l’éther de la fin du XIXe siècle. 

     

    Très honnêtement, je trouve l'argument de dénigrer la matière noire par un rappel méprisant à l'éther un peu à côté de la plaque.

     

    L'éther, c'est une tentative d'explication à un phénomène franchement inattendu, qui nécessitait de faire appel à de la nouvelle physique. La matière noire, c'est une tentative d'explication à un phénomène un peu inattendu, qui nécessite de faire appel à de la nouvelle physique. L'éther s'est avéré être une fausse piste ? C'est vrai, mais il a été supplanté par un autre appel à une autre nouvelle physique, la relativité restreinte. Donc quel est le problème en vérité ? Qu'on fasse appel à de la nouvelle physique ? Désolé, mais... il faut effectivement faire appel à de la nouvelle physique, personne ne le conteste. Cela a été le cas à l'époque de l'éther, et c'est aussi le cas aujourd'hui. Même un gars comme JPP, il fait appel à de la nouvelle physique (bien délirante si vous voulez mon avis), pour contourner la problématique de la matière noire. En fait, son modèle Janus, avec un alter ego à la matière ordinaire... EST un modèle de matière noire. La seule question qui se pose, c'est si la matière noire telle que les gens sérieux l'envisagent (je ne parle plus de JPP) est trop "naïve" pour être vraie (comme l'éther), ou déjà réaliste. Si c'est trop naïf, eh bien, peut-être sera-t-elle supplantée par un autre truc, mais celui-ci sera encore plus compliqué. Je me hasarde donc à pronostiquer que ceux qui méprisent la matière noire se lamenteront encore plus qu'aujourd'hui, car ils verront cela comme une rustine encore plus ad hoc. Bref, entre deux maux, il faut choisir le moindre, n'est-ce pas ?

    • J'aime 5

  19. Le 10/03/2023 à 19:45, Skyraph a dit :

    Comment fait-on pour tenir compte de ce phénomène (rougissement du aux poussières) qui si j'ai bien compris peut affecter l'estimation du décalage vers le rouge des spectre, et par conséquent l'estimation des distances et des masses des galaxies?

     

    Quand vous faites de la spectroscopie, vous prenez le spectre complet de l'objet. Vous voyez des raies d'émission et vous déterminez de combien elles sont décalées par rapport aux mesures de laboratoires, vous en déduisez le redshift.

     

    Mais la spectroscopie prend du temps. Donc pour accélérer, on fait juste de la photométrie : on fait des images avec divers filtres (en visible, proche IR et IR lointain par exemple), et via un modèle de ce que peut émettre une galaxie, vous supputez à quel décalage vers le rouge elle est : en général, on a une coupure assez nette dans l'émission en UV, coupure qui se décale dans l'IR à grand redshift. Le problème est que si la galaxie n'émet pas comme on le suppose, l'interprétation ne marche pas, par exemple quand [edit]  la lumière est aussi absorbée avec un  effet de seuil situé ailleurs et moins marqué, mais sans que cela soit visible en photométrie. C'est notamment le cas si la galaxie est riche en poussières. C'est un problème qu'on n'a pas avec les données HST car celui-ci a peu de capacités d'observation en IR, mais avec le JWST c'est crucial. Donc avec les toutes premières données du JWST, la photométrie a repéré des candidats (j'insiste sur le terme) à confirmer par spectrométrie, mais des gens un peu imprudents ont affirmé des choses sans attendre la confirmation. Je précise que à peu près tout le monde a vu ces candidats, c'est juste que l'enthousiasme, le niveau de connaissances, l'expertise en IR, la modestie, a causé des réactions variables entre les uns et les autres. La médiatisation, la vitesse de propagation des avis des uns et des autres, la surreprésentation des avis les plus tranchés, a fait le reste.

     

     

    Le 10/03/2023 à 19:45, Skyraph a dit :

    Sachant que l'on ne connait que les 4-5% de la matière baryoniques? Et que l'on suppose que la matière noire (ou plutôt non visible?) soit transparente et qu'elle n'affecte pas les mesures du redshift.

     

    Si la matière noire n'était pas transparente, cela ferait longtemps qu'on l'aurait détectée via ses interactions avec la lumière. Si on ne voit rien, c'est bien qu'elle st transparente, et à toutes les longueurs d'ondes (soyez assuré qu'on a cherché, cherché, cherché, cherché, cherché). Rien de sorcier à cela, c'est la cas des ondes gravitationnelles et des neutrinos. Sauf que on sait aussi, via d'autres mesures, que ce ne sont pas des neutrinos ou des ondes gravitationnelles.

     

    • J'aime 3
    • Merci 6

  20. Il y a 21 heures, Alain MOREAU a dit :

    On est très très loin de la distance minimum prévue en l'état actuel des estimations, donc je ne sais pas de quel chapeau sort par magie ce risque étrangement élevé ?

    Tous les astéroïdes géocroiseurs font une série de passages proches de la Terre. Il suffit que lors d'un de ces passages la position soit pile celle qui dévie l'astéroïde, et cela rend possible une collision plusieurs décennies plus tard. Ce n'est donc pas en terme de la distance la plus probable à la Terre qu'il faut raisonner, mais en terme de la distance estimée au point critique lors de je ne sais quel passage antérieur. Et là, la relation n'a strictement rien de linéaire.

    • J'aime 3