dg2

Membre
  • Compteur de contenus

    1 436
  • Inscription

  • Dernière visite

  • Jours gagnés

    6
  • Last Connexion

    Soon available - 42142

Tout ce qui a été posté par dg2

  1. Une bonne nouvelle pour terminer la journée : la justice a donné raison aux anciens de S & V, partis fonder Espiloon, contre Reworld Media : https://www.lemonde.fr/economie/article/2023/06/07/reworld-media-perd-ses-proces-intentes-contre-des-anciens-de-science-vie_6176626_3234.html
  2. Anneau d'Einstein et arc-en-ciel

    Il y a conservation du flux, donc si on focalise la lumière dans certaines directions, on défocalise dans d'autres. Mais en gros la focalisation est importante sur une très petite zone (le voisinage immédiat de l'axe source-lentille-Terre) et la défocalisation est distribuée uniformément partout ailleurs, aussi en pratique est-elle invisible. On peut tenter quelques chiffres avec la sphère céleste vue depuis la Terre, et déformée par le Soleil. Un rayon lumineux qui rase le Soleil est dévié de 1,87 seconde d'arc (mesuré par Eddington en 1919 puis Campbell en 1922). Un rayon lumineux atteignant la Terre depuis une étoile perpendiculaire au plan de l'écliptique approche le Soleil d'une distance égale à la distance Terre-Soleil, soit 230 rayons solaire. La déflexion est donc 230 fois moins que précédemment, soit 8 millisecondes d'arc : c'est la moitié de cet écart (4 mas) qu'elle montre par rapport à la perpendiculaire au plan de l'écliptique puisqu'au moment où on voit l'étoile, la lumière de celle-ci n'a subi que la moitié de sa déviation. Donc en gros la moitié de la sphère céleste située à l'opposé du Soleil est en fait comprimée, son rayon angulaire n'est pas de 90°, mais de 90° - 4 mas. Le disque de chacune de ses étoiles est donc, en moyenne réparti sur une région qui ne fait pas la moitié de la sphère céleste (2 pi stéradian) mais un chouias moins, genre 0,0004 stéaradians de moins, soit un écart relatif de 0,006%. Avec un amas bien plus lointain, l'effet est encore plus faible.
  3. Stabilité du Système solaire

    La subtilité de la remarque de votre interlocuteur a dû vous échapper, donc je vais traduire : un projet à "seulement" trois personnes, ce n'est pas forcément beaucoup en sciences. L'heure est de plus en plus aux grandes collaborations et aux grands projets. Ce n'est pas forcément nécessaire pour répondre à cette question, cela dit.
  4. Objectif Mars en 2021 pour les E.A.U.

    Pour Phobos, il y a je crois deux hypothèses concurrentes : Le gros impact qui a produit Stickney (le plus gros cratère) a fracturé l'astéroïde Les effets de marées de Mars sont en train de le fracturer Je n'ai pas spécialement suivi la littérature récente, mais j'ai le souvenir que l'hypothèse 2 est désormais jugée plus crédible car l'alignement des fracture est incompatible avec ce qui résulterait d'un impact, alors qu'elle sont vraiment alignées avec le grand axe de Phobos. Une des conséquences de l'hypothèse n°2 est que Phobos ne s'écrasera peut-être pas sur Mars, il sera désintégré bien avant. Déimos n'étant sujette à aucune des phénomènes envisagés pour la fracturation, il est normal que son aspect soit bien plus lisse. À faire confirmer par les planétologues de formation, bien sûr.
  5. C'est le truc qui me laisse le plus perplexe dans toute cette affaire. Quand je vois les chantiers que représentent la fabrication d'un pas de tir raisonnablement solide (j'ai en tête Soyouz et Ariane 6 à Kourou), avec des durées qui se comptent en années, et des centaines de milliers de m3 de béton, je suis quelque peu surpris par le côté rudimentaire du truc ici, qui à l'évidence devra être reconstruit à chaque lancement (en supposant même qu'il résiste à chaque tir). Quelqu'un a-t-il une idée de ce qui a été annoncé à ce niveau ?
  6. Si vous regardez les orbites des troyens de Jupiter, vous verrez que les excursions sont assez larges autour de L4 et L5. Mais pour de ce qui est de l'astronautique et des points L1 et L2 terrestres, je pense qu'il y a des aspects liés à la navigation et à la consommation de carburant. La mise en orbite n'a pas de raison de demander autant de carburant en fonction de la taille de l'orbite de halo, par exemple.
  7. Plusieurs centaines de milliers de kilomètres au minimum, voire plus d'un million. Cela dépend de la taille de l'orbite de halo choisie autour de L2, elle-même déterminée par des paramètres que j'avoue mal connaître (Planck avait une orbite bien moins large que Herschel, par exemple). Au passage, rappelons qu'il serait totalement inutile de se mettre pile au point L2, car dans ce cas la Terre y occulterait presque complètement le Soleil : vu que la Terre est un peu moins de 4 fois plus grosse que la Lune, à 1,5 millions de km de la Terre, la taille angulaire de celle-ci est assez voisine de celle de la Lune vue depuis la Terre à 400000 km de distance. En conséquence, depuis le point L2 on aurait une sorte d'éclipse annulaire en permanence, ce qui serait, hum, préjudiciable pour la production d'énergie avec les panneaux solaires.
  8. la fin de la matière noire .....

    Ils ne l'ont pas vraiment imaginée, ils ont plutôt réfléchi à si on pourrait les détecter si elles existaient. Mais justement, la partie difficile n'est pas au niveau de la détection, c'est que de tels machins existent. Donc le problème évoqué n'a que peu d'intérêt si celui passé sous le tapis n'est pas résolu. C'est un peu comme l'histoire de la planète prétendument habitable dont les découvreurs réfléchissaient déjà à la couleur des feuilles des plantes qui pourraient y pousser... jusqu'à ce qu'on montre que en fait non, la planète n'était pas là. Au passage, l'auteur de l'article de numerama n'a quand même pas tout compris. Il y a un passage assez savoureux, je trouve : Tout cela relève exclusivement du domaine de la physique théorique. En premier lieu, parce que ces travaux n’ont pas encore été publiés dans une revue scientifique (et n’ont donc pas été relus par des pairs). Genre la physique théorique, c'est-à-dire par exemple la relativité et la mécanique quantique, c'est un truc qui n'a jamais été publié dans une revue scientifique. Einstein et consorts apprécieront !
  9. la fin de la matière noire .....

    Une particule de matière noire étant non collisionnelle, elle ne peut émettre de rayonnement (d'où le "noir") et donc ne peut perdre d'énergie. Si elle est en orbite autour d'un astre, quel qu'il soit, elle restera indéfiniment sur cette même orbite, sans que celle-ci ne s'use au cours du temps. Or pour tomber sur un trou noir, il faut dissiper énormément d'énergie (une fraction non négligeable de son m c2), ce qui rend d'autant plus improbable sa capture. Bien sûr une particule sur une trajectoire purement radiale tombera dans un trou noir mais cela représente un flux totalement négligeable. Pour rappel, il y a beaucoup moins de matière noire que de matière ordinaire dans le centre des galaxies (précisément parce que la matière noire n'est pas collisionnelle et ne tombe pas spécialement au centre), donc il y a aura toujours un flux considérablement plus important de matière ordinaire que de matière noire, même sur des trajectoires purement radiales, trajectoires qui correspondent à un apport négligeable par rapport à l'accrétion suite à des processus dissipatifs.
  10. la fin de la matière noire .....

    Cela fait effectivement partie des quatre ou cinq scénarios pour expliquer l'émergence d'une "graine" bien plus massive à l'origine des trous noirs supermassifs. Si celles-ci faisait quelques milliers de masses solaires et pas quelques dizaines, tous les problèmes d'âge seraient réglés.
  11. la fin de la matière noire .....

    c'est effectivement mal dit. La question devrait plutôt être : comment un objet a-t-il pu grossir aussi rapidement ? La problématique est connue depuis des lustres : dans un régime d'accrétion stationnaire, il semble qu'il y ait une limite au flot de matière qui entre dans un trou noir, et qui l'empêche de faire mieux que doubler sa masse en 40 millions d'années. En 400 millions d'années, donc, sa masse sera multipliée au mieux par 210, soit en gros 1000, ou alors un million en 800 millions d'années. Or comme on observe des trous noirs bien plus massifs que un million de masse solaires moins de 800 millions d'années après le Big Bang, on a un problème si on imagine que la graine initiale faisait au mieux quelques dizaines de masses solaires... Ou pas. Parce que du fait que ces objets existent et ont l'air assez banals, les gens questionnent sérieusement la "preuve" qu'un trou noir ne peut pas grossir mieux qu'en doublant sa masse en 40 millions d'années. Il suffirait que le temps pour le doublement de la masse ne soit pas 40 millions mais 20, et on aurait zéro problème (augmentation d'un facteur un million en 400 millions d'années). L'autre aspect de la question est que plus le flot de matière est important, plus sa luminosité est grande. Mais comme le flot de matière est lui-même limité par la masse (cf. ci-dessus), plus c'est lumineux, plus le trou noir est probablement massif. Donc au final on considère qu'on peut évaluer la masse (ou une limite inférieure) via la luminosité de la parti centrale des galaxies. Mais si l'émission n'est pas isotrope, la mesure de la luminosité dans le seule direction de visée est insuffisante pour dire quoi que ce soit. Et quand bien même ce serait le cas, cela dépendrait toujours du calcul assez simpliste qui laisse à penser qu'on ne peut que doubler la masse en 40 millions d'années. Donc au final, on interprète des observations via pas mal d'hypothèses, et plutôt que de se dire qu'une révolution scientifique est sur le point d'arriver quand on trouve une incohérence (premier réflexe), les gens penchent plutôt désormais sur le fait que, au moins pendant une partie de leur existence, les trous noirs peuvent peut-être grossir plus vite. Car si c'est le cas, on a zéro problème. Les cas où les flots de matière sont (temporairement) supérieurs à la limite autorisé sont appelés "accrétion super-Eddington". Sur ADS, on recense sans trop se casser la tête plus de 300 articles qui ont le terme dans leur titre. Plus important, il me semble qu'il ne fait strictement aucun doute que certains systèmes facilement observables sont avérés comme étant super-Edddington. La question qui se pose est donc de savoir si cette configuration peut durer suffisamment longtemps (ou se reproduire suffisamment souvent) pour évacuer tous les problèmes possiblement causés par les trous noirs estampillés "trop gros trop tôt". Mais vu que ces objets sont fréquents, on a quand même fortement tendance à penser que c'est ce qui va être établi tôt ou tard. À noter que cette problématique n'a strictement aucun lien avec la matière noire ou les théories de gravité modifiée : c'est de la matière ordinaire qui est absorbée par les trous noirs, et les problématiques de flux maximal de matière vers les trous noirs sont relativement indépendantes des lois de la gravitation. Donc la place de ces bizarreries dans cette rubrique n'est pas très évidente à mes yeux : ce n'est pas parce que ces objets sont mal compris (ou leurs observations mal interprétées) que cela prouve que l'ensemble de la cosmologie est à revoir. Cela va sans dire, mais cela va peut-être mieux en le disant !
  12. la fin de la matière noire .....

    Vous avez raison sur le principe, mais il convient de faire un peu attention à ce que vous faites de cela. Quand un paradigme se dégage, il est important qu'il reste des avocats du diable pour voir s'il n'y a pas un risque qu'on s'oriente dans une mauvaise direction. Mais si les avocats du diable, qu'ils soient neutres ou un peu orientés sur le sujet, échouent pendant des années à trouver une alternative au paradigme, eh bien le paradigme se trouve renforcé grâce au "travail infructueux" de ces personnes. Un exemple plutôt bien documenté a été le travail d'Alain Blanchard au début des années 2000. À ce moment là on pensait avoir découvert l'accélération de l'expansion de l'Univers via les supernovae lointaines, mais cela avait l'air d'être la seule preuve de l'existence de l'énergie noire. Se pouvait-il que pour une raison inconnue on se soit trompé dans l'interprétation des données et qu'on ait conclu à tort qu'il y avait de l'énergie noire ? Il a essayé de voir si on pouvait se passer d'énergie noire en occultant complètement les données de du superrnovae. Il est arrivé à la conclusion qu'avec divers paramètres assez loufoques on pouvait s'accorder des données du fond diffus cosmologique, mais au prix d'avoir une constante de Hubble étonnamment basse, incompatible avec les observations. Oublions à nouveau le problème de la constante de Hubble et continuons. Pas longtemps en fait : les autres paramètres sont alors en contradiction avec les catalogues de galaxie alors qu'avec l'énergie noire tout est en ordre. Conclusion : pour que l'énergie noire n'existe pas (ou en tout cas l'accélération de l'expansion), il fallait que simultanément les données des supernovae soit fausses, les données du fond diffus cosmologique le soient, ainsi que celles des catalogues de galaxies. Vient ensuite le moment où il faut être réaliste : qu'on aime ou qu'on n'aime pas le truc, il faut bien reconnaître qu'il va être très difficile de s'en passer. Ce qui est intéressant, c'est qu'à titre personnel, Alain Blanchard n'aimait guère l'énergie noire. Il aurait été le premier ravi à trouver un échappatoire à cette hypothèse et c'était à n'en pas douter une motivation pour exercer ce rôle d'avocat du diable. Sauf qu'il l'a fait en tant que scientifique rigoureux et non en idéologue, et qu'au bout d'un moment il a fini par "manger son chapeau" (ce sont ses termes) et reconnaitre que non, on ne pouvait pas s'en passer. On peut citer d'autres exemples, comme celui de Bruno Leibundgut pour l'analyse des supernovae, qui lui avait presque ce rôle officiel au sein de sa collaboration dont il ne se privait pas de souligner les faiblesses dans les premières années. Mais pour la bonne cause : il a contribué à ce que ses collègues soient plus rigoureux et lui encore plus tatillon. D'une manière générale, on a toujours tendance à sous-estimer le degré de précision avec lequel une communauté scientifique vérifie ses résultats. C'est dommage car si on est soi-même rigoureux, c'est un peu prétentieux de considérer que par défaut les autres le sont moins. Mais c'est, d'expérience, une attitude persistante qu'il convient, à titre individuel, de s'efforcer à corriger.
  13. la fin de la matière noire .....

    C'est bien ce que je dis : les ondes gravitationnelles primordiales, même quand il y en a, ça ne va pas vous décoiffer. Donc l'évolution ultérieure de l'Univers n'est pas affectée par leur présence. Mais celle-ci sera éventuellement détectable et le modèle éventuellement testable (quoique tous les théoriciens disent cette phrase magique pour rassurer leurs lecteurs, sans que le truc soit toujours effectivement testable en pratique ; il faut donc être prudent). Il y a (comme souvent en cosmologie) un problème de vocabulaire. Le Big Bang n'est pas une théorie (comme la mécanique quantique ou la relativité), c'est un modèle (une époque de l'histoire de l'Univers). Selon les auteurs, le terme désigne : la singularité initiale (densité et température infinies), un Univers très chaud (1026 K) ou un Univers un peu moins chaud (1017 K). Les lois actuelles de la physique vous disent qu'on sait à peu près ce qu'il se passe jusqu'à des énergies de 10 TeV (énergies testées au LHC) ce qui grosso modo simule une température de 1017 K (un électronvolt = 10 000 degrés, en gros). Or les lois de la physique prédisent que si rien de nouveau ne se passe, on atteint des température arbitrairement élevées en remontant dans le passé. Donc si changement il y a, il sera forcément au-delà de 1017 K. Donc le modèle à rebond de votre gars il se fait forcément à une température supérieure à 1017 K. Il n'y a peut-être pas de Big Bang (= singularité initiale dans ce contexte), mais le truc il est sur les rails que l'on connaît dès que la température descend en-dessous de 1017 K c'est-à-dire un pouième de pouième de seconde après la singularité initiale dans la chronologie où elle aurait eu lieu. Et une fois qu'on est là, on sait à peu près comment faire évoluer jusqu'à l'émission du fond diffus cosmologique, que l'on observe. Dire dans ce cas que "la théorie du Big Bang est erronée" est un abus de langage et une énorme source de confusion dont vous êtes une malheureuse victime parmi de très nombreuses autres. Evidemment c'est plus subtil que ce bref descriptif qui mériterait d'être nuancé, mais vous voyez l'idée.
  14. la fin de la matière noire .....

    Les simulations numériques ont des limitations connues. Par exemple, le taux de formation d'étoiles est quasi impossible à reproduire dans une simulation (impossible d'implémenter simultanément ce qu'il se passe à une échelle d'une fraction d'année-lumière dans une zone de formation d'étoiles et l'évolution d'une galaxie qui en fait 100000). Donc on fait toujours (et on fera pour toujours) des modèles hybrides, où on rajoute des ingrédients qui ne peuvent être simulés en même temps que le reste, mais que l'on va éventuellement évaluer dans une simulation à plus petite échelle... dans laquelle c'est l'évolution de la galaxie et son influence sur le taux de formation d'étoiles qu'on ne peut reproduire. Donc au final, même si on aimerait une simulation qui fasse tout d'un seul coup, ça ne marche jamais comme cela, et on va éventuellement ajuster tel ou tel paramètre pour reproduire telle ou telle donnée, sans savoir si par ce biais on évalue ce paramètre (car tout le reste de la modélisation est OK) ou si justement on recueille des indication comme quoi la modélisation n'est pas OK. Selon la confiance qu'ont les gens dans la physique implémentée dans leur simulation, ils vont soit dire "ça ne marche pas, donc il faut revoir quelque chose au modèle général" (et alors ça finit dans un article de Laurent Sacco dans Futura-Sciences), ou alors ils disent "il manque un ingrédient dans les simulations pour bien reproduire les choses", bref, il faut se remettre au boulot. Plus de 90% des chercheurs sont dans la seconde approche, et jusque là ils ont toujours eu raison au sens où les problèmes rencontrés à un moment donné ont presque systématiquement été atténués par une modélisation plus fine. Cela ne signifie pas que ce sera toujours le cas ou que les problèmes du moment ne sont pas, eux, révélateurs d'un problème plus profond, mais cela donne quand même des raisons d'être prudent quant aux conclusions qu'on va tirer et optimiste quant à l'évolution future de la discipline. Par exemple, pendant longtemps, on faisait des approximations sphériques sur l'accrétion (= la captation) du milieu intergalactique par les galaxies. En fait non, on s'est rendu compte assez tardivement que ça ne se passait pas du tout comme cela et surtout que cela changeait beaucoup de choses à l'évolution des galaxies. C'est un "ingrédient" basique (comment et selon quelle direction la matière "tombe" sur les galaxies) qui a énormément d'influence sur ce qu'il se passe et dont la mauvaise prise en compte a des conséquences sur ce qu'on croit comprendre des phénomènes.
  15. la fin de la matière noire .....

    Il faut bien comprendre de quoi on parle. "Pas de Big Bang" = pas de singularité initiale. Mais on sait que la nucléosynthèse a eu lieu, donc que la dynamique de l'expansion est bien celle prédite de longue date depuis la première seconde. Le Big Bounce, s'il a eu lieu, ne se produit qu'au tout début du début de cette première seconde. Rien du déroulé de l'histoire ultérieure n'est affecté par l'existence ou non de ce rebond. D'où sortez-vous cela ? On sait expliquer l'évolution de l'Univers depuis l'époque d'émission du fond diffus cosmologique (380 000 ans après le Big Bang) jusqu'à aujourd'hui. Dans l'intervalle, il n'y a pas grand chose qui ne colle pas aux observations : peut-être que la croissance précoces des galaxies n'est pas comprises, mais l'état actuel l'est. Et l'Univers 380 000 ans après le Big Bang est compatible avec la nucléosynthèse (entre 1s et 3 minutes après l'éventuelle singularité initiale). Un modèle avec rebond qui ne concerne que les périodes antérieures ne change strictement rien à cela. Ce qu'un tel modèle peut apporter, c'est que la nouvelle physique qui produit le rebond (souvent c'est compliquer à implémenter) peut avoir pour conséquence que la matière noire ou l'énergie noire aient telle ou telle nature.
  16. la fin de la matière noire .....

    Alors, de mémoire, le preprint de l'équipe BICEP2 est ici : https://arxiv.org/abs/1403.3985 Ensuite vous cliquez sur le petit "v1" pour voir la version fautive, et vous téléchargez le pdf qui va bien : https://arxiv.org/pdf/1403.3985v1 Sur le pdf, vous allez au paragraphe 9.1, fin p. 12, intitulé "Polarized Dust Projections". En gros, les auteurs en sont au moint où ils ont détecté de la polarisation "intéressante", mais ne savent pas si elle est due au fond diffus (Nobel en vue) ou aux avant-plans de notre galaxie, dont personne à l'époque ne connaît le niveau de polarisation (poubelles de l'histoire en vue). Impossible de savoir depuis le sol : les avant-plans émettent surtout au-delà de 300 GHz, rayonnement rendu inexploitable par la vapeur d'eau de l'atmosphère (raison pour laquelle en interférométrie radio on ne descend jamais en dessous de 1,3 mm, soit 230 GHz ; si on pouvait, on aurait des images bien plus résolues de Sgr A* et M87*). Pour savoir, il faut aller dans l'espace et donc utiliser les données de Planck. Sauf qu'elles ne sont pas encore publiques à ce moment-là. Les auteurs reconnaissent donc qu'ils n'ont pas les données de Planck et donc qu'ils vont essayer de deviner ce qu'il y aura. Ils se basent sur diverses estimations antérieures (FDS, BSS, LSA et PSM) publiées dans la littérature... et sur des trucs internes à la collaborations Planck, le DDM1 et le DDM2. Qu'est-ce que le DDM2 ? Un truc jamais publié, décrit par les auteurs comme "constructed using all publicly available information from Planck" (ça commence déjà à sentir mauvais), et là les auteurs ne mettent donc pas une référence publiée dans la littérature, mais une note de bas de page (la n°32) qui renvoie sur la présentation dont j'ai extrait une page dans le post précédent : http://www.rssd.esa.int/SA/PLANCK/docs/eslab47/Session07_Galactic_Science/47ESLAB_April_04_11_25_Bernard.pdf . Le lien ne marche plus et ne semble pas non plus archivé sur Internet Archive [edit : une présentation du même gars datée de quelques semaines après est ici : https://www2.mpia-hd.mpg.de/RSF13/archive/day_1/Bernard.pdf ], mais il existe encore une présentation des gens de BICEP2 qui revendiquent très explicitement le truc : https://indico.in2p3.fr/event/9931/contributions/51126/attachments/41399/51300/20140610_clem_apc.pdf (p. 57 et 58). Baser un article digne du Nobel sur une note de bas de page et non une référence publiée est effectivement quelque peu atypique pour ne pas dire franchement discutable d'un point de vue déontologique. C'est cela qui est curieux, en fait : personne au sein de la collaboration BICEP2 n'a froncé les sourcils. Qu'un chercheur isolé se laisse aller à divaguer ainsi, OK, mais sur une collaboration de plusieurs dizaines de personnes, c'est vraiment surprenant.
  17. la fin de la matière noire .....

    La collaboration BICEP2 avait besoin de disposer de données du satellite Planck pour interpréter leurs propres données, plus précises sur certains points mais pas sur d'autres (impossible d'étudier l'infrarouge lointain depuis le sol en raison de l'absorption atmosphérique de la vapeur d'eau). Ces données n'étant pas publiques et de toutes façons soumises à embargo, ils ont tenté de contourner le problème de façon éthiquement discutable en accédant à des présentations internes à la collaboration Planck, dont certaines étaient accessibles. Sauf que évidemment, les gens de la collaboration Planck savaient parfaitement que tout ce qu'ils pourraient mettre en ligne était susceptible d'être exploité par d'autres. Donc ils ont soigneusement veillé à rendre les données présentes sur leurs présentation inexploitables. Et ils l'ont fait dès le début, sans toujours le dire explicitement, mais en laissant des indices assez "évidents" pour tout chercheur un tant soit peu lucide. Premier exemple : dès août 2009, soit trois mois après le lancement, l'ESA avait fait un communiqué de presse pour expliquer que tout allait bien et avait montré un début de carte du fond diffus cosmologique pour indiquer où en était la couverture du ciel : Croyez-vous qu'on pouvait extraire de l'information de ce moignon de carte ? Bien sûr que non. Elle avait été soigneusement dégradée, et pour que les gens comprennent bien que c'était le cas, les données subtilement dégradées étaient même à la fois de moins bonne qualité et incompatibles avec celles de la mission américaine WMAP, lancée en 2003, comme tous les petits malins qui ont essayé de tirer de l'information de cette carte s'en sont rendus compte (plus ou moins rapidement). Autre exemple, encore plus évident : peut-être vous souvenez-vous de cette carte, qui avait même eu les honneurs du journal Le Monde à l'hiver 2010 (ou 2011 ?). C'est joli, n'est-ce pas ? Sauf que si vous projetez cela sur une sphère, vous vous rendez immédiatement compte qu'il y a une discontinuité. Les gens de Planck ont rajouté (a minima) un petit gradient pour indiquer que les données étaient préliminaires et qu'il ne fallait pas s'amuser à en tirer quelque chose. Quelques années plus tard, c'est en gros la même chose que les gens de BICEP2 ont tenté de faire, et se sont plantés dans les grandes largeur. Si vous voulez tout savoir, c'est ce transparent là qui les a perdus : Le nom de l'auteur et la réunion où il l'a montré sont indiqués. C'est une carte qui montre des données liées à la polarisation du ciel (ce que les gens de BICEP2 étudiaient), sauf que le "Not CIB substracted" indique clairement (et c'était plutôt sympa) que on parle d'un mélange de pas mal de trucs, dont certains non polarisés (CIB = Cosmic Infrared Background). Donc impossible d'en tirer quoi que ce soit relativement à la polarisation galactique vu que deux informations décisives manquant : l'intensité relative du fameux CIB et le degré de polarisation de celui-ci par rapport aux autres avant-plans. En gros, c'est comme si quelqu'un vous dit que sa moyenne pondérée en maths et français est de 10/20. Il a peut-être eu 10/20 en français et en maths, ou alors 5/20 et 15/20, mais même pas forcément. Si les maths sont coefficient 2, alors il peut avoir eu 0 en français et 15 en maths. La seule moyenne ne permet pas de conclure quoi que ce soit. [edit : corrections diverses] Ensuite, transformer en png un bout de pdf, le déprojeter pour le mettre sur une sphère et en tirer une information statistique, clairement, c'est source de quantités de problèmes supplémentaires (peut-être est-ce cela que vous évoquez avec le terme "artéfact"). Mais ce n'était même pas le plus gros problème, cf. ci-dessus.
  18. la fin de la matière noire .....

    Si votre médecin généraliste soupçonne que vous avez un glaucome, vous sollicitez l'avis de qui ? Un kiné ou un ophtalmo ? Chacun peut parler de ce qu'il veut. Mais se prétendre en mesure d'exercer un regard critique n'a de sens que si l'on sait de quoi on parle.
  19. Compliqué d'avoir l'heure juste !

    Si vous voulez faire de l'interférométrie radio avec des instruments terrestres et une station sur la Lune, la synchronisation doit sa faire avec une précision qui peut dépasser le milliardième de seconde. À ce niveau de précision, le temps terrestre ne vous suffira pas.
  20. la fin de la matière noire .....

    Les gens de la SAF sont des bénévoles, pleins de bonne volonté, mais qui peuvent se faire avoir, comme divers journalistes qui se sont déjà faits embobiner par le gars (qui a eu droit à un portrait à sa gloire dans Le Monde. JMBB est plutôt avenant, calme, posé, bref, il fait bonne impression sur la forme. Sur le fond par contre... La bibliométrie. Allez sur le site ADS, tapez son nom, et vous verrez ceci : Ils sont où les articles de cosmologie ? Le gars s'intéresse aux naines blanches et autres variables cataclysmiques, c'est tout. Il a le droit de parler de cosmologie, mais son avis ne sera jamais autorisé puisqu'il n'est pas spécialiste. L'éthique voudrait qu'il se contente de rapporter le consensus de la communauté et qu'il garde son avis pour lui puisque celui-ci ne vaut rien. Après, on trouve des traces de lobbyisme du temps où il avait ses entrées à Ciel et Espace (temps révolu, fort heureusement). (conclusion : les gens qui disent que l'énergie noire existe ont des preuves fausses) (ne voyez-vous pas un schéma qui commence à se dégager ?) (mon favori niveau titre foireux) (ou alors il faut revoir son article à lui ?) (du temps de l'acmé médiatique de Laurent Nottale et sa relativité d'échelle) J'arrête là, mais je pense que vous voyez l'idée.
  21. la fin de la matière noire .....

    C'est mesurable dans le fond diffus cosmologique. Les ondes concernées sont d'une longueur d'onde démesurée, donc elles provoquent une déformation statique mais qui possède des caractéristiques spécifiques. La recherche de ces ondes gravitationnelles primordiales a donné lieu à un des plus gros ratés scientifiques de la dernière décennie , où des gens ont cru hacker des données non publiques du satellite Planck pour en déduire la présence de ces ondes, visiblement en croyant que personne de la mission Planck n'avait pensé que des indélicats comme eux tenteraient de procéder ainsi.
  22. la fin de la matière noire .....

    On a déjà parlé de ce gars là par le passé. C'est le summum de la guignolitude. Zéro connaissance en cosmologie, zéro article scientifique cité dans le domaine (vérifiez), zéro participation à des ateliers, écoles d"été séminaire et, ce qui est pire, zéro déontologie. C'est un peu le Claude Allègre de la cosmologie si vous voulez : un lobbyiste marchand de doute, incapable de convaincre les spécialiste du sujet (normal il n'y connaît rien), mais qui estime que l'important n'est pas qu'il ait raison, mais que les non spécialistes (comme vous) croient que c'est le cas. On pourrait résumer ce gars-à une blague entendue dans les couloirs de son employeur : quelle est la différence entre JMBB et les frères Bogdanov ? Eux au moins ont passé une thèse en cosmologie.
  23. la fin de la matière noire .....

    De plus en plus, car il y a quantité d'intervalles de masses où les trous noirs en question auraient dû laisser une trace observable. Donc ce qu'il reste, c'est l'hypothèse que sur un intervalle très restreint de masse, on ait formé énormément de trous noirs. OK, mais dans ce cas, vous devez... faire appel à de la nouvelle physique pour expliquer par quel miracle, à une époque très ancienne de l'histoire de l'Univers, un phénomène non prédit par les lois de la physique a rendu l'Univers très inhomogène à une certaine échelle, et uniquement à cette échelle-là. Certains modèles d'inflation permettent d'implémenter cela, mais ils sont d'une laideur formelle absolue. Ajoutez à cela que les gens qui n'aiment pas l'hypothèse de la matière noire détestent en général encore plus celle de l'inflation, aussi je ne sais pas si l'hypothèse des trous noirs primordiaux leur plaira tant que cela si jamais ceux-ci devaient être détectés. Il n'y a aucune ironie dans cette dernière remarque. Si c'est le côté ad hoc du truc qui déplaît, il en sera de même, à mon avis en largement pire, pour toutes les alternatives envisageables.
  24. la fin de la matière noire .....

    Très honnêtement, je trouve l'argument de dénigrer la matière noire par un rappel méprisant à l'éther un peu à côté de la plaque. L'éther, c'est une tentative d'explication à un phénomène franchement inattendu, qui nécessitait de faire appel à de la nouvelle physique. La matière noire, c'est une tentative d'explication à un phénomène un peu inattendu, qui nécessite de faire appel à de la nouvelle physique. L'éther s'est avéré être une fausse piste ? C'est vrai, mais il a été supplanté par un autre appel à une autre nouvelle physique, la relativité restreinte. Donc quel est le problème en vérité ? Qu'on fasse appel à de la nouvelle physique ? Désolé, mais... il faut effectivement faire appel à de la nouvelle physique, personne ne le conteste. Cela a été le cas à l'époque de l'éther, et c'est aussi le cas aujourd'hui. Même un gars comme JPP, il fait appel à de la nouvelle physique (bien délirante si vous voulez mon avis), pour contourner la problématique de la matière noire. En fait, son modèle Janus, avec un alter ego à la matière ordinaire... EST un modèle de matière noire. La seule question qui se pose, c'est si la matière noire telle que les gens sérieux l'envisagent (je ne parle plus de JPP) est trop "naïve" pour être vraie (comme l'éther), ou déjà réaliste. Si c'est trop naïf, eh bien, peut-être sera-t-elle supplantée par un autre truc, mais celui-ci sera encore plus compliqué. Je me hasarde donc à pronostiquer que ceux qui méprisent la matière noire se lamenteront encore plus qu'aujourd'hui, car ils verront cela comme une rustine encore plus ad hoc. Bref, entre deux maux, il faut choisir le moindre, n'est-ce pas ?
  25. la fin de la matière noire .....

    Quand vous faites de la spectroscopie, vous prenez le spectre complet de l'objet. Vous voyez des raies d'émission et vous déterminez de combien elles sont décalées par rapport aux mesures de laboratoires, vous en déduisez le redshift. Mais la spectroscopie prend du temps. Donc pour accélérer, on fait juste de la photométrie : on fait des images avec divers filtres (en visible, proche IR et IR lointain par exemple), et via un modèle de ce que peut émettre une galaxie, vous supputez à quel décalage vers le rouge elle est : en général, on a une coupure assez nette dans l'émission en UV, coupure qui se décale dans l'IR à grand redshift. Le problème est que si la galaxie n'émet pas comme on le suppose, l'interprétation ne marche pas, par exemple quand [edit] la lumière est aussi absorbée avec un effet de seuil situé ailleurs et moins marqué, mais sans que cela soit visible en photométrie. C'est notamment le cas si la galaxie est riche en poussières. C'est un problème qu'on n'a pas avec les données HST car celui-ci a peu de capacités d'observation en IR, mais avec le JWST c'est crucial. Donc avec les toutes premières données du JWST, la photométrie a repéré des candidats (j'insiste sur le terme) à confirmer par spectrométrie, mais des gens un peu imprudents ont affirmé des choses sans attendre la confirmation. Je précise que à peu près tout le monde a vu ces candidats, c'est juste que l'enthousiasme, le niveau de connaissances, l'expertise en IR, la modestie, a causé des réactions variables entre les uns et les autres. La médiatisation, la vitesse de propagation des avis des uns et des autres, la surreprésentation des avis les plus tranchés, a fait le reste. Si la matière noire n'était pas transparente, cela ferait longtemps qu'on l'aurait détectée via ses interactions avec la lumière. Si on ne voit rien, c'est bien qu'elle st transparente, et à toutes les longueurs d'ondes (soyez assuré qu'on a cherché, cherché, cherché, cherché, cherché). Rien de sorcier à cela, c'est la cas des ondes gravitationnelles et des neutrinos. Sauf que on sait aussi, via d'autres mesures, que ce ne sont pas des neutrinos ou des ondes gravitationnelles.