dg2

Membre
  • Compteur de contenus

    1 429
  • Inscription

  • Dernière visite

  • Jours gagnés

    6
  • Last Connexion

    Soon available - 42142

Tout ce qui a été posté par dg2

  1. la fin de la matière noire .....

    C'est parce que vous confondez science et technique. La technique, c'est l'utilisation d'une science que l'on maîtrise (souvent depuis longtemps). La recherche, c'est la quête de la compréhension de ce qu'on ne sait pas encore. Et donc ici, on ne fabrique pas d'avion, mais on cherche à savoir ce qu'il manque dans l'Univers. Notez qu'on sait déjà qu'il nous manque quelque chose, on est absolument certain que ce n'est pas de la matière ordinaire et on a de bonnes raisons de penser qu'on connaît à peut près quelques propriétés du truc. C'est plutôt un joli résultat pour une entité notablement élusive.
  2. la fin de la matière noire .....

    L'opportunité de continuer cette discussion ne me paraît pas certaine, mais je me permets de réagir à ce que vous avez écrit hier soir. Ne craignez-vous pas que votre attitude vous condamne à l'ignorance ? Vous appelez de vos vœux, ou exigez (question d'interprétation) que M. Petit soit autorisé à faire un séminaire, tout en sachant (ou devinant) que cela ne peut avoir lieu eu égard au piètre niveau de l'intéressé. Vous dites ensuite que rien ne vous fera changer d'avis sans cet indispensable préliminaire (pour vous). Conditionner une amorce de réflexion à un événement qui a peu de chances d'avoir lieu n'est pas, je crois, le meilleur moyen de faire évoluer votre compréhension de l'Univers. Que M. Petit soit dans ce schéma de pensée, lui qui à son âge est plus près de la fin que du début, cela peut sans doute se concevoir. Mais de la part d'une personne probablement plus jeune (vous), je trouve cela dommage. Mais c'est votre problème. Je vous concède volontiers que M. Petit est dans une situation effectivement compliquée, sans accès facile à certains articles, sans facilité à suivre l'état de l'art, avec globalement peu d'interlocuteurs – rappelons cependant que l'intéressé n'a de son côté jamais fait grand chose pour entretenir des rapports cordiaux avec les uns et les autres. Tout cela est sans doute frustrant. Mais le point essentiel n'est pas là. Le point, c'est que ce qu'il publie, quelque atypique que soit le canal par lequel il y parvient, est factuellement et trivialement faux. Il n'y a pas besoin de lire beaucoup de sa production pour réaliser qu'il ne maîtrise pas ce dont il parle. Hélas lui-même est convaincu du contraire et rien ne semble pouvoir le rendre lucide sur ce point. Je vous ai cité l'exemple des trous noirs, celui de son modèle à la loi d'expansion incohérente, mais il y en a quantité d'autres. Le problème n°1, ce n'est pas l'accès aux articles, c'est qu'il ne connaît franchement pas grand chose à la relativité générale. Quel(s) livre(s) sur le sujet possède-t-il ? Sans doute trop peu. Sont-ils récents ? Sans doute pas assez. Sont-ils de bonne qualité ? J'en doute. Pourquoi n'en a-t-il pas d'autres ? Je l'ignore. Qu'un de ses articles soit refusé quasi immédiatement par une revue n'est à ce titre pas spécialement surprenant. C'est le boulot de l'éditeur d'une revue de scanner rapidement les soumissions et de refuser rapidement celles qui ne vont visiblement pas au niveau. Notez au passage que cela présente l'avantage pour le soumissionnaire de pouvoir tenter sa chance ailleurs le plus rapidement possible. Ce problème de qualité existait dès les années 1990, soit avant son départ à la retraite. Ses articles de 1994 et 1995 sont particulièrement mauvais (= complètement faux). Donc on ne peut pas vraiment mettre cela sur le compte de ses faibles interactions post-retraite avec le monde extérieur. Trente ans plus tard, la situation ne s'est hélas pas améliorée. Disons que l'intéressé a progressé... mais bien moins vite que l'état de l'art. Or le B-A-BA du chercheur, c'est d'être capable de suivre l'état de l'art, ce qui présuppose de maîtriser a minima les bases. Vous semblez vouloir monter en épingle l'"échange" avec Thibault Damour, mais c'est à mon avis une erreur. Cela donne l'impression d'un débat de spécialistes de très haut vol alors qu'il y a quantité de problèmes bien plus basques [edit] basiques absolument délétères qui rendent ce point technique sans objet.
  3. la fin de la matière noire .....

    Je ne pense pas qu'il y aura des spécialistes hautement qualifiés qui le défendront. Des marginaux oui, des gens en rupture avec le système certainement, mais pas des gens qui ont une bonne compréhension des choses. Encore une fois : un bon étudiant de master 2 n'aura aucune difficulté à voir qu'il y a quantité de choses qui clochent. Comme vous n'avez pas le niveau master 2 (ce n'est pas un reproche), vous ne vous en rendez pas compte et vous espérez qu'il en sera autrement. Peut-être ne vous en rendez-vous pas compte (bis), mais c'est là un grand classique chez les dilettantes enthousiastes qui prétendent révolutionner la physique. Ils disent un truc, on leur fait remarquer que ça ne tient pas la route, et ils sortent (plus ou moins consciemment) un argument passe-partout du genre "Vous ne m'avez pas compris" ou "C'est plus compliqué que cela" ou "Ce n'est pas ce que dit mon modèle". C'est très pratique parce que cela évite de répondre sur le fond. La réalité est plus basique. Dans plusieurs articles est écrite noir sur blanc la loi d'expansion du modèle, avec laquelle je suis plus ou moins d'accord (c'est super mal écrit, mais passons). Celle-ci ne comporte pas de Big Bang. On peut effectivement se demander comment il est possible que son auteur ne l'ait pas vu. J'ai mon idée là-dessus, mais je vous l'épargnerai puisque visiblement vous n'aimez pas les longues explications.
  4. Vu que le satellite est au point L2, pointer la Lune n'est sans doute pas possible.
  5. la fin de la matière noire .....

    Rassurez-vous, personne n'est là pour vous demander de débattre. C'est vous qui semblez le vouloir, tout en vous dérobant à chaque fois, du coup on ne sait pas vraiment ce que vous venez faire ici. Perdre du temps ? En faire perdre aux autres ? Je l'ignore. Je vous ai expliqué, arguments à l'appui, que défendre le modèle de votre idole était peine perdue, de toute façon. Dans ce cas, disons pudiquement que vous persistez... dans l'erreur. Ce n'est pas grave, cela peut arriver à tout le monde. Vouloir sortir de l'erreur nécessite en revanche une dose d'effort et de volonté. À vous de prouver que vous en êtes doté. Mon pronostic à ce sujet est assez réservé. Pardonnez-moi, mais... n'est pas ce qui a été fait sur ce forum même ? Un modèle qui indique que rien ne peut avoir de décalage vers le rouge supérieur à 5,75 est de facto réfuté. Si je puis me permettre, votre attitude confine au caprice de diva : on prend le temps de vous expliquer ce qui ne va pas, et vous répondez diverses variations sur le thème "Tout ceci ne me convainc pas". Sachez que tout le monde se fiche complètement que vous soyez convaincu ou pas ! La science n'est pas une police de la pensée. La science sert à proposer une vision objectivable du monde. Si en lieu et place vous préférez imaginer que la Terre est plate, à votre guise. La vraie question que vous devez vous poser est de savoir si vous voulez vraiment comprendre le monde qui vous entoure ou si vous voulez défendre une vision fantasmée de ce que vous aimeriez qu'il soit. En temps normal, je serais tenté de dire que vous seul avez la réponse, mais en vérité je ne suis pas certain que vous ayez entamé une réflexion sur le sujet. Un jour peut-être ? Maintenant, permettez-moi une analyse personnelle : vous dites que vous n'y connaissez rien, ce qui vous permet d'éviter à répondre à une quelconque objection. Vous dites ensuite que le modèle n'a pas été réfuté alors que, précisément, je vous ai donné un argument simple à ce sujet. Vous ne pouvez pas à la fois dire que vous n'y connaissez rien et affirmer ceci ou cela ! À la rigueur, vous pouvez dire que vous ne pouvez pas juger du bien fondé de mes remarques, mais vous ne pouvez pas dire que vous êtes ignorant ET affirmer que les critiques n'ont rien démontré. Mon impression est que vous faites preuve d'une ignorance feinte : vous dites que vous êtes ignorant pour ne pas avoir à répondre alors que vous avez des opinions très arrêtées sur le sujet. Sachez cependant que votre ignorance feinte (vous vous pensez sans doute plus malin que ce que vous affirmez hypocritement) cache une ignorance vraie : nous êtes largement moins savant que ce que vous pensez être. J'en veux pour preuve votre question ci-dessous que vous semblez brandir tel un talisman qui prouverait l'inanité de l'ensemble de la communauté scientifique. Donc je vais vous répondre, sans beaucoup d'espoir que vous ayez la maturité ou l'honnêteté de ne pas répéter une énième fois votre "Tout ceci ne me convainc pas"... Pour vous répondre, je vais partir d'un truc plus simple que les trous noirs, à savoir l'électromagnétisme. En électromagnétisme, on fait l'hypothèse que les particules élémentaires sont ponctuelles. Problème, l'énergie associée au champ électrique d'un simple électron de taille nulle est infinie. Or d'après E = m c², la masse d'un électron doit avoir une contribution électromagnétique, nécessairement infinie ici. Autrement dit, l'hypothèse qu'une particule élémentaire soit ponctuelle est purement est simplement incompatible avec son existence puisque sa vraie masse est finie ! Du coup, vous êtes plus ou moins obligé d'envisager que l'électron possède en réalité une taille petite mais finie, ce qu'on appelle le rayon classique de l'électron, qui vaut un peu plus de 10^(-15) m. En conséquence, l'électron possède une structure et on se demande bien pourquoi il serait dans ce cas impossible de le couper en plusieurs morceaux... Bref, le concept même de particule élémentaire est assez incompatible avec les lois de l'électromagnétisme... C'est un peu gênant, non ? Mais en fait, c'est encore pire que cela. Si vous déplacez une charge électrique, celle-ci va émettre un champ électromagnétique. Et comme la charge est sensibles aux champs électromagnétiques, elle va nécessairement interagir avec son propre champ. Vous pouvez donc calculer ce qu'on appelle la force de réaction au rayonnement, seule façon se rendre cohérent le déplacement d'une particule chargée avec le fait qu'elle génère un champ. Fort bien. Sauf que quand vous calculez cela, vous vous rendez compte qu'il se passe vraiment des choses bizarres à (très) petite échelle. Par exemple, si vous appliquez une force sur l'électron à un instant t précis, les calculs vous indiquent que celui-ci va commencer à accélérer avant que vous n'ayez appliqué la force. Oh bien sûr, pas très longtemps avant : dans les 10^(-23) seconde avant. Mais avant quand même. Par quel miracle l'électron acquiert-il une prescience du fait qu'on va lui appliquer une force ? Il ne vous aura (peut-être) pas échappé que le temps pathologique ci-dessus n'est rien d'autre que la longueur pathologique divisée par la vitesse de la lumière. Donc, à nouveau, à des échelles de temps et de distance suffisamment petites, l'électromagnétisme... ne marche purement et simplement pas. Pourtant, une ligne à haute tension, ça fonctionne. L'arc-en-ciel, ça existe. MAIS les lois que l'on utilise dans un cas ou dans l'autre pour les décrire sont frappées d'une irréfragable incohérence mathématique. On sait désormais pourquoi : l'électromagnétisme, il faut lui adjoindre les lois de la mécanique quantique. Celles-ci vous disent qu'en dessous de la longueur d'onde de Compton de l'électron, on ne peut plus utiliser les concepts classiques qui mènent aux incohérences précitées. Et bien sur, la longueur d'onde de Compton est supérieure d'un facteur 100 et quelque au rayon classique de l'électron. J'ai bien conscience qu'à ce moment de l'histoire, je vous ai perdu depuis longtemps, aussi je vais conclure avec des mots plus simples : la plupart des théories physiques sont incomplètes. Elles ont en réalité un domaine d'application limité. Parfois cela se voit, comme avec l'électromagnétisme : il est inévitable qu'en-dessous d'une certaine échelle spatiale elles sont incohérentes et qu'il faut donc les amender. Parfois, cela ne se voit pas : il n'y a rien dans les lois de la gravitation de Newton qui laisse entrevoir qu'il faut les remplacer par autre chose. Mais rien qui assure que ça n'arrivera pas. Nous en venons maintenant aux trous noirs. La relativité générale prédit que les effondrements gravitationnels sont inéluctables sous certaines conditions, et donc que l'on va créer des singularités, et donc que quantités de grandeurs physiques vont diverger dans une infime région de l'espace. Cela ne vous rappelle rien ? C'est exactement comme le rayon classique de l'électron en électromagnétisme. Bref, nos théories qui marchent doivent être à un moment ou à un autre être remplacées par d'autres théorie plus précises, au domaine d'application plus vaste. La relativité générale n'échappe pas à cette règle et oui, quand on veut décrire une singularité, il faut faire de la gravité quantique. On sait à quelle échelle de distance ou de densité il faut le faire. Ce n'est pas celle où se forme un horizon (ce qui signifie que les trous noirs existent réellement), mais au niveau de la singularité elle-même. Tout le monde sait ça. Enfin, presque tout le monde... chez les étudiants en physique de niveau master. Si vous ou votre mentor l'ignorez (cela semble être le cas), eh bien, cela met une limite supérieure à vos niveaux d'étude respectifs. On retombe donc dans le problème évoqué dans un de mes précédents messages : il y a quantités d'éléments objectifs qui disent que votre champion N'A PAS le niveau master 2. Il en est même assez loin, je le crains.
  6. la fin de la matière noire .....

    Vraiment à l'origine, c'était la vitesse des galaxies dans les amas. Ce n'est qu'ensuite la dynamique individuelle des étoiles dans les galaxies spirales a confirmé/accentué le problème. Cela dit, cela n'a pas d'importance pour répondre à votre question ci-dessous. C'est une question de formalisme. MOND ce n'est pas juste une modification des lois de la gravitation, c'est quasiment une modification du principe fondamental de la dynamique. Par ailleurs, MOND est une formulation ad hoc qui n'a pas de motivation théorique sous-jacente, même si elle a le mérite de proposer une explication empirique à un truc bizarre. À l'inverse le relativité générale avait une motivation théorique, à savoir réconcilier la gravitation newtonienne avec la relativité restreinte. Enfin (et surtout), MOND c'est une description non relativiste et non géométrique de la gravitation. Quand vous essayez de formuler MOND avec une modification de la RG, vous vous retrouvez avec une palanquée de termes supplémentaires qui semble conspirer pour n'avoir qu'une seule conséquence observable. Ce n'est pas franchement convainquant. Possible, mais pas convainquant. À l'inverse, dire qu'on ne connaît pas toute la matière qui existe, ça n'a pas grand chose de surprenant puisque le modèle standard est incapable d'expliquer que les neutrinos aient une masse. Or ceux-ci en ont une, donc le modèle standard est de facto incomplet. Dans ce contexte, dès que vous réfléchissez à étendre le modèle standard (et vous êtes obligés de, à cause des neutrinos), il est à peu près impossible de ne pas avoir de particules supplémentaires. Donc la présence d'un ingrédient supplémentaire (... ou plus, bien sûr) n'a rien de bizarre. Reste à s'assurer que le(s)dit(s) ingrédient(s) supplémentaire(s) reprodui(sen)t correctement le comportement de la matière noire. Ca n'est effectivement pas toujours le cas et les observations peuvent servir de guide, quoique pas assez contraignant pour savoir quelle piste explorer. Pendant longtemps on a privilégié la supersymétrie, dans l'espoir que celle-ci soit observée au LHC. Mais cela reposait sur une vision qui , a posteriori, était assez optimiste des choses. Pour faire court, si la supersymétrie existe, il n'y a pas de raison qu'elle se manifeste à l'énergie atteinte par le LHC. Vu que le LHC a fait chou blanc, les gens cherchent autre chose qui soit éventuellement testable comme les axions. Il y a une telle diversité d'hypothèses envisageables qu'on cherche préférentiellement ce qu'on peut espérer tester à plus ou moins long terme. C'est certainement un biais mais les gens lucides en ont conscience. La question qui en principe devrait aider à trancher, c'est celle des mérites respectifs des deux approches : y en-t-il une qui marche vraiment mieux ? Les tenant de l'une ou de l'autre vous diront toujours que la leur marche mieux (ils ne l'étudieraient pas sinon !), mais souvent c'est par choix (pas toujours conscient cette fois-ci) de privilégier les observations qui vont dans leur sens. C'est un cas classique du biais de confirmation. Donc ce n'est pas facile d'y voir clair à moins d'être un spécialiste d'à peu près tous les domaines. Si vous vous intéressez au fond diffus cosmologique vous préférerez la matière noire. Si vous vous intéressez aux galaxies, ce sera moins clair. Si vous vous intéressez à la Toile cosmique, vous espérerez que MOND n'est pas la bonne théorie car c'est beaucoup plus compliqué à implémenter. C'est un autre exemple de biais possible. Mais globalement, la balance penche aujourd'hui nettement plus en faveur de la matière noire que pour MOND, sans pour autant que tout soit définitivement figé.
  7. la fin de la matière noire .....

    Cher @Romlag Qu'en savez-vous ? Vous ne prétendez pas avoir de connaissances particulières dans le domaine, aussi, me semble-t-il, vous ne faites qu'ânonner ce qu'affirme votre maître. Hélas la réalité est bien plus triviale. La cuisine sous-jacente au modèle est peut-être un peu complexe (suffisamment en tout cas pour que son auteur n'en maîtrise pas tous les détails), mais une fois le cadre (mal) posé, le modèle, c'est un truc avec 0 constante cosmologique et de la matière non relativiste qui a une masse totale négative (mélange de + et de - mais plus de - que de +). Dans ce cas la loi d'expansion est assez triviale (JPP n'a même pas eu là la calculer, ce qui est dommage au passage car il aurait été intéressant de le voir essayer)... et prédit qu'il n'y a pas de Big Bang. C'est un modèle à rebond avec un Univers infiniment vieux au départ en contraction, puis donc la dynamique s'inverse pour repartir en expansion indéfinie. Il y a un redshift maximum (= l'époque du rebond) qui dépend de la quantité de matière totale, elle-même étant relativement contrainte dans le cadre du modèle de JPP par le fait qu'il faut qu'elle soit compatible avec les mesures de supernovae. Donc on a beau tourner et retourner le problème dans tous les sens, ça ne marche pas : si on veut un Big Bang il faut enlever de la matière négative (je ne sais pas comment il l'appelle, mais peu importe), et ce faisant on devient incompatible avec les supernovae. J'ajoute que ce point-là est connu depuis... plus d'un quart de siècle : si on ajuste les données des supernovae dans l'hypothèse où il y a de la matière et pas de constante cosmologique, on va trouver que la quantité de matière est négative. C'est trivialissime. Je vous joins un schéma tiré d'un papier de 1998 : Même avec des données vieilles de 25 ans, l'ellipse autorisée (les trucs en rouge) intersecte la ligne des abscisses (zéro constante cosmologique) pour des valeurs négatives de la quantité de matière (le Omega_M). Ok, le schéma ne va pas dans les Omega_M négatifs, mais on devine ce qu'il se passe. Le point important est maintenant celui-ci : il y a un truc en haut à gauche où est écrit "No Big Bang", une zone grisée qui plonge vers la ligne des abscisses dès que Omega_M est négatif. Donc pas de Big Bang dans cette zone. Voilà. On sait cela depuis 25 ans, et même bien plus longtemps puisque tout un chacun peut vérifier ce point depuis que Friedmann et Lemâitre ont écrit leurs équations il y a... un siècle. Malgré l'âge canonique de votre champion, son idée d'un univers à matière négative était connue comme étant incompatible avec l'hypothèse d'un Big Bang avant même sa naissance. Vous comprendrez qu'en pareilles circonstances, il est compliqué d'envisager organiser quoi que ce soit pour discuter ses idées. Ça ne marche pas, fin de l'histoire.
  8. la fin de la matière noire .....

    Je ne suis pas certain que le ton de votre message invite à ce que je vous livre une explication un peu détaillée de l'article, mais je vais quand même le faire. Pas sûr qu'il y aura une prochaine fois cependant. Le contexte : il existe des trous noirs supermassifs de grande masse très tôt dans l'histoire de l'Univers. Se pose naturellement la question de leur origine, leur masse initiale et leur taux de croissance. Des éléments relativement consensuels : Un trou noir ne peut doubler sa masse qu'en 40 millions d'années minimum. Il multiplie sa masse par 1000 (= 2 puissance 10) en 10 fois 40 millions d'années minimum, soit 400 Ma Quand un trou noir engloutit de la masse, celle-ci s'échauffe et génère une pression qui ralentit le flot de masse. C'est cela qui est à l'origine de la limite à 40 Ma dans le taux de croissance des trous noirs Conséquence de cela, la matière autour d'un trou noir ne peut émettre du rayonnement au-delà d'un certain taux, appelé luminosité d'Eddington. Celle-ci est proportionnelle à la masse, raison pour laquelle la croissance est exponentielle, cf. ci-dessus Résultat des courses, plus le disque d'accrétion est brillant, plus le trou noir est massif. Un trou noir de petite masse ne peut être doté d'un disque anormalement brillant : il serait en train de faire une indigestion. Il existe des trous noirs vraiment très massifs très tôt dans l'histoire de l'Univers., genre un milliard de masses solaires minimum (déduit de la luminosité du disque) à 800 Ma après le Big Bang (pas sûr des chiffres, mais vous voyez l'idée). Même si le trou noir s'est formé immédiatement après le Big Bang (a priori impossible), il doit faire au départ 1000 masses solaires (devenues un millions après 400 Ma et un milliard à nouveau après 400 autres Ma). Si on veut résoudre ce problème de gros trous noirs précoces, on a deux possibilités : (i) on crée au départ et si possible le plus tôt possible un trou noir vraiment très massif, ou alors (ii) le mode de croissance des trous noirs est plus rapide que ce qu'on estime. Le second cas est peut-être le plus simple : le flot de matière est purement radial (zéro rotation), donc pas de disque et croissance très rapide. Problème, c'est difficile d'enlever tout mouvement de rotation, mais pas d'impossibilité de principe. Autre possibilité : un régime dit "super-Eddington" ou, au moins temporairement la limite est levée pour diverses raisons un peu subtiles. Dans ce cas, si le temps de doublement de la masse est 20 Ma et non 40 Ma, il y a absolument zéro problème, et ce d'autant plus que en régime super-Eddington, on biaise vers le haut l'estimation de la masse du trou noir, donc un a un machin moins massif que ce que l'on croit et qui croît (désolé du jeu de mot) bien plus rapidement. Cela règle trivialement le problème. OU ALORS, on suppose qu'un processus mal connu permet de créer un gros trou noir très vite (10^4 voire 10^6 masses solaires). Là aussi, zéro problème parce que la graine initiale est fort massive. Quels processus seraient envisageables ? Un amas dense d'étoiles de population III (> 100 masses solaires chacune) qui en un ou deux millions d'années s'effondrent en trous noirs sans expulser beaucoup de masse et qui fusionnent très vite. Ou alors effondrement direct d'un gros nuage de gaz en trou noir via une "quasi-étoile" (c'est le terme) qui, en l'absence d'éléments chimiques lourds a une opacité qui pourrait (marginalement) rendre possible le processus. On n'a jamais vu pareil machin (et zéro chance de le voir dans l'Univers local), donc difficile de savoir à quel point c'est plausible. Idem pour les étoiles de population II, cela dit. Dernière possibilité, façon deux ex machina, des trous noirs primordiaux de masses un peu arbitraires (enfin non, pas arbitraires, mais pas le temps de développer) sont là dès le début. C'est assez moche comme hypothèse mais difficile à exclure avec certitude. Cela étant dit, si vous lisez la littérature, cela fait 10 ans facile que Begelmann est un grand fan de l'option (i) et Joe Silk le champion de l'option (ii). C'est un autre élément de contexte, peut-être le plus important, qui vous aurait aidé à mieux appréhender la situation. Les deux ont discuté le bout de gras, et si j'en juge au résumé de l'article, c'est plutôt le fan de l'option (ii) qui a rallié l'option (i) que le contraire. Voilà, c'est tout. C'est juste la science qui avance, avec des gens posés, savants et instruits qui échangent sur les forces et faiblesses de leur hypothèses respectives. Avec des données observationnelles nouvelles, il est assez logique que l'on réexamine les mérites de chaque scénario. Et bien sûr plus un trou noir massif se forme tôt, plus il est susceptible d'affecter l'évolution future de sa galaxie hôte et d'y réguler le taux de formation d'étoiles. Dans l'Univers actuel, il y a une corrélation mal comprise mais empiriquement indiscutable entre masse du trou noir supermassif d'une galaxie et masse de sa région centrale. Donc oui, il y a co-évolution et mécanismes de régulation et non d'emballement. Cela n'a rien d'extraordinaire, c'est juste une question de bon sens. Si vous imaginez qu'un article pareil va provoquer un changement de paradigme, vous êtes un peu dans l'erreur, je pense.
  9. la fin de la matière noire .....

    ... mais l'Univers de JPP ne peut pas exister non plus à cette époque, donc il ne nous sera d'aucune aide !
  10. la fin de la matière noire .....

    Je ne crois pas que ce soit ainsi que fonctionne la science. Des hypothèses à propos du problème de la matière noire, il y en a plein, qui sont confrontées aux observations. Certaines s'en sortent, d'autres pas. Quand on dit que ne connaît pas la réponse à une question, cela ne signifie pas que toute les réponses sont possibles : certaines ont été exclues depuis longtemps. Dire qu'on ne sait pas la nature de quelque chose n'est pas incompatible avec le fait qu'on sait déjà ce qu'elle n'est pas... Pour revenir avec le cas de votre idole, transposez vos propos avec tel ou tel épisode douloureux de l'Histoire. Doit-on organiser un débat entre un négationniste et des historiens ? Croyez-vous que le négationniste, confronté à l'inanité de son propos, se mettra d'un coup de baguette magique à cesser de nier l'évidence ? Ne croyez-vous pas, au contraire, que le débat (dont il se fichera de s'être fait ratatiner) sera au contraire perçu par des gens naïfs comme une preuve qu'il a peut-être raison, via le raisonnement fallacieux du "Si on fait un débat, c'est qu'il y a matière à débat". Autre exemple, trivial. Supposez que vous me disiez que 2 et 2 font 5. Croyez-vous qu'organiser un débat à l'académie des sciences va changer quelque chose au fait que l'affirmation que 2 et 2 font 5 est trivialement fausse ? Le fait est que cela fait 30 ans que votre champion annonce qu'il fait des choses extraordinaires. Soyez assuré qu'il est connu comme le loup blanc dans le milieu astrophysique français. Si personne ne reprend ses travaux, c'est qu'il y a de nombreux problèmes qui ont été identifiés, depuis de très nombreuses années, et par de très nombreuses personnes. Je n'ai, à titre personnel, pas besoin de le voir devant un tableau pour discuter le bout de gras. La lecture de ses articles, livres, papiers de blog, me renseignent bien assez sur le fait que, en substance, il dit que 2 et 2 font 5 (ou, disons, une erreur un peu plus subtile mais de niveau M1, pas plus). Lui dire de vive voix que 2 et 2 ne font pas 5 ne changera rien, je pense, à sa conviction que, pour lui, 2 et 2 font 5. Vous connaissez le proverbe "Il n'y a pire sourd que qui ne veut entendre"... Une dernière analogie, peut-être plus parlante. Imaginez un homme (jeune ou vieux, beau ou moche, attentionné ou violent, peu importe), qui aborde une femme dans la rue. Celle-ci l'envoie paître. Croyez-vous que l'homme éconduit a une quelconque légitimité à exiger que la femme accepte une invitation au restaurant afin qu'il lui "prouve" qu'il est l'homme de sa vie, voire, si on essaie d'être au plus près de la situation présente, qu'il accepte de ne plus revoir la femme uniquement après que celle-ci l'ait convaincu qu'il est pas son genre ? Ne pensez-vous pas que, au contraire, s'engager dans cette voie ne fera que renforcer la conviction de l'homme que sa perception des choses est pertinente alors qu'elle est en réalité complètement erronée ? Pour revenir au cas qui nous intéresse, dans ce papier, au risque de me répéter, l'auteur explore des conséquences observationnelles de son modèle. Sans discuter du blabla des premières pages, nous serons d'accord vous et moi qu'il écrit la loi d'expansion dans son modèle (équation (2)), équation dans laquelle il n'y a pas de Big Bang car la quantité a ne passe jamais par 0 (ce a représente l'évolution de la distance entre deux objets ; quand elle double, c'est que l'expansion a doublé la distance séparant les objets quelle que soit la valeur initiale de celle-ci). Je pense que vous (et lui, espérons-le) savez qu'un cosinus hyperbolique n'est jamais nul (c'était niveau première ou terminale à son époque). Si on se fie à ce résultat, quelle est donc la valeur minimale du a en question, et donc la valeur maximale du redshift dont un objet peut être doté ? C'est assez simple, et déterminé par le paramètre q_0 du papier, quantité qui est négative. Si on se fie à l'équation (5), il est clair que le terme dans une racine carrée ne peut être nul (niveau troisième ou seconde, je suis certain que vous serez d'accord), aussi un terme du type sqrt(1 + 2 q_0 z) n'est défini que si 1 + 2 q_0 z est positif ou, au pire, nul. Et comme q_0 est négatif (le papier évoque plusieurs fois la valeur -0,087), z ne peut excéder la valeur de - 1 / 2 q_0 (je suis certain que vous et moi serons d'accord), soit, en faisant l'application numérique (vous en êtes capable), 5,75. Si vous aimez l'astronomie (je suis certain qu'il ne saurait en être autrement), vous devriez savoir que des objets d'un redshift supérieur à 5,75 sont connus depuis... pas mal d'années désormais. Donc, dans l'hypothèse où vous seriez en contact avec votre champion, n'hésitez pas - sauf si la réponse vous effraie - à lui demander pourquoi diable son modèle nous affirme que rien n'est observable à plus grand redshift que 5,75 alors que TOUT LE MONDE sait qu'il ne peut en être ainsi. C'est je crois une question/remarques des plus simples, exemple parmi une quasi infinité d'autres qu'il ne comprend pas vraiment de quoi il parle.
  11. la fin de la matière noire .....

    Je vais essayer de traduire le plus simplement possible le propos de ce monsieur, façon thread Twitter, histoire de ne pas être trop verbeux. Il dit qu'il n'y a pas de matière noire mais un autre truc (son Janus). Donc il remplace un truc qu'il n'aime pas par un autre truc qu'il aime bien. Fondamentalement, cela ne simplifie rien. Ensuite, avec son truc à lui, il déduit que la loi d'expansion est en contradiction totale avec tout ce qu'on peut observer (la nucléosynthèse notamment). Donc il est coincé, SAUF à invoquer que en fait, il "suffit" de changer les lois de la physique pour que son modèle marche. Facile, non ? Il dit même qu'il "prédit" que les lois physiques (ou les constantes fondamentales) ont varié au cours du temps. Il ne prédit rien du tout ! Il est juste en train d'inventer un nouveau truc qu'il est obligé de rajouter à son modèle pour qu'il ne soit pas trivialement exclu. Et à ce jeu, il augmente considérablement le nombre de paramètres libre : pour chaque constante, il faut une variation ad hoc pour sauver son scénario. Maintenant, tout ceci n'est pas vraiment très grave : au lieu d'un modèle à x paramètres, il propose un modèle à y paramètres, où y > x. D'après le principe du rasoir d'Ockham, ça pourrait n'être qu'inutile, mais pas "grave" en soi. Ce qui est grave c'est que de A à Z son truc ne tient pas la route, non pas pour une raison pour des dizaines de raisons. Il n'y a rigoureusement rien qui va. Rien du tout. Par exemple, il dit qu'il y a un problème avec la modèle de trou noir parce que quand on regarde un effondrement d'un fluide "incompressible" (en fait de densité uniforme), la pression diverge quelque part. C'est vrai, mais... un fluide incompressible ça ne peut pas exister car incompressibilité implique propagation instantanée du son, en contradiction flagrante avec la relativité restreinte (rien ne va plus vite que la lumière). Trouver une incohérence résultant d'une hypothèse de facto incohérente n'apporte rien de nouveau, juste que l'incohérence de départ est délétère pour le problème considéré. Je vous passe les détails technique sur son Janus, avec deux métriques différentes qu'on relie l'une à l'autre point par point sans préciser comment (sa méthode dépend d'un choix arbitraire du système de coordonnées). Je vous passe ses délires que l'article de 1916 de Schwarzschild que "personne" n'aurait lu. Genre les germanophones ne l'auraient jamais fait. Pas plus que les historiens de la relativité. Vous y croyez ? Si JPP trouve qu'il y a un loup, c'est juste qu'il ne comprend pas le contexte, et le fait que certains points de la RG n'étaient pas bien compris début 1916. On s'en doutait un peu, non ? Je vous passe les incohérences sur ce que veut dire une variation des constantes fondamentales (déjà évoquées sur ce forum). Je vous passe son incapacité à faire des calculs sur le fond diffus cosmologique. Je vous passe ses références à des articles passés qui sont en contradiction avec ses articles d'aujourd'hui (celui de astro & space science de 1995 fait référence à une courbure positive). Je vous passe ses "simulations numériques" faites dans un univers à courbure nulle alors que son modèle est de courbure négative. Je vous passe ses erreurs niveau M1 sur les ondes gravitationnelles. Je mentionne simplement que dans son modèle, la densité moyenne de matière est quasi nulle, donc on est dans un univers vide en expansion, qui a nécessairement une courbure négative. Les conséquences de ce truc se voient comme le nez au milieu de la figure à grand redshift : avec son modèle il devrait être impossible de voir la moindre galaxie à grand redshift car la géométrie de l'univers la rendrait trop faible pour être observable. Or on observe des trucs à grand z, ergo, son modèle est out. (Lui ne teste son truc qu'avec des supernovae, qui vont moins loin en redshift, donc forcément, il ne voit pas le problème.) Donc le JPP qui veut un séminaire, je lui proposerais plutôt de s'inscrire en master 2 de physique théorique et de voir s'il dépasse les 2/20 à un partiel de relativité générale. Si vous voulez mon avis, il ne se prêtera jamais à l'exercice. Mais si par extraordinaire il est partant, je peux vous envoyer un exemple de partiel que vous vous chargerez, si le cœur vous en dit, de lui transmettre.
  12. L’explication est , je crois, dans la légende : rétrogradation.
  13. Betelgeuse 2017 à 2022

    J'ajoute aussi deux petites choses : La notion de diamètre angulaire de Bételgeuse n'est pas franchement bien définie : le diamètre dépend de la longueur d'onde d'observation. En radio, Bételgeuse a un disque plus gros qu'en visible. Ce n'est donc pas une cible idéale pour l'astrométrie. Bételgeuse s'approche du plan galactique, ce qui est assez curieux car les zones de formation d'étoile sont majoritairement situées dans le plus galactique... la nébuleuse d'Orion étant une exception notable. En fait, comme c'est une étoile massive, Bételgeuse est très jeune et donc devrait avoir un mouvement qui s'éloigne de la zone de formation d'étoiles dont elle est issue... mais ce n'est pas le cas (à supposer, à nouveau, que le mouvement propre soit bien reconstitué, ce qui n'est pas certain pour la même raison que la parallaxe). C'est dommage car en identifiant la zone de formation d'étoile on pourrait reconstituer son déplacement 3D dans la galaxie et en déduire sa distance. Mais ni la nébuleuse d'Orion (bien trop loin en distance) ni les autres vestiges de zone de formation d'étoiles du coin ne font l'affaire. Donc impossible de déterminer l'âge ou la distance de l'étoile pas ce biais, pourtant utilisé avec succès pour certains pulsars.
  14. Betelgeuse 2017 à 2022

    Des explications partielles sont données dans l'article que vous citez : Bételgeuse est loin et donc la parallaxe est très faible Les données sont bruitées, probablement parce que Bételgeuse est une étoile dont la surface a un éclat spatialement variable. En mesurant le photocentre par astrométrie, on ne mesure pas la vraie position de l'étoile. Or la taille angulaire de l'étoile est, fait rare, supérieure d'un facteur 4 à sa parallaxe.
  15. Ce n'est pas évident que c'est plus clair. La gravitation newtonienne, on peut la décrire via une unique quantité définie dans tout l'espace (le potentiel gravitationnel), dont découle le champ gravitationnel (vectoriel, à 3 composantes en chaque point). La RG, ce n'est pas un nombre par point, mais 6, donc de toute façon c'est très compliqué de représenter cela en toute généralité. Cependant, la limite newtonienne de la RG reste... newtonienne, donc toute analogie avec un unique nombre suffit. Ce n'est que pour des effets uniquement relativistes qu'il faut faire attention. Or dans l'exemple (le champ newtonien de la Terre), on n'est pas en pareille circonstance. Donc sortir, pour cette configuration simplifié, une grosse artillerie telle que celle qu'il utilise, cela laisse à mon avis peu d'espoir que cela soit gérable quand on met des effets relativistes où il faudra rajouter des trucs nouveaux. Il est vrai qu'on peut décrire la limite newtonienne de la RG par une histoire de différences d'écoulement du temps, et en ce sens la vidéo insiste sur un point méconnu. Mais comprend-on mieux la relativité quand on sait cela sans faire de calculs ? Je ne suis pas sûr. En outre, ça n'est plus vrai pour la précession du périhélie de Mercure, explicitement liée à la courbure de l'espace (= le fait que le rapport entre le périmètre d'un cercle centré sur le Soleil et son rayon n'est pas exactement égal à 2 π, qui est un des six autres paramètres à définir en tout point). Idem pour les ondes gravitationnelles (2 des six autres paramètres) et des effets d'entraînement des référentiels (effet Lense-Thirring, 2 aussi). Un autre élément me chagrine un peu. L'histoire du système de coordonnées qui "s'écoule" vers la Terre est trompeur, comme le reconnaît à raison l'auteur. L'espace autour de la Terre est statique, ce que l'écoulement ne traduit pas. Il aurait plus de pertinence à l'intérieur d'un trou noir ou pour l'expansion de l'Univers où une vision d'un univers statique (donc plutôt newtonien) ne marche pas. L'auteur est d'ailleurs sûrement conscient de cela vu comment il formule son propos. Cela dit, c'est en multipliant les approches qu'on finit par mieux faire comprendre les choses, donc son approche a certainement ce mérite.
  16. L'article évoque un gisement de 45 millions de tonnes d'hydrogène. Je vous laisse comparer cela à la production (= la consommation) journalière d'hydrocarbures. Je crains que l'économie d'hydrocarbures permise par ce gisement ne fasse pas plus que quelques semaines de notre consommation actuelle... et encore.
  17. Êtes-vous certain ? L'échec du SSC, c'est d'abord et avant tout le fait que la taille des tubes à vide avait été sous-estimée, et que leur augmentation nécessaire de 20 à 25% a complètement fait exploser le budget puisque cela affectait toute la chaîne d'aimants. Que l'on ait retenu le budget de fausses plantes (élevé mais une goutte d'eau par rapport au budget final) est à mon avis non représentatif de ce qu'il s'est réellement passé.
  18. Je ne pense pas. Supposons que les galaxies n'évoluent pas au cours du temps et que toute la matière soit contenue dans les galaxies. Pour simplifier disons qu'on a une galaxie par cube de un million d'années-lumière de côté. Remontons à un redshift de z = 1. La même galaxie est dans le même cube, mais le cube est deux fois plus petit. Donc on a une galaxie par cube de 500 000 al de côté. Mais il y a toujours une galaxie dedans. Comme la galaxie n'est pas diluée par l'expansion, elle a toujours la même taille dans le passé que aujourd'hui (100 000 al, disons), et sa plus proche voisine est dans le cube voisin, donc à 500 000 al en moyenne. Donc ce que fait l'expansion, c'est modifier le rapport entre la taille de la galaxie (inchangée) et la distance à ses voisines (qui augmente). Autrement dit, il y avait dans le passé moins de vide entre les galaxies, car c'est ce vide là qui grossit au cours du temps, pas les galaxies. Que se passe-t-il d'un point de vue visuel ? Dire que la taille des galaxies ne change pas alors que leurs distances entre elles augmente, c'est, formellement comme si on prend comme unité de longueur la taille d'une galaxie et qu'on mesure la distance qui les sépare via cette unité : l'expansion nous dit que la distance augmente. Mais rien n'empêche de prendre comme unité de longueur la distance moyenne entre deux galaxies voisines. Ce n'est pas forcément malin, mais on a le droit. Dans cette approche, c'est la taille des galaxies qui diminue avec le temps. Autrement dit, on peut "décider" qu'il n'y a pas d'expansion mais que les galaxies diminuent en taille. En conséquence, "tout se passe comme si" les galaxies par le passé étaient plus grosses qu'elles ne sont actuellement, et donc, fatalement, que leur taille angulaire à une distance donnée est plus grande qu'attendu. Evidemment, c'est une interprétation très discutable : la physique nous dit que c'est plutôt l'univers qui grossit et non les objets eux-mêmes qui rapetissent. Mais on peut toujours, via un choix discutable d'étalon de longueur, présenter les choses ainsi. C'est physiquement inapproprié mais cela a, je crois, l'avantage de rendre l'histoire du diamètre angulaire qui grandit avec la distance moins mystérieux. Bien sûr il faut ensuite quantifier tout cela. Avec cette interprétation, la taille angulaire d'une galaxie diminue à mesure qu'elle est plus loin mais augmente parce que dans le passé elle était plus grosse. Le fait que l'un ou l'autre de ces effets s'accentue le plus avec la distance dépend de la dynamique spécifique de l'expansion, et les calculs nous disent qu'à faible distance ça diminue et à grande distance ça augmente. Cela n'est pas forcément très intuitif même si on peut un peu s'en douter.
  19. Avec l'accélération de l'expansion les régions dont on reçoit la lumière émise il y a 13,8 Ga sont aujourd'hui situées à 45 Gal, soit dans les 3,2 fois plus loin. En matière de volume, cela fait donc 30 à 35 fois plus. Ajoutez à cela que les galaxies fusionnent au cours du temps (les données pré-Gaia en recensent au minimum 6, de mémoire, pour la Voie lactée), de sorte qu'il y avait plus de galaxies par le passé.
  20. Disons que ce n'est pas une coordonnée pertinente. Pour un photon, plutôt qu'utiliser une coordonnée de genre temps t que définirait un observateur immobile par rapport à un certain référentiel (héliocentrique, disons), et plutôt qu'utiliser la coordonnée de genre espace z le long de laquelle le photon se déplace, on utilisera des coordonnées de genre lumière, genre z - c t et z + c t. La première est nulle si le photon se déplace vers les z positifs (car alors z = c t). La seconde croît comme 2 c t et peut être utiliser pour paramétrer la trajectoire du photon. Il n'est pas complètement trivial d'avoir une intuition de ce que signifient ces coordonnées, mais elles ont l'avantage de pouvoir être utilisées dans toutes les situations. La vidéo n'est pas claire donc difficile de savoir ce qu'il veut dire. Mais dans le cas (irréaliste) d'un mouvement éternellement uniformément accéléré, alors une source de lumière initialement derrière vous et envoyant pendant infiniment longtemps des photons à un rythme régulier n pourra vous transmettre qu'un nombre fini de photons à partir du moment où vous commencerez à accélérer. C'est assez facile à montrer sur un diagramme d'espace-temps et il est même curieux que l'auteur de la vidéo de l'ait pas fait.
  21. Je parlais de la région de calibration, qui vérification faite, n'est effectivement pas celle montrée hier. Elle sera (et a déjà été) observée plusieurs heures tous les mois.
  22. Il me semble qu'une région du ciel (pas forcément celle-là) sera très régulièrement observée au cours des 6 ans ou plus de la mission à des fins de calibration, genre plusieurs heures par mois. De ce que j'ai compris, cette région atteint déjà la magnitude 28, et ce sera donc beaucoup, beaucoup, plus à terme.
  23. Elles sont déjà en ligne, avant même la conférence de presse. https://www.esa.int/Science_Exploration/Space_Science/Euclid/Euclid_s_first_images_the_dazzling_edge_of_darkness
  24. Hubert Reeves

    Je suis tout à fait d'accord. Autant la volumineuse chorale a très bien chanté mais a, mécaniquement, empêché une partie du public de rentrer, autant le petit orchestre était aussi irréprochable que le choix des œuvres était bien pensé. Cela n'a rien de surprenant car c'étaient des gens qui avaient déjà travaillé avec Hubert Reeves (cf. http://ensemblecalliopee.com/mozart-et-les-etoiles-en-quatuor/). Les morceaux n'avaient pas ce côté larmoyant qu'on entend parfois en pareilles circonstances (genre l'adagio d'Albinoni).
  25. Hubert Reeves

    Ambiance tranquille et apaisée cet après-midi au Père Lachaise. Pas mal de chercheurs, éditeurs, journalistes, au point que le crématorium et ses 200 places était trop petit pour les nombreux anonymes qui étaient également là. C'est dommage, mais difficile de faire autrement. Il y a eu pas mal de témoignages de sa famille, ses amis, ses collègues (Jean-Pierre Bibring, Michel Cassé), son éditeur historique (Jean-Marc Lévy-Leblond) et du co-fondateur du festival de Fleurance (Bruno Monflier). La pluie s'est invitée en début de cérémonie, mais à l'issue ce fut un grand soleil, ce qui était finalement une belle façon de faire un dernier salut au bonhomme. Je n'ai pas réussi à savoir qui était la personne qui brandissait la pancarte (pendant plus de deux heures !), mais il était dans le ton de ce moment, recueilli et respectueux, mais pas triste pour autant.