dg2

Membre
  • Compteur de contenus

    1 436
  • Inscription

  • Dernière visite

  • Jours gagnés

    6
  • Last Connexion

    Soon available - 42142

Tout ce qui a été posté par dg2

  1. > l'erreur c'est de comparer ça à des magnitudes puisque ça > n'a pas vraiment de rapport (d'un coté de la lumière > monochromatique et de l'autre une bande large de plusieurs > dizaines de nanomètres).Cela ne change rien. La magnitude dans une bande donnée ne préjuge pas que la lumière est ou non monochromatique, juste qu'elle est située dans cette bande. La magnitude n'est rien d'autre qu'une traduction en un système d'unité bizarre d'un flux lumineux.
  2. Un laser dans l'oeil est largement plus destructeur que le Soleil. Donc -30 est certainement possible, sans faire de calcul. Mais très malchanceux aussi car le faisceau ne doit pas être bien large à cette distance. Je suppose aussi que les gens chargés de viser s'assurent de la circulation aérienne avant de procéder.
  3. Si les impulsions sont suffisamment nombreuses (pendant plusieurs secondes), oui, et a priori le phénomène a même une magnitude négative.
  4. Le calcul de ChiCyg me semble incorrect : 200 mJ pendant 300 ps donnent une puissance de 200 mJ / 300 ps = 667 MW lors de l'impulsion. Moyennée sur la période interimpulsion, cela donne 200 mJ / 0,1 s, soit 2 W. Sur la surface couverte de 7 km de diamètre, cela donne 52 nW/m^2, non ?[Ce message a été modifié par dg2 (Édité le 03-01-2008).]
  5. Un petit calcul me donne : 200 mJ de photons à 0,5 microns de longueur d'onde correspond à 5x10^17 photons. Si on fait le rapport entre la surface atteinte (7 km de diamètre dit-on) et l'oeil (0,5 cm), cela fait 250000 photons dans l'oeil par impulsion. C'est me semble-t-il largement suffisant pour être détectable, puisqu'à ma connaissance il faut environ 5 à 9 photons par tranche de 0,2 secondes pour impressionner la rétine. Si on suppose qu'un tel flux correspond à la magnitude limite détectable par l'oeil (6), 250000 photons donnent une magnitude de l'ordre de -5. Même sur un fond lumineux, cela me paraît largement détectable.
  6. Tipe sur les étoiles variables

    Je pense qu'il faudrait rajouter un couplet sur les applications essentielles de la méthode, notamment sur le fait que c'est elle qui a convaincu Hubble de la réalité de l'expansion de l'univers.
  7. Plus besoin d' énergie noire ?

    Si vous voulez toucher un public d'astronomes et d'astrophysiciens, il est naturel de publier dans les revues classiques de ces disciplines, telles Astronomical Journal, Astrophysical journal, PASP, MNRAS, A&A, ou si vous êtes plus théoricien, Phys Rev, JHEP, CQG. New Journal of Physics est un choix que je trouve suffisamment atypique pour m'interroger sur les raisons qui ont poussé l'auteur à choisir cette revue, d'autant que dans un preprint de 2005 il indiquait ce travail comme étant en préparation, ce qui fait une gestation assez longue et donc potentiellement difficile. Maintenant je vous accorde que c'est là une question de forme et non de fond.
  8. Plus besoin d' énergie noire ?

    Le papier intéressant n'est pas http://arxiv.org/abs/0712.3984 qui est une contribution à un colloque, mais http://arxiv.org/abs/gr-qc/0702082 qui lui a été publié, non sans mal apparemment puisque l'annonce de ce travail date de 2005, mais il n'a été publié qu'en 2007 et ce dans un journal peu prestigieux, ce qui n'est jamais bon signe.L'idée générale est de supposer que les inhomogénéités de l'univers (qui existent) se traduisent par des inhomogénéités dans l'expansion et sont susceptibles d'imiter fortuitement l'effet d'une constante cosmologique par un effet apparent d'accélération de l'expansion. L'idée est tout sauf nouvelle car cela fait 10 ans que les tenants d'un modèle fractal disent qu'un tel modèle d'univers s'accomode bien des données des supernovae, ce qui est tout-à-fait possible (voire évident quand on regarde les données). Le problème est que c'est là la seule prédiction vaguement quantitative concrète : aucun modèle de ce type n'a à ma connaissance été en mesure de faire des prédiction précises sur les fluctuations du fond diffus cosmologique ou la répartition des galaxies. Or de nos jours, ce sont ces données là qui sont les juges de paix en cosmologie. Affirmer dans ce contexte qu'il existe un accord qualitatif entre ledit modèle et les données n'est pas spécialement intéressant, d'une part parce que c'est une affirmation ici non étayée (soit on sait faire le calcul et l'accord ou le désaccord est quantitatif, soit on ne sait pas faire et toute affirmation tient de l'acte de foi), d'autre part parce que même si c'est vrai, cela est largement insuffisant pour prétendre que l'on a un modèle compétiteur avec le modèle standard de la cosmologie qui lui est abondamment confronté aux données. Bref, en l'attente d'une formalisation suffisamment poussée du modèle pour le rendre confrontable aux données, je ne crois pas qu'il y ait lieu de lui porter un intérêt significatif.
  9. Une planète de la masse de la Terre et située sur son orbite génèrerait des perturbations gravitationnelles importantes sur les autres planètes (du même ordre que celles de la Terre), en particulier une contribution à la précession du périastre de celles-ci, chose que l'on n'observe pas. De plus, il n'est aucunement évident qu'une telle planète serait dans une configuration instable (au même titre que les points de Lagrange L1 à L3 pour un corps de masse négligeable) et serait je pense tôt ou tard amenée à quitter sa position par rapport à la Terre.P.S. Quand bien même il y aurait un corps à cet endroit, il ne saurait être appelé "planète" du fait de la définition de ce mot donée par l'UAI...
  10. Petit calcul (a verifier...) pour donner des elements numeriques. Supposons que l'on cherche une "exo-terre", telle que depuis celle-ci l'etoile fasse un demi degre de diametre angulaire (je definis arbitrairement l'exo-terre de cette facon, meme si ce n'est pas la definition usuelle). Vu de loin, la probabilite d'un transit est (sauf erreur de ma part) de 1/360. Si on suppose la periode orbitale d'un an, en 6 mois d'observation, la probabilite tombe a 1/720 (seulement une chance sur deux de voir le transit). Avec 10000 etoiles observee, le nombre de transits attendu est de 14*P, ou P est la proportion de systeme possedant ladite exo-terre. Donc de deux choses l'une : soit on en detecte ne serait-ce que 2, et alors on peut gaillardement affirmer que dans les 15% des etoiles possedent une exo-terre, ce qui nous fait dans les 30 milliards d'exo-terre dans la seule Voie Lactee (sur 200 milliards d'etoiles, mettons), soit on ne detecte rien, en on conclut (temporairement) qu'il y a probablement moins de 7% d'etoiles munis d'exo-terres, et donc moins de 13 milliards d'exo-terre dans la Voie Lactee. On voit bien que la detection ne serait-ce que d'un seul systeme de ce type aurait des repercutions absolument fantastiques et qu'une telle annonce ne saurait se faire a la va-vite. Pour les jupiter chauds, la configuration est meilleure (planete plus proche, donc proba de transit plus elevee, en plus d'etre plus visible car la baisse de luminosite est plus importante), mais en un sens moins interessante, car ce n'est pas ce type d'objet que l'on cherche en priorite.
  11. Dans l'espace sans scaphandre ?

    Une depressurisation brutale de 1 bar a 0 bar n'est probablement pas suffisante pour etre letale. L'infortune astronaute va donc mourir non pas en quelques secondes par explosion de son organisme (ce qui serait le cas par contre s'il passait brutalement de plusieurs dizaines de bars a 0), mais en plusieurs minutes, par asphyxie. La seule chose qui pourrait hater sa fin serait un probleme du a l'air reste dans ses poumons, mais je suis tente de pense que l'air s'echappera de lui meme par les orifices naturels plutot que provoquer dechirement des tissus. Independamment des problemes d'asphyxie, l'astronaute gelera tres vite au niveau des partie de son corps/visage a l'ombre, celles au soleil (s'il est pas trop loin cad proche de la Terre par exemple) seront par contre vite brulees. Le devenir du corps de l'astronaute sera sans doute une sorte de momification rapide, en raison de l'absence totale d'humidite et donc de terrain favorable a la putrefaction du corps. Au final, la celebre scene de 2001 est assez realiste, David Bowman restant seulement quelques secondes dans le vide avant d'arriver a pressuriser le sas. Par contre, je suis nettement moins convaincu par la scene de mission to Mars ou Ed Harris (je sais plus son nom dans le film) gele instantanement en enlevant son scaphandre.
  12. Rêve d'Europe dans "Le Monde"

    > A Dôme C, on creuse la glace à la foreuse, on arrive > péniblement à descendre à 5 ou 6 km, je sais plus...> Sur Europe, dans le champ de radiation de Jupiter, par > une température de -200 °, on va creuser 50 km de glace ?La problématique reste très différente. Au Dome C, c'est la glace que l'on étudie, pas ce qu'il y a dessous (pour l'instant, car les lacs sous glaciaires intéressent beaucoup de monde). Il faut donc faire remonter la glace, d'où nécessité du carottage classique. Ici, la sonde descend mais ne remonte pas, ce qui en un sens est plus simple. De plus un avantage non négligeable est que l'on pourra abondamment tester la technologie sur Terre avant de l'envoyer au loin.
  13. Selon toute vraisemblance, ce n'est pas lors d'un séminaire que les résultats seront annoncés. Ils le seront vraisemblablement simultanément par communiqué de presse et conférence de presse suite à la parution des articles. S'ils sont soumis à Nature (ce qui serrait logique), il y a obligation d'embargo par la revue avant publication, et difficulté de savoir à la semaine près quand les résultats pourront être annoncés. Donc les éventuels séminaires risquent d'être plus là pour faire monter la mayonnaise que pour faire les grosses annonces. Bref, il ne reste plus qu'à espérer que COROT ne fera pas la même chose que les gens de WMAP qui ont tenu en haleine le reste du monde pendant de très longs mois, repoussant sans cesse le moment de l'annonce en raison de problèmes techniques dans le traitement des données.
  14. Rêve d'Europe dans "Le Monde"

    L'idee n'est pas de forer au sens usuel du terme, mais de faire penetrer une sonde en forme d'ogive dont l'extremite serait chauffee par pile atomique et qui s'enfoncerait lentement sous sa propre gravite, la progression etant rendue possible par la fonte de la glace consecutive au degagement de chaleur. En s'enfoncant elle deroulerait un cable reliee a un module reste a la surface et qui serait charge de transmettre les donnees.
  15. Ce n'est probablement pas le mouvement propre, mais sa taille angulaire, qui couplee aux donnees spectroscopique donnant sa vitesse d'expansion et a la connaissance de son age doivent permettre de determiner la distance. Par contre, je ne sais pas a quel point c'est precis compare a d'autres methodes (notamment la precision de la mesure de la vitesse d'expansion qui est bruitee par le mouvement propre du remanent lui-meme).
  16. Le coup de la parallaxe me laisse perplexe. Par définition, à un parsec, la parallaxe est d'une seconde d'arc, donc à un megaparsec elle est d'une microseconde d'arc. Et même en VLBI on n'atteint pas cette précision astrométrique. Pour le mouvement propre c'est plus abordable, car l'effet est cumulatif au cours du temps et de toute façon plus important sur une année. Par exemple, pour un déplacement de 200 km/s à 1 Mpc, on a un mouvement propre de 30 µas par an, que l'on détecte en quelques années par astrométrie. Mais pour cela il faut des sources ponctuelles et stables, d'où l'intérêt des masers. [Ce message a été modifié par dg2 (Édité le 15-12-2007).]
  17. Je ne crois pas que l'on ait réussi à mesurer par VLBI des parallaxes galactiques. Par contre, dans le cas de M33, on a mesuré par cette méthode le mouvement propre de la galaxie, en bénéficiant de plusieurs masers en son sein. La même méthode pourrait marcher avec M31, mais malheureusement, et malgré des recherches intensives, aucn maser n'y a pour l'heure été trouvé. Cela aurait pourtant un intérêt considérable pour cerner la dynamique du groupe local, et répondre à la question "M31 fonce-t-elle droit sur nous ou est-elle en orbite elliptique allongée ?"
  18. Juste pour info, quand l'incertitude sur le module de distance est faible (ici 0,16), l'incertitude sur la distance se trouve en divisant par deux l'incertitude sur le module de distance (ici 0,08, soit 8%). L'incertitude est en principe a 1 sigma, ce qui signifie que (si tout se passe bien), on considere qu'il y a 68% de chances que la vraie distance differe de moins de 8% que la valeur preferee.
  19. Ce qui est dommage c'est de donner l'erreur sur le module de distance mais pas sur la distance.
  20. J'ai l'impression que le 29,311 vient de la multiplication de 9 Mpc par le truc qu'il faut pour convertir en années-lumière. Ceci dit, le facter de conversion me paraît très légèrement incorrect (3,2568 au lieu de 3,26 et quelques).
  21. En général les distances ne sont pas explicitement calculées, mais c'est une quantité appelée module de distance qui l'est, et qui est égale à l'estimation (par diverses méthodes éventuellement différentes des céphéides) de la différence entre magnitude apparente et magnitude absolue. Quand tout se passe bien, l'incertitude sur le module de distance est de 0,1 à 0,2 magnitudes, ce qui se transcrit par une incertitude de 5 à 10% sur la distance. Donc en l'espèce, une valeur arrondie à megaparsec près est sans doute acceptable ici, mais avec plusieurs chiffres après la virgule, elle ne l'est plus (au sens où ces chiffres ne sont pas significatifs).
  22. Heu pardon, mais il y a des tas de méthodes d'estimation de distances avec les galaxies, céphéides ou pas céphéides. Incidemment, NGC 891 a eu droit à sa supernova récente, c'était en 1986 (SN 1986J pour être précis, cf http://www.cfa.harvard.edu/iau/lists/Supernovae.html ).
  23. Observation PAN à Pasto, Colombie

    La vraie question, en fait c'est : est-ce que le modèle à bigravité récemment proposé par Jean-Pierre Petit et Gilles d'Agostini permet d'expliquer le phénomène ?
  24. Le Soleil et la météo

    Je présente mes humbles excuses aux participants à cette discussion si mes propos ont pu choquer, ce n'était pas le but, loin de là. Je ne faisais que pointer à une personne (PascalD) le fait qu'elle avait eu un bon réflexe, à savoir de pointer qu'il est très difficile de se faire une opinion sur un sujet difficile pour lequel on n'a que des échos fortement altérés par la chaîne de communication (du fait du procédé même de vulgarisation), et en particulier quand on a un sujet sensible (du fait de manoeuvres par forcément louables). J'ai cru bon d'insister là dessus car dans le cours de la discussion, je n'ai pas tant vu que cela ce bon réflexe, même si certains l'ont sans doute eu. Ceci étant, je me rends compte que mon propos pouvait laisser penser que je donnais tous les torts aux climatologues sceptiques, ce qui n'était pas le cas, ne serait-ce que parce que je ne prétends pas avoir d'avis sur le sujet. Je pensais que ma conclusion était explicite sur ce point, mais manifestement elle est passée inaperçue ou a été incomprise. Je vous renouvelle donc mes excuses et vous laisse à vos échanges.
  25. Le Soleil et la météo

    > Le moins qu'on puisse dire, c'est que le sujet n'est pas > simple ... Est-ce qu' on ne serait pas en train d'assister > à un truc similaire aux discussions "cosmologiques", dans > lesquelles la plupart des "sceptiques" fondent leurs > arguments sur une vision simpliste et fausse du modèle, > et ne comprennent pas ou de travers les arguments de la > "science officielle" , qui sont simplifiés jusqu'à la > caricature par la vulgarisation "grand public" ?Bonjour PascalD, je vous félicite, après 232 message plus ou moins sérieux, vous avez enfin réussi à mettre le doigt sur le point essentiel de votre affaire, à savoir qu'il est dangereux, risqué et en général vain de se documenter sur des sources secondaires. La presse ne vous expliquera jamais les rouages compliqués d'un problème scientifique du moment. Elle pourra vous expliquer quelles sont les directions suivies, quelles sont les difficultés rencontrées, quels sont les enjeux, etc, mais elle ne vous permettra jamais de cerner l'essence scientifique d'un problème. Croire cela, c'est croire que sans rien connaître à un sujet scientifique, on peut en avoir une bonne appréhension en consultant des documents par essence non scientifiques (le langage de la presse s'adresse au grand public et non aux scientifiques). Ce serait fort naïf. Je vous invite aussi (vous et vos interlocuteurs) à faire attention à un travers terriblement classique dans lequel on tombe souvent quand on fait l'effort (au demeurant très louable), que l'on peut résumer en quelques étapes : 1) On ne connaît pas un sujet, mais on s'y intéresse 2) On se documente sur le sujet 3) On se rend compte que c'est "compliqué", c'est-à-dire que le discours scientifique est très différent et surtout plus complexe du discours grand public 4) On réalise que l'opinion que l'on a dépend très fortement du degré de connaissance que l'on a 5) Conscient que l'on a progressé dans sa compréhension du sujet on en déduit que des gens qui eux ne montrent pas d'amélioration dans leur compréhension du sujet sont forcément dans l'erreur (parce qu'ils étaient aussi ignorant que vous au départ).C'est bien évidemment le point 5 qui est problématique, et ce d'ailleurs quelle que soit la discipline étudiée. C'est une erreur bien humaine que de croire que l'effort que l'on a fourni suffi pour passer devant d'autres, comme si ceux-ci étaient nécessairement au même niveau que vous au départ. Par exemple, et histoire de changer de la climatologie, vous avez sans doute au moins une fois dans votre vie vu un gars qui, tout content d'avoir installé un driver sous Windows se sentait (sincèrement !) en mesure d'apprendre son métier à un vrai informaticien...Pour en revenir au climat, je suis surpris d'une chose dans la discussion à laquelle j'assiste, à savoir que personne ne semble avoir réalisé que les discussions sur l'amplitude de la contribution anthropique au réchauffement sont *antérieures* aux convictions acquises sur le fait qu'elles sont significatives. Le problème n'est pas de nier que le débat existe (et surtout, a existé), mais qu'il est, du moins en partie, scellé. Personne ne conteste ni la réalité de fluctuations non anthropiques (minimum de Maunder, maximum médiéval), ni le fait que certains mécanismes et rétroactions sont mal compris. J'insiste là dessus car c'est un grand classique dans la littérature "sceptique de mauvaise foi" (quel que soit, à nouveau, le domaine scientifique) de donner l'illusion de l'existence d'un débat en se basant sur des éléments historiquement exacts, mais désormais en partie obsolètes. Un exemple connu, toujours pour changer de la climatologie, sont les "travaux" de Allais sur la relativité. Sa ligne d'attaque est de dire que l'expérience historique de Michelson et Morley mettant en lumière la réalité de la relativité restreinte était fausse, et donc que si cette expérience fondatrice s'écoule, le reste de l'édifice sera anéanti aussi. J'espère que vous sentez bien que ce type de raisonnement est inexact. Pour le reste, mon avis pour ce qu'il vaut (c'est-à-dire pas grand chose) est que les situations où il y a "débat scientifique" comme l'on dit, c'est-à-dire qu'en réalité, c'est le grand public qui débat (comme ici), où les uns et les autres prennent à parti le grand public (par essence ignorant) pour défendre leur cause (évntuellement légitime), sont des situations peu satisfaisantes. Quant à savoir qui est coupable de cela (les pour, les contre, les autres ?), c'est une autre histoire.