Contacter l'auteur / Contact the author

Recherche dans ce site / Search in this site

 

Nos outils pour sonder l'univers

Document John Dubinski, http://www.cita.utoronto.ca/~dubinski/tflops/

Simulation de la collision entre la Voie Lactée et M31. Aspect du système galactique 800 millions d'années après leur collision. Cliquer ici pour lancer l'animation. Fichier MPEG de 10 MB préparé par John Dubinski/U.Toronto.

L'informatique (VI)

L'informatique n'est pas à proprement parlé un outil pour sonder l'univers mais depuis quelques décennies cette technologie s'avère indispensable pour assister l'astronome dans le guidage des télescopes, le traitement des images ou des signaux, la gestion des données, les analyses statistiques et les simulations des phénomènes cosmiques.

A l'ère de l'électronique, de l'intégration à l'échelle atomique et de l'informatique qui ont envahi notre quotidien, l'astronome et le physicien au sens large font un usage intensif des superordinateurs pour comprendre les principes directeurs de l'Univers.

Les superordinateurs

Les superordinateurs utilisés en science sont les machines les plus performantes. Elles exploitent les technologies HPC (High Performance Computing), GPU (Graphics Processing Unit), les grappes ou clusters d'ordinateurs et des noeuds ou concentration d'unités de coeurs de processeurs (ou "cores"), de mémoire, d'unité de stockage, etc.

L'avantage de ce type d'architecture est d'offrir des systèmes massivement parallèle et modulables dont les traitements sont distribués entre les différentes unités spécialisées afin d'obtenir un système global plus performant qu'un seul gros système équivalent, pour un prix relativement inférieur (environ 100000 € pour une machine de 1 PFLOPS).

Ces superordinateurs offrent une vitesse de calcul qui s'exprime actuellement en milliers de milliards d'opérations en virgule flottante par seconde, c'est-à-dire en petaFLOPS (PFLOPS) et récemment en exaFLOPS (1000 PFLOPS). Leur mémoire vive (RAM) se calcule en terabytes et leur capacité de stockage sur disque ou tape est sans autre limite que la taille des salles de stockage et se calcule en multiples de petabytes !

Ainsi qu'on le constate les performances d'un superordinateur de dernière génération est équivalente à celle de centaines de milliers de PC mis en parallèle.

Pourquoi une telle puissance ? Pour effectuer des simulations et traiter des données dans un délai raisonnable voire en temps réel, un ordinateur a besoin d'importantes ressources matérielles : d'un microprocesseur (et même de milliers de microprocesseurs) pour effectuer les calculs et d'espace mémoire (RAM et disque) pour contenir à la fois son programme et l'ensemble de ses données, les variables et certains résultats. Moins il a de contraintes d'ordre physique (vitesse CPU, espace mémoire ou disque, bus d'entrée-sortie) moins il sera limité par ses ressources.

Plus l'ordinateur est capable de traiter rapidement de grands volumes de données (Big Data), plus facilement les programmeurs pourront l'utiliser pour développer des modèles numériques complexes tenant compte de très nombreuses variables.

Plus les modèles numériques seront complets (détaillés et offrant une granularité très fine) et précis, plus facilement les utilisateurs pourront simuler des processus aussi proches que possible de la réalité. Finalement les projets et la recherche avanceront d'autant plus vite que le système fournira rapidement des résultats.

Aidé par la loi de Moore et les nouvelles technologies, il n'est donc pas étonnant d'apprendre régulièrement qu'un centre de recherche s'est équipé d'un nouveau superordinateur, deux fois ou dix fois plus puissant que l'ancien modèle.

Voici quelques exemples d'infrastuctures informatiques à haute performance qu'utilisent les scientifiques et de plus en plus d'enterprises publiques et privées.

Le Pr Stephen Hawking en compagnie des responsables du superordinateur SGI Altix COSMOS du DAMTP dans sa version 2010.

La Faculté de Mathématiques de la prestigieuse Université de Cambridge (DAMTP) que présida Stephen Hawking jusqu'en 2009 abrite depuis 1997 le superordinateur national de cosmologie COSMOS. Il s'agit d'un superordinateur Silicon Graphics Altix UV2000 qui fut upgradé à plusieurs reprises. Depuis fin 2012, le COSMOS Mark IX présente une vitesse de calcul de 38.6 TFLOPS; il effectue 38.6 milliards d'opérations par seconde. Bien que rapide en soi, ce système ne compte plus parmi les 500 superordinateurs les plus rapides du monde (cf. le TOP500).

Utilisé par le Consortium de Cosmologie Informatique (Computational Cosmology Consortium ou UK-CCC), COSMOS permet aux théoriciens anglais de modéliser l'histoire de l'univers depuis les premières fractions de secondes après le Big Bang jusqu'à aujourd'hui, soit environ 13.8 milliards d'années d'évolution.

Selon Hawking, alors responsable de l'UK-CCC, "L'ordinateur COSMOS [permet] de calculer ce que nos théories sur l'univers primordial prédisent et de les tester par rapport aux nouveaux résultats observationnels qui sont à présent encodés".

La Faculté de Mathématiques de l'Université de Cambridge maintient également un groupe de recherche spécialisé dans la relativité générale et la gravitation (GRG). Elle s'intéresse de près à la supergravité, aux défauts topologiques ainsi qu'aux autres théories cosmologiques exotiques qui pourraient éventuellement déboucher sur une théorie unifiée (théorie des cordes, etc).

En parallèle, les physiciens disposent du superordinateur du Grand Challenge Cosmology Consortium (GC3). Ce projet américain qui vit le jour en 1993 et qui fut dirigé par Jeremiah Ostriker de Princeton rassemble des chercheurs, physiciens et informaticiens de six universités et plusieurs centres privés de recherches.

A l'époque, les chercheurs disposaient d'un superordinateur CRAY T3D de 19 GFLOPS installé au MIT. Aujourd'hui, ils utilisent un Cray UV deux mille fois plus puissant, de 37 TFLOPS. Grâce à cette machine, les chercheurs espèrent mieux comprendre comment se forma la structure de l'Univers à grande échelle et notamment l'influence de la matière sombre sur la formation des galaxies et des étoiles.

Depuis 2008 et le Cray XT5 Jaguar, nous sommes entrés dans l'ère du petaFLOPS. Ainsi, dans les domaines de l'ingénierie spatiale et l'astronautique notamment, les chercheurs de la NASA (NAS Division) disposent depuis décembre 2008 du superordinateur PLEIADES, un Silicon Graphics Altix ICE qui fut upgradé à plusieurs reprises et atteignait fin 2013 une vitesse de calcul de 1.24 PFLOPS (pic de 2.87 PFLOPS).

Ceci dit, l'Université de Cambridge n'est pas en reste et dispose de quelques superordinateurs très puissants parmi lesquels le Peta4 du CSD3 qui atteint également 2.87 PFLOPS (pic).

Pour certains projets, les chercheurs disposent du Cray XC30 dont la vitesse de calcul varie selon la configuration entre 1.6 PFLOPS et plus de 100 PFLOPS (celui de la NSA) !

Les chercheurs européens disposent également de plusieurs superordinateurs HPC dont le Bull Curie du CEA installé à Bruyères-le-Châtel, dans l'Essonne (F) qui fut inauguré en 2012. Ouvert aux scientifiques européens dans le cadre du projet PRACE, Curie dispose de 92000 coeurs de processeurs et atteint une vitesse de calcul de 2 PFLOPS. Curie est utilisé dans divers domaines scientifiques, notamment en physique, en chimie, en astronomie et en médecine.

Mais progrès oblige, en 2021 on trouve sur le marché des superordinateurs bien plus puissants comme le BullSequana XH2000 de 40 PFLOPS, le Summit d'IBM de 148.6 PFLOPS ou le Fugaku de 415 PFLOPS (cf. le palmarès du TOP500 des superordinateurs les plus rapides). En 2022, on franchit la barrière de l'exaFLOPS soit 1000 PFLOPS !

A lire : TOP500 Supercomputers

Le superordinateur petascale Bull Curie de 2 PFLOPS installé au CEA en 2012 utilisé dans le cadre du projet européen PRACE.

Grâce à ces outils très performants, régulièrement nous découvrons dans les magazines des simulations sur ordinateur représentant les fluctuations quantiques des champs scalaires, l'influence de la matière sombre sur la concentration de matière visible dans l'univers, la simulation de la formation des amas de galaxies à partir du gaz et de la matière sombre, l'évolution d'une éruption solaire, la structure magnétique du Soleil, l'explosion d'une supernova juste après l'effondrement de son noyau, une étoile à neutrons 278 ms après sa formation, le jet bipolaire d'un trou noir, l'aspect du trou noir supermassif Sgr A* caché au centre de la Voie Lactée, la densité d'énergie 2 milliards d'années ou même 380000 ans après le Big Bang, voire carrément les propriétés hypothétiques des cordes cosmiques deux heures après le Big Bang.

Enfin, l'intelligence artificielle (IA) s'insinue partout où les scientifiques ont besoin d'analyser de vastes ensembles de données. Grâce à de puissants outils d'apprentissage automatique (machine learning), depuis les années ~2010 l'IA aide les astronomes à découvrir dans les Big Data des particularités qui seraient impossibles à extraire manuellement ou à visualiser à l'oeil nu. On applique par exemple ces algorithmes statistiques à la recherche de petites galaxies naines qui se cacheraient dans les milliards de données sur la Voie Lactée du satellite Gaia ou pour découvrir des filaments de gaz qui dessineraient des bras encore inconnus de la Voie Lactée ou les structure à grande échelle de l'Univers parmi d'autres sujets d'études.

Toutes ces moyens informatiques doivent aider les théoriciens comme les praticiens à visualiser des états et des objets de l'univers autrement inaccessibles à leurs investigations. Ensuite, comme les ombres de la réalité, les résultats des modélisations sont comparés aux données observationnelles et sont parfois utilisés pour prédire de nouveaux évènements où indiquer l'endroit du ciel où il convient de chercher. Mais le verdict de dame Nature tranche souvent brutalement la question de leur conformité avec la réalité. Reste alors aux chercheurs à améliorer leur modèle, à tenir compte d'un plus grand ensemble de données et aux programmeurs à revoir leur copie, à améliorer leurs algorithmes et à inclure des équations plus complexes afin de rendre leur modèle plus réaliste.

Un exemple d'application est l'étude du Plan supergalactique en cosmologie qui s'étend dans une partie de l'univers local sur près de 100 Mpc et comprend de nombreux amas de galaxies "proches". Les astronomes ont découvert dans cette structure à grande échelle de nombreuses galaxies elliptiques massives et brillantes mais très peu de galaxies à disques (spirales) brillantes. Pour comprendre cette inégalité, en 2023 des astronomes ont réalisé des simulations sur le superordinateur de l'Université de Durham pour confronter les prédictions du modèle cosmologique standard ΛCDM et de la théorie standard de la formation des galaxies (dont le modèle GALFORM utilisé par les auteurs) avec les données observationnelles du sondage 2MASS Redshift Survey (2MRS) du CfA.

Distribution des galaxies les plus brillantes de l'univers local dans le sondage 2MRS (à gauche) et modélisée dans la simulation SIBELIUS (à droite). Les deux panneaux montrent des projections de Hammer en coordonnées supergalactiques dans la plage de redshift de 0.01 < z < 0.02 soit jusqu'à environ 277 millions d'années-lumière. La bande vide au centre est un masque cachant la Voie Lactée. La simulation qui tient compte des paramètres cosmologiques standards et de la matière sombre reproduit fidèlement les structures observées dans l'univers local. Document T.Sawala et al. (2023).

Pour compendre à quel point ce genre de simulation est complexe, dans GALFORM, le calcul des propriétés des galaxies telles que la masse et la morphologie des étoiles est basé sur les propriétés évolutives des structures de matière sombre, tels que la masse, le taux d'accrétion, le spin et les fusions, avec des prescriptions analytiques faisant appel à l'intelligence artificielle pour les processus tels que le refroidissement des gaz, la formation des étoiles, leur évolution, la formation des trous noirs, la rétroaction des supernovae et l'activité des AGN, la friction dynamique et les instabilités dynamiques, y compris les fusions et en particulier les fusions majeures.

La simulation SIBELIUS intégrée au Consortium Virgo est capable de simuler avec précision l'évolution de l'Univers sur 13.8 milliards d'années, de sa naissance jusqu'à nos jours. SIBELIUS est conçue pour reproduire la distribution des galaxies sur une distance d'environ 200 Mpc jusqu'à z ≈ 0.04. Les conditions initiales sont contraintes à l'aide de l'algorithme BORG (Bayesian Origin Reconstruction from Galaxies) pour représenter les conditions initiales les plus probables qui donnent lieu à l'observation des structures à grande échelle dans le sondage 2MRS. Le modèle cosmologique de réference est celui de la matière sombre et froide (ΛCDM) avec des paramètres pour l'énergie sombre (fraction ΩΛ = 0.693), la matière totale (fraction Ωm =0.307), la matière baryonique (fraction Ωb = 0.04825), les fluctuations de densité de matière sur 8 Mpc (σ8 = 0.8288), l'indice spectral de fluctuation de densité primordiale ns = 0.9611) et une constante de Hubble Ho = 67.77 km/s/Mpc.

Comme illustré ci-dessus, à partir de ces lois qui gouvernent l'évolution de l'Univers, SIBELIUS a montré que les interactions entre galaxies produit un déficit de spirales dans le Plan supergalactique en tout point conforme aux données du sondage 2MRS. On reviendra sur cette découverte.

En résumé, sans ce genre de simulation, les cosmologistes et les astrophysiciens ne pourraient pas interpréter correctement leurs données. L'outil informatique est devenu indispensable à leur travail. Il l'est tout autant quand il s'agit de réaliser des photographies des astres ou des paysages explorés par les sondes spatiales.

Le traitement d'image, de Big Data

Discutant informatique, les ordinateurs sont bien sûr utilisés pour reconstituer les images enregistrées par les télescopes optiques, qu'ils soient terrestres ou orbitaux, les sondes spatiales ainsi que pour construire des images à partir des signaux radios captés par les radiotélescopes ou les signaux de haute énergie enregistrés par les satellites X et gamma.

Un télescope spatial travaillant dans le spectre optique dispose d'un capteur constitué d'une caméra CCD (Dispositif à Transfert de Charge) refroidie près du zéro absolu pour réduire le bruit électronique. Elle contient des photosites (pixels) qui convertissent le rayonnement en signaux électriques qui sont stockés dans un espace mémoire. Le signal est ensuite transmis au sol par ondes radio ultra-courtes à l'une des paraboles du réseau DSN ou directement à une institution en charge du projet. C’est ensuite un programme de traitement de signal qui se charge de le convertir sous forme d'une image à l’écran.

Gros-plan sur les "Piliers de la Création" de la nébuleuse M16 du serpent. A gauche, l'image brute à 656 nm telle que l'a enregistrée la caméra WFPC2 dans l'un des trois canaux monochromes du Télescope Spatial Hubble le 1 avril 1995. Au centre et à droite, le résultat après combinaison des trois images RGB et traitement numérique. Documents NASA/ESA/STScI traités par J.Hester et P.Scowen. La NSF via le centre NOIRLab met les images RGB brutes à disposition du public.

Aujourd'hui, ainsi que nous l'avons expliqué, les professionnels disposent d'infrastructures informatiques et notamment de cartes graphiques très performantes contenant des milliers de coeurs de processeurs graphiques (GPU) sans lesquels ils ne pourraient plus traiter les images, tellement leur taille est importante.

Ne mentionnons que trois exemples. Les images prises par la sonde spatiale MRO en orbite autour de Mars font chacune 120 MB, celles du VST de l'ESO font 368 MB. En 8 ans (2000-20008), le programme "Sloan Sky Digital Survey" (SDSS), le plus vaste sondage du ciel enregistra 140 TB d'images.

Nous prendrons le temps de détailler ces gigantesques volumes de données, les débits qu'ils requièrent et comment ils sont gérés dans l'article consacré aux Big Data.

A voir : A Flight Through the Universe, by the Sloan Digital Sky Survey

L'univers de 400 000 galaxies jusqu'à 1.3 milliard d'années-lumière en 3D

Entourant une image de la Grande Tache Rouge de Jupiter prise par Voyager 1 le 6 juin 1979 et restituée en couleurs représentatives pour accentuer les détails atmosphériques, deux images de l'extraordinaire nébuleuse planétaire dite de l'Oeil de chat, NGC 6543, respectivement en couleurs naturelles (gauche) et en version accentuée de la partie centrale (droite). Documents JPL et NASA/ESA/STScI.

Le traitement d'image est une spécialité à part entière. Les images prises par le Télescope Spatial Hubble par exemple sont enregistrées en noir et blanc à différentes longueurs d'ondes comprises entre 110 à 1100 nm (200-400 nm pour le ciel profond) à travers trois filtres colorés, respectivement bleu, vert et rouge ou dans trois canaux du spectre infrarouge. C’est au cours du traitement d'image effectué au sol que l'image couleur est obtenue par synthèse additive soit des trois couleurs primaires soit de trois couleurs arbitraires.

La véritable couleur d'un objet céleste est très difficile à rendre, on y reviendra dans l'article consacré à la vision des couleurs. Si l'image a été prise dans le spectre visible, elle dépend de la sensibilité spectrale du détecteur mais également de l'indice de couleur de l'objet considéré et de la sensibilité rétinienne de l'observateur.

Quand l'image est enregistrée à partir du sol, se greffe sur cette difficulté celle de l'effet de la pollution lumineuse et de la brillance du ciel engendrée par les lueurs nocturnes, les aurores et d'autres phénomènes naturels produisant des raies d'émissions que la caméra CCD peut enregistrer.

Enfin, on assume que l'écran de l'ordinateur présente une température de couleur relativement neutre, proche de 9500 K; trop basse (~6500 K) l'image blanche aura une dominante jaune, trop élevée (> 10000 K), elle présentera une dominante bleue. Des sondes de calibration peuvent bien sûr être utilisées pour équilibrer les canaux RGB.

A gauche et au centre, processus de traitement d'une image de Saturne enregistrée en N/B par Hubble dans le proche, moyen et lointain infrarouge et convertie en couleurs représentatives. L'image couleur résultante permet de découvrir des détails invisibles en couleurs naturelles ou accentuées. A droite, même traitement d'une photo du pôle Sud de Jupiter prise par Juno le 11 décembre 2016 à 52200 km du sommet des nuages révélant toute la complexité de la circulation atmosphère. Documents NASA/ESA/Hubble Site et NASA.

La couleur joue un rôle important en astrophotographie. Elle est utilisée dans trois cas particuliers :

- Pour décrire l'aspect naturel des objets célestes

- Pour détecter des détails invisibles en lumière blanche

- Pour accentuer certains détails.

La couleur naturelle obtenue par synthèse additive permet de simuler les couleurs de l'objet comme si nous l'observions dans l'espace. Mais étant donné que personne n'a été constater la conformité des couleurs in situ, parfois, au bout de quelques années, après avoir analysé des milliers d'images du même astre, les experts en traitement d'image du laboratoire MIPL du JPL finissent par modifier la balance chromatique des anciennes images pour les rendre a posteriori plus conformes à la réalité, sans pour autant pouvoir l'affirmer. Ce fut notamment le cas pour les images de Mars prises par la sonde Viking et de Io prises par les sondes Voyager qui ont perdu 30% de leur saturation dans certaines couleurs.

Notons à ce sujet que la couleur réelle des paysages martiens n'est pas orange-brun clair ou beige-magenta-gris et contrastée comme le montrent en général les photos prises par les rovers d'exploration mais tirent franchement sur le brun-vert-olive et sont ternes comme le montrent les deux images suivantes prises par le rover Curiosity en 2014 avant et après correction des couleurs; la NASA a décidé de leur donner une couleur comparable à la lumière du jour sur Terre plutôt que la couleur réelle, à laquelle le public n'est pas habitué et visiblement moins agréable. Toutefois, sur certaines images récentes comme le selfie de Curiosity publié en 2013, la dominante est 20% plus verte que par le passé, à se demander si les analystes du JPL ont de la suite dans les idées et suivent toujours la même logique !

A lire : JPL's Image Processing Laboratory History

Quelle est la véritable couleur de Mars et comment faut-il la reproduire ? Même le JPL se pose la question. A gauche, une image panoramique de la surface de Mars et notamment d'une petite dune de sable que traversa le rover Curiosity le 9 février 2014 (538e sol). Sur cette image, la balance des couleurs a été établie sur une lumière blanche, similaire à celle qu'on observe sur Terre tandis qu'au centre, la dominante orangée-vert olive n'a pas été rectifiée; les couleurs sont conformes à ce qu'on observe sur Mars. A droite, un selfie ou autoportrait de Curiosity réalisé le 27 avril 2014 au 613e sol. Cette image résulte du compositage de 75 photographies. Les couleurs ont une nouvelle fois été rectifiées différemment et tendent beaucoup plus vers les couleurs naturelles, la luminosité en plus. Documents NASA/JPL/MSSS et NASA/JPL/MSSS.

Les couleurs représentatives ou fausses couleurs permettent aux scientifiques de visualiser des détails de l'astre qui seraient autrement invisibles du fait qu'ils rayonnent l'essentiel de leur énergie en dehors du spectre visible (infrarouge, radio ou rayons X par exemple).

Enfin, les couleurs accentuées permettent par définition d'amplifier les couleurs d'une image afin d'accentuer la saturation et le contraste de certains détails. On utilise notamment cette technique lorsqu'on prend des clichés sous filtres colorés bleu+rouge, comme cet exemple de la petite tache rouge junior de Jupiter, et plus rarement en RGB.

L'utilisation de filtres additionnels à bande passante plus ou moins étroite permet également d'isoler certains rayonnements, substances chimiques ou mode de propagation dans lequel l'astre présente une activité importante (hydrogène alpha, méthane, lumière polarisée, etc.).

Saturne photographiée par le Télescope Spatial Hubble. A gauche, une photo le 7 juin 2001 en couleurs naturelles. A droite, une photo prise en 2003 en couleurs accentuées qui révèle beaucoup plus de détails. Documents NASA/ESA/Hubble Site.

Le traitement d'image permet enfin de rectifier des prises de vues de mauvaise qualité, voire carrément floues grâce à des algorithmes appliqués à l'image numérique. La technique la plus connue est le masque flou numérique et les technique de déconvolution. Développées pour extraire l'information ultime contenue dans les photographies d'espionnage puis appliquées aux applications civiles (astronomie, sécurité, etc.), on les retrouve aujourd'hui dans tous les bons logiciels de traitement d'image (Photoshop, Maxim DL, Iris, etc).

Du cosmos à l'infinement petit

Pour comprendre l'univers, comme le physicien, l'astronome a besoin d'étudier le microcosme de l'infiniment petit. En effet, le Soleil, une galaxie ou un trou noir obéit aux lois de la physique, des propriétés de la matière jusqu'à son niveau le plus élémentaire.

Ainsi pour comprendre le rayonnement des quasars et les gigantesques lobes de rayonnement radios ou X qu'ils émettent parfois jusqu'à plusieurs centaines de milliers d'années-lumière, les modèles de la nucléosynthèse stellaire ne sont d'aucune utilité pour l'astrophysicien; ces astres excessivement brillants et actifs n'émettent pas du tout leur énergie comme le fait une étoile ou même une galaxie ordinaire. L'astrophysicien doit faire appel à d'autres théories, des processus non thermiques, impliquant par exemple l'activité d'un trou noir et l'application de lois qui relèvent de la physique quantique sous l'effet de champs gravitationnels intenses.

On reviendra sur ces théories plus ou moins unifiées (gravité quantique, etc) et les découvertes qu'elles ont permises ou leurs prédictions dans les dossiers consacrés à l'astrophysique, la cosmologie et la physique quantique.

En guise de conclusion

Le télescope de Winstone de 500 mm d'ouverture.

Avec tous ces outils hautement sophistiqués à leur disposition, les chercheurs praticiens comme théoriciens peuvent explorer l'Univers jusque dans ses derniers retranchements, à deux pas de la Création. Franchir ce seuil est aujourd'hui utopique faute de moyens et de théories adéquates.

En effet, l'Univers primordial demeure encore inaccessible car l'essentiel du problème réside en deçà de l'échelle de Planck où nos théories n'ont plus cours faute d'une formulation complètement aboutie.

Observer, écouter, analyser, comprendre et tenter de reproduire l'évolution des objets qui peuplent l'Univers, qu'ils soient proches ou situés aux confins du cosmos, nous permettent de mieux comprendre comment l'Univers est passé d'un état très simple dans le passé à un état si complexe et structuré aujourd'hui.

Grâce à tous ces instruments de haute technologie, nous pouvons retracer l'histoire de cette évolution et écrire les pages de notre Univers. Un jour peut-être nous trouverons dans ce livre de la Création les réponses au pourquoi de l'Univers et de notre présence ici bas, deux questions qui demeurent malheureusement encore du ressort de la métaphysique.

Comme le dit un proverbe turc, "la nuit est enceinte et nul ne connaît le jour qui va naître". Mais une chose est sûre, l'avenir sera passionnant, il brillera du reflet des ambitions humaines qui auront su porter jusqu'au ciel le savoir-faire des hommes pour éclairer nos esprits du savoir de l'Univers si longtemps recherché. Cette quête nous conduira aux confins du cosmos, un lieu inconnu et pourtant si convoité, le Saint Graal de la Création.

Pour plus d'informations

Vidéos

Pourquoi l'Optique Adaptative, ESPCI

L'histoire du HST en 10 chapitres, YouTube

Giant Magellanic Telescope : "A Perfect Mirror", GMT, 2013

Giant Mirrors to Capture the Universe (GMT), U.Arizona, 2012

UA Mirro Lab Casts 3d mirror for GMT, U.Arizona, 2013

Gemini Observatory Intro, Gemini Obs, 2013

Le temps et les roches

La spectrométrie de masse

La thermoluminescence

La spectrophotométrie

L'IA en astronomie

AI is already helping astronomers make incredible discoveries. Here's how, Space.com, 2023

Analysis: How AI is helping astronomers study the universe, PBS, 2023

Applications of AI in Astronomy, S.G. Djorgovski et al., arXiv, 2022

How artificial intelligence is changing astronomy, Astronomy, 2022

Artificial Intelligence in Astronomy, E.Devinney et al., ASP, 2010

Généralités

JPL's Image Processing Laboratory History, JPL

PDS Image Atlas, JPL (les images brutes des missions spatriales)

Challenges in modelling and control of Extremely Large Telescopes, R.Bastaits, ULB

Adventures in Science Fiction Cover Art: Futuristic Telescopes and Radar Dishes (1946-1979)

Images de la rotation de la voûte céleste, APOD

Quelques livres (cf. détails dans ma bibliothèque dont la section Histoire)

Livres

Astrophotographie, T.Legault, Eyrolles, 2006/2013

Histoire du télescope, Yaël Nazé, Vuibert, 2009

La conquête de l'espace, Giles Sparrow/Collectif, Flammarion, 2008

L'observation en astrophysique, Pierre Léna et al., EDP Sciences-Savoirs actuels, 2008

La construction du télescope d'amateur, Jean Texereau, SAP, 1951/1961; Vuibert, 2004 (à télécharger)

Les grands observatoires du monde, A.-M.Lagrange/S.Brunier, Bordas, 2002

Apollo Expeditions to the Moon, NASA SP-350, 1975

Observatoires

EHT (Event Horizon Telescope, VLBI)

Around the World in 80 Telescopes

Palomar (5.08 m), Palomar Skies

Subaru (8.2 m)

VLT (4x 8.2 m)

Keck I et II (10 m)

Astrophysical Missions, ESA

The Hubble Heritage Project

1001 liens (Observatories)

Solar Instruments, UCAR.

Retour à l'Histoire de l'astronomie

Page 1 - 2 - 3 - 4 - 5 - 6 -


Back to:

HOME

Copyright & FAQ