-ms-

Banni
  • Compteur de contenus

    0
  • Inscription

  • Dernière visite

  • Last Connexion

    Soon available - 39687

Tout ce qui a été posté par -ms-

  1. Ma meilleure vision de Jupiter 11-05-2018

    EVA permettra d'utiliser son matériel astro quelque soit les conditions de turbulence (y compris celles que tu décris dans ton post) pour reconstruire des images HR. L'acquisition devient possible dès que le nombre de points d'intérêt entre 2 images consécutives est supérieur à 50 (dans ton cas on est plutôt vers 200 donc il y a encore de la marge). La vidéo assistée qui sert de support à l'acquisition donne un coté ludique à l'acquisition qui se fait avec un pc portable de gamer, ce pc est dédié parce que c'est un élément de la chaîne d'acquisition au même titre que le télescope et la caméra CMOS.
  2. Ma meilleure vision de Jupiter 11-05-2018

    Ben la réponse me semble évidente, EVA ne fait pas de traitement à posteriori puisque les images HR sont obtenues lors des séances de vidéo assistée aussi bien pour le planétaire que pour le ciel profond. Je ne vois pas l'intérêt de perdre son temps à charger des fichiers SER pour en extraire des images que l'on va traiter en suite avec d'autres logiciels ... alors que tout peut être fait lors de la soirée d'observation. Il est par contre possible de faire des posts traitements de super résolution avec TensorFlow par exemple mais tout est fait dans EVA pour que les images HR ou les vidéos HR soient suffisantes. Enfin, traiter 120 x 18.000 = 2.160.000 images avec PIPP puis AS3 puis RegiStax6 en plusieurs jours alors qu'EVA fait cela en 5 heures (même avec des conditions de turbulence médiocres), je ne vois pas trop l'intérêt.
  3. Ma meilleure vision de Jupiter 11-05-2018

    EVA tourne sous Linux Ubuntu 16.04 ou Linux Mint 18.3 et utilise selon la taille du capteur une carte graphique GTX 1050 Ti ( 480p, 720p et 1080p) ou GTX 1070 Ti (au delà de 1080p). La carte graphique GTX 1050 Ti est testée avec la caméra ASI385MC à la fois pour le planétaire et pour le ciel profond. Le but reste de produire des images HR ou des vidéos HR directement en fin d'acquisition.
  4. Ma meilleure vision de Jupiter 11-05-2018

    La seizième trame ressemble à cela (le gif animé n'est pas très représentatif avec ses artefacts) : Cette trame se bonifie dans le temps pour donner une image HR en moins de 1 minute dans le cas présent. Le but d'EVA c'est justement de produire directement des images HR en utilisant le calcul par le GPU.
  5. M51 au TN450Z en mode " superfaignasse"

    C'est pas mal. Pour le cœur des galaxie non cramé il faudrait jouer sur la vitesse d'acquisition. Pour le bruit, je me permets le petit essai ci-dessous :
  6. Ma meilleure vision de Jupiter 11-05-2018

    Le problème quand ça turbule pas mal, ce sont les occlusions qui viennent s'ajouter au bruit. Quand on intègre au flot optique, l'estimation du bruit + les occlusions alors on obtient déjà cela avec une dizaine de trames (dans la pratique, les résultats deviennent spectaculaires dès que l'on intègre quelques centaines de trames car le flou s'estompe) : Dans le cas présent, les trames possèdent plus de 200 points d'intérêts, il y a donc possibilité de retrouver pas mal de détails à condition de gérer correctement le bruit et les occlusions : EVA commence à travailler avec 50 points d'intérêts, ici on est à 200 ... c'est du luxe. Pour obtenir une image HR, il faut au moins 1.000.000 de points d'intérêts soit 5000 images brutes dans le cas présent, à 100fps cette image serait obtenue en moins de 1 minute.
  7. Jupiter : très bon seeing (nuit du 6 au 7 mai)

    C'est remarquable et c'est exemplaire pour un système automatisé qui procéderait par petites touches.
  8. Lancement du EELT, c'est (presque) bon !

    C'est déjà le cas puisque j'ai une première config matériel (calculateur + caméra CMOS) à moins de 1200euros permettant de travailler en Full HD à 120fps. Je profiterai de l'opposition de Mars pour sortir les premiers résultats fin juillet 2018. Dans les prochains mois, les coûts vont se stabiliser mais la puissance de calcul va augmenter ce qui permettra d'aller au delà du Full HD.
  9. Lancement du EELT, c'est (presque) bon !

    C'est intéressant de voir, dans la présentation de Florian Ferreira, l'utilisation de la carte graphique P100 (puissance de calcul est équivalente à une GTX 1080 Ti plus abordable). Déjà avec une GTX 1050 Ti, il est possible de faire un alignement de 2 images brutes Full HD (homographie à une précision sub-pixel) en moins de 5ms et de faire un traitement complet en moins de 10ms, ce qui permet de traiter un objet à 120fps en Full HD (dans moins d'un an cette puissance sera doublée grâce à la technologie Wafer on Wafer du fabriquant de puces TSMC).
  10. diamétre dobson

    Il y a d'autres critères qui me semblent importants : la qualité de l'optique et de la mécanique dont l'entraînement altaz. Partant de là, 2 fois le diamètre d'un C11 (donc 4 fois plus de lumière) me semble être un bon point de départ surtout si la turbulence peut être maîtrisée en temps réel comme cela sera bientôt le cas.
  11. ccd ou caméra planétaire?

    Les objets faibles d'un 250 sont des objets plus brillants dans un 500 qui collecte 4 fois plus de lumière. Puis les caméras deviennent aussi de plus en plus sensibles. Le gros dobson motorisé a de l'avenir en astrophoto planétaire et ciel profond.
  12. ccd ou caméra planétaire?

    Le capteur CMOS est plus performant (même pour le ciel profond) dès lors que l'on sait gérer l'accumulation de poses courtes en temps réel (en équatorial comme en altaz) et estimer le bruit. C'est pas le capteur le maillon faible c'est le calculateur situé à l'arrière dans la chaîne.
  13. J'aime le coté dessin signalé par super et les pastels aussi :
  14. J'ai eu peur mais y a du mieux ;)

    1h30, 2h30, 3h30 ... c'est un bon résumé. J'ai récupéré mon calculateur ce matin et EVA devrait être prête pour l'opposition de Mars.
  15. ça manque un peu de détails.
  16. Nombre de flat/dark/offset

    C'est 0+0+0 (tout par logiciel) sous réserve que le capteur soit propre (pas de poussière) et que les images brutes soient acquises assez rapidement (1/100s à 10s). C'est la deuxième condition qui est la plus contraignante mais les capteurs évoluent vers plus de sensibilité à vitesse égale. Dark+Offset+Flat c'est l'imagerie du XXe siècle. PS : je pense qu'olivdeso devrait encore voir cela de son vivant.
  17. Oui ce sont des yeux de merlan, j'ai poussé exprès pour voir la différence avec l'image juste au dessus qui est un peu pâlotte. Sinon celle-ci est plus soft : En fait, il faut contrôler le bruit lors de l'acquisition ce qui n'est pas le cas ici.
  18. Pour 18 minutes de pose c'est pas mal mais dommage que le bruit ne soit pas corrigé à la volée cela donnerait une image plus profonde. La dérotation de champ n'est pas un problème surtout avec des poses unitaires de moins de 10 secondes.
  19. Un petit essai sur la base de la dernière qui est bien résolue mais un peu bruitée :
  20. Dans le cas présent d'une image prise depuis la Terre par un télescope de 300mm, le bruit n'est pas maîtrisé assez tôt et cela se répercute sur l'image finale et sa résolution. Je préfère un patch de 30x30 pixels entièrement résolu à une image entière à moitié résolue. L'objectif d'EVA c'est justement d'obtenir des images Full HD (1920x1080) complètement résolues (grille de 64x36 patchs de 30x30 pixels). Je suis en train de valider la config minimum pour le Full HD : - Core i5-7300HQ - 8 Go DDR4-2400 - GTX 1050 Ti 4Go - SSD M.2 SATA Crucial MX300 525Go - Consommation 135W et pour au dessus du Full HD : - Core i7-7700HQ - 16 Go DDR4-2400 - GTX 1060 6Go - SSD M.2 SATA Crucial MX300 525Go - Consommation 180W
  21. Normal à droite ce sont des nouilles du XXIième siècle, il y a plus d’œufs au kilo :
  22. D'autres se sont bien sûr intéressés à la turbulence terrestre horizontale, il suffit de parcourir leurs travaux. J'ai fait aussi une petite simulation à partir d'une image de référence de la Lune entre ce que vous obtenez en terme de détails avec AS3 et ce que vous découvrirez bientôt avec EVA : C'est plus parlant de présenter les choses comme cela qu'à partir d'un indicateur comme le PSNR. Et là tu ne tiens pas compte de courants qui cisaillent littéralement les lentilles.
  23. EVA utilise le calcul par GPU pour faire du comptage de signal au sein d'un patch. Un patch c'est une portion de l'image qui de temps en temps voit passer soit du signal, soit du bruit, soit un mélange des deux. D'où l'intérêt de pouvoir estimer rapidement le bruit en utilisant certains patchs. Oui, il faut sélectionner les bons morceaux, les bons patchs. Ce que tu vois c'est un mélange de bruit, de flou et de gauchissement qui peut varier d'un patch à l'autre mais on ne peut pas dire que la turbulence provoque une courbure de champ. Ben, non, ms il s'occupe pendant sa retraite et il n'a pas besoin de lever des fonds. Ceci dit le premier proto devrait être opérationnel cette année pour suivre les oppositions de Jupiter, Saturne et Mars.
  24. Dans le monde médical le recalage élastique 2D/3D est roi, par exemple toute la famille issue de la librairie ITK : SimpleITK, Elastix, SimpleElastix. Toutes ces approches sont intéressantes mais malheureusement pas vraiment "temps réel". EVA utilise la librairie ArrayFire 3.5.1 (calcul par GPU pour CUDA) sous Linux et Tegra X1 pour implémenter tous ses algorithmes (recalage, problèmes inverses, fusion, ...). AS3 fusionne des "lucky regions" dans le désordre c'est un bon début après tes autres traitements s'appliquent à l'image entière (et non aux patchs) ça c'est pas top. EVA tient compte en plus de l'auto-similarité (nature fractale des images brutes) et de la confirmation des détails au niveau des patchs. Les vidéos obtenues sur le terrain (vidéos assistées) sont utilisables en entrée pour la super résolution avec TensorFlow. Ce qui sera intéressant c'est de comparer l'image super résolue obtenue en 2,5 minutes à 120ips (18.000 images brutes donnant 18 images de la vidéo assistée). En fait, l'acquisition pourra durer 5 heures d'où 120 images super résolues qui permettront de faire une vidéo montrant une demi-rotation de Jupiter. Une petite simulation en attendant les résultats sur le terrain.
  25. Je ne sais pas quels algorithmes utilisent ces logiciels. Il y a 2 grandes familles d'algorithmes de recalage : rigide et élastique. Je viens de faire un test pour visualiser la méthode utilisée par EVA pour aller à la pèche aux détails :