-ms-

Banni
  • Compteur de contenus

    0
  • Inscription

  • Dernière visite

  • Last Connexion

    Soon available - 39687

Tout ce qui a été posté par -ms-

  1. comparatif gassendi

    Depuis la Terre, on doit pouvoir obtenir l'image de droite ... ... qui se rapproche de l'image de la sonde. Apport d'EVA (image de droite) à une image non corrigée des effets de la turbulence (image de gauche).
  2. C'est un petit essai que j'avais fais il y a quelques mois. A gauche : l'image à traiter Au centre : le recalage des couches RVB A droite : ADC logiciel de l'époque (aujourd'hui dans EVA j'utilise une autre approche qui vient à bout du léger résidu). Pourquoi un ADC logiciel ? Parce que je peux passer avec EVA d'un objet avec ADC (Mars) à un objet sans ADC (Jupiter) sans modifier ma config. En fait EVA regroupe des traitements en temps réel de problèmes inverses : turbulence atmosphérique, dispersion atmosphérique, vignetage, brouillard, ...
  3. Le SDK Linux est mis à jour assez régulièrement (le support du gamma a été supprimé dans la dernière version). Pas de driver natif sous Linux. EVA utilise Ubuntu x64 (Linux Mint 18.3 Cinnamon 64-bit).
  4. Pour la hauteur de la planète, j'utilise un ADC logiciel donc si la balance des couleurs est correctement étalonnée alors la hauteur ne devrait plus jouer. 120ips c'est la limite avec le GPU traitant une image Full HD. Neb, effectivement R est réglé sur 60 et B sur 99 pour cette ASI071MC. EVA ne passe pas par un logiciel d'acquisition, comme tu le dis plus haut, il est possible d'étalonner l'image reçue lors du dé-tramage. J'ai vu qu'une API était fournie pour les principaux systèmes d'exploitation dont Linux.
  5. J'avais remarqué l' ASI385 color qui travaille à 120fps en Full HD. Comme j'ai adapté la puissance de calcul par le GPU à 120fps en Full HD, cette caméra me semble intéressante. Reste le problème du rendu des couleurs avec cette caméra.
  6. Merci pour les infos, je demandais cela parce que je vais faire l'acquisition d'une caméra couleur prochainement et s'il existe un modèle qui règle ce problème alors je suis preneur. Le but d'EVA c'est justement de n'avoir à faire aucun réglage, de gérer la hauteur de la planète par un ADC logiciel, de corriger un éventuel vignetage, ...
  7. Est-ce qu'il existe des caméras couleur qui permettent de faire un réglage correcte dès la saisie ?
  8. Tu ne crois pas que ta version avec les 1000 premières manque de détails ( bon la mienne à droite faite cette fois-ci avec des patchs 16x16 n'est pas encore parfaite mais on commence à apercevoir plus de détails ) ? Avec des patchs de 8x8 et quelques corrections ça devrait encore s'améliorer. Dans la pratique, je devrais pouvoir travailler sur Jupiter avec 18 images (2,5mn x 60s x 120 ips / 1000) du type de celle de droite. Pour ensuite, voir évoluer les configurations nuageuses sur 5 heures à l'aide de 120 images (5h x 60mn / 2,5mn). Le passage par exemple de la GTR d'un bord à l'autre. Tu prends quel pourcentage de RGB ?
  9. Tu utilises 40% des 8618 images donc il te faut environ 8618 images avec AS3. Je n'utilise que les 1000 premières images, pour comparer il me faudra appliquer la super résolution à 8 images de ce type. D'autre part avec des patchs plus petits 16x16 ou 8x8, je devrais obtenir des images plus fines. Tout cela est encore en développement mais je devrais être prêt pour l'opposition de Jupiter puis Saturne puis Mars. En un peu plus contrasté :
  10. Des capteurs plus sensibles, moins bruités et plus rapides. Cela permettra à EVA d'aller plus vite et d'augmenter son champ d'exploration mais cela changera très peu la qualité de l'image résultante. En // les cartes graphiques seront plus puissantes et consommeront moins. EVA construit un capteur virtuel (capteur CMOS + GPU) qui va assez loin dans la recherche des détails. Je suis pas trop mauvais dans le rendu.
  11. Avec des patchs de 32x32 on commence à obtenir une image assez détaillée à partir de 1.000 images brutes mais dans la pratique il vaut mieux utiliser des patchs de 16x16 avec 18.0000 images brutes qui correspondent à 2,5minutes à 120fps. Pour le stockage, je ne vais conserver que les images obtenues à partir de 120 images brutes consécutives. Pour 5 heures d'acquisition cela représente : 5 x 3.600 = 18.000 images d'une qualité équivalente à l'image ci-dessus soit 3,6Go d'images PNG dans un SSD de 500Go. EVA c'est la possibilité d'utiliser en post-traitement TensorFlow pour traiter des milliers d'images comme celle de droite pour construire une vidéo super résolue. La première vidéo de ce type sortira avec l'opposition de Jupiter puis suivront Saturne et Mars.
  12. En fusionnant les 10 premières images de la vidéo assistée (une image de la vidéo assistée est obtenue avec 100 images brutes consécutives) : C'est ce que l'on voit à l'écran en moins de 10s (1000/120=8,3s). L'image peut encore s'améliorer car on peut travailler sur 2,5minutes soit 18 images de ce niveau de qualité en entrée de TensorFlow pour obtenir une image super résolue. Avec une image super résolue toutes les 2,5 minutes, il est possible de faire une belle animation de Jupiter sur 5 heures (limite de mon système d'acquisition). EVA devrait commencer à produire des images comme ci-dessus pour l'opposition de Jupiter de 2018 soit 10 ans après le démarrage de ce projet. Traiter 120 images brutes 800x600 par seconde demande une puissance de calcul GPU équivalente à une GeForce GTX 1060 c'est en gros la puissance du NUC qu'Intel devrait produire le mois prochain ou du mini pc Asrock DeskMini GTX 1060 pour rester dans des configurations de moins de 2 litres de volume. Il existe des solutions industrielles (par exemple pour la conduite par temps de brouillard ou pour la mesure de l'activité cérébrale) mais les industriels se gardent bien de mettre leurs algorithmes sur GitHub (ils sponsorisent des concours pour voir comment évolue le petit monde des algorithmes de vision). Au fait, est-ce qu'il existe une caméra couleur capable de produire dès l'acquisition des images brutes avec des couleurs plus fidèles ? Il semble qu'avec ces chinoiseries d'ASI ce ne soit pas possible. Tantôt c'est jaunâtre, tantôt c'est verdâtre et tantôt c'est rougeâtre.
  13. Observation lunaire, grossissement

    Comprendre le lien entre luminance, contraste, couleur et mouvement. Ce n'est pas au niveau de l’œil que cela se passe mais dans 2 zones distinctes de notre cerveau. En observation visuelle naturelle comme en photo, le facteur limitant reste la turbulence. C'est elle qui vous limite en diamètre et qui vous rend de mauvaise humeur (une autre zone de notre cerveau). Pour ceux qui ne peuvent s'installer sur la Lune, il restera la possibilité du visuel assisté par GPU.
  14. Un essai rapide à partir du fichier SER de polo qui montre le balayage (raw->denoise->deblur) des 100 premières trames via une grille de 32x32 pixels. Un balayage des 86x100 trames conduirait après post-traitement (super résolution) à une image beaucoup plus détaillée. Des essais restent à faire en fonction de différentes tailles de patchs 8x8, 16x16, 32x32, 64x64. C'est pour le post-traitement que TensorFlow peut être très utile, en entrée j'ai 86 images que ce réseau va exploiter pour construire la meilleure image possible un peu comme notre ami chinois avec ses 3 images. J'ai fait la même manip pour les 2 paquets de 100 trames suivants, la qualité des patchs est très variable comme le montre l'image qui suit où 1 et 3 sont globalement de meilleure qualité : Ce truc ne traite que le bruit gaussien mais c'est déjà pas mal de commencer par celui-là. Au bruit gaussien peuvent s'ajouter un bruit poissonnier, un bruit multiplicatif, ... c'est à dire un mélange de bruits. Dans EVA, le mélange de bruits est traité localement au niveau du patch. Pour le flou c'est un peu le même principe mais je suis moins avancé que pour le bruit.
  15. C'est pas plus net comme ça ?
  16. le mur droit version retraitée

    C'est une bonne image mais il y a encore de la marge pour atteindre la résolution de l'instrument ou donner l'impression d'un mur droit. Une image de 2000x2000 pixels, il faut une GTX 1070 pour faire les traitements en temps réel.
  17. Le maximum de détails doit être capté en 2,5 minutes (18.000 images brutes) avec la possibilité de compléter quelques zones en faisant glisser la fenêtre sur 3 images (t-2,5mn, t, t+2,5mn), au delà c'est pas raisonnable (ci dessus sur 10 images c'est trop). Par contre faire une vidéo de 120 images avec un pas de 2,5 minutes sur 5 heures c'est le genre de manip que je pourrai bientôt réaliser avec EVA.
  18. avoir une alimentation secteur sur le terrain

    J'utilise le modèle 12V / 350VA c'est un convertisseur "pur sinus" qui peut travailler avec un rendement de 90% dans des conditions extrêmes de température et d'humidité. L'idéal c'est d'utiliser une batterie à décharge profonde de 100Ah (camping car par exemple). Le convertisseur 12V->19V ça ne marche pas quand on doit fournir 180W / 19V soit 9,5A. Pour ceux qui ont besoin de moins de puissance, il y a aussi la solution EPOW Big Batterie 95000mA : http://www.batteries-externes.com/batterie-usb-universelle/204-epow-big-batterie-75000mah.html
  19. On fera des images façon Hubble même si les conditions ne sont pas bonnes, je compte profiter des prochaines oppositions de Jupiter, Saturne et Mars pour montrer cela avec la puissance de calcul d'une GTX 1050 Ti c'est à dire un matériel tout à fait abordable.
  20. Ton image de juju correspond en gros à l'image de gauche et l'objectif d'EVA c'est d'atteindre en 3 paliers l'image de droite : Pour Jupiter, on dispose en gros de 2,5minutes soit 18000 images à 120fps. Les détails sont recherchés dans 1024 patchs de 16x16 pixels pour une image de 512x512 pixels. La probabilité de remplir les 1024 patchs est quasiment nulle (il y a des trous) mais une vidéo sur 7,5mn va permettre de boucher les trous restants pour atteindre l'image de droite parce que l'on voit évoluer les détails (inpainting et flot optique). C'est sur cette dernière image que TensorFlow peut être intéressant pour de la super résolution x2. Pour l'acquisition, j'utilise une fenêtre de 528x528 (512+16=528) parce que la planète gigote et je la réduis à 512x512 à l'arrivée. J'ai toujours la vidéo de 21.205 images de saturne de polo que je vais pouvoir maintenant traiter par paliers. Pour la puissance de calcul, le processeur graphique doit être dimensionné pour des images 512x512 à 120fps c'est en gros ce que permet une carte GTX 1050 Ti. Pour du 1024x1024 à 120fps, il faut passer aux modèles au dessus : GTX 1060 ou GTX 1070.
  21. M81 C8Edge

    Oui c'est trop lissé (il ne reste plus de grain ... à moudre), au départ j'étais parti sur celle ci (un poil moins bruitée) :
  22. M81 C8Edge

    La même 2 poils moins bruitée :
  23. On ne peut pas trop dire sur une image mais il semble qu'il y ait un apport dans les basses fréquences. Est-ce que SRGAN, reconstitue une texture comme EnhanceNet ?
  24. M3, avec lune...

    Il est bien résolu cet amas, il faudrait faire des pauses 10 fois plus courtes pour avoir des étoiles plus fines.
  25. Plus de gamma chez ZWO

    N'empêche que sur ce coup là, vous avez été nombreux à vous faire embarquer par mes chinoiseries.