ms

Oculaire électronique en une planche

Messages recommandés

Contrôle de la qualité des 4800 trames (algorithme Ninox) :

Rafales de 10 trames (480 trames), les pics correspondent aux meilleures conditions de turbulence :

Rafales de 20 trames (240 trames), les pics correspondent aux meilleures conditions de turbulence :

L'oculaire électronique affiche en général une trentaine de rafales de 10 images (300 images brutes), la correction du flou de l'image affichée tient compte des conditions de turbulence (en corrélation avec la courbe).

Dans le cas présent, 80% des bursts de 10 images sont exploitables pour construire une image haute résolution.

[Ce message a été modifié par ms (Édité le 11-08-2017).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Posté(e) (modifié)

Hello :)

 

 

Citation

Il est où Neb ?

 

A des mois-lumières ! ;)

 

Il est vrai que je ne vais pas spontanément sur ce forum pratique, faute de moins en moins pratiquer :/ ...
Un hasard nommé Gogo ;))m'a conduit  ici en recherchant ton site (pas encore retrouvé !:() pour ton tuto sur l'installation de Linux.

Mais avant d'y reconvertir une bécane qui vient de partir à la retraite, je vais dépieuter ce présent fil qui me paraît super-intéressant ! :)

 

Et à propos de retraite :

Citation

Je vais pouvoir bientôt m'attaquer à la Corse vue depuis le massif de l'Estérel (l'heure de la retraite approche).

 

Tiens, tu atterrirais dans le secteur ?

Modifié par Nebulium

Partager ce message


Lien à poster
Partager sur d’autres sites

Salut Neb,

 

La retraite c'est pour la fin du mois donc je vais pouvoir me consacrer à plein temps à l'OE.

L'Estérel, je connais bien surtout du coté de Théoule.

Je vais refaire un site à partir du mois prochain parce que le site srapplis ne correspond pas à l'OE et parce que la sortie du labyrinthe approche. ;)

 

Le terme Oculaire Électronique est finalement bien choisi parce qu'il permet de voir la planète mais aussi ses satellites comme c'est le cas avec un oculaire classique.

 

Suivre une planète basse sur l'horizon (correction de la dispersion atmosphérique) puis remonter pour voir un objet du ciel profond (accumulation de  trames) puis retourner vers une nouvelle planète ... tout cela en AltAz (dérotation de champ).

 

 

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 2 minutes, ms a dit :

La retraite c'est pour la fin du mois donc je vais pouvoir me consacrer à plein temps à l'OE

 

 

Salut ms  :)

 

Laisse-moi rire  :D:D:D  !

 

Mais  même à temps partiel, c'est toujours  bon à prendre !

Tu opérerais vers  N-D d'Afrique ?

 

 

Partager ce message


Lien à poster
Partager sur d’autres sites

La retraite à 62 ans? vous avez vachement de la chance en France! O.o...

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 43 minutes, baroche a dit :

La retraite à 62 ans? vous avez vachement de la chance en France! O.o...

 

Hello P-A :)

 

Le modo va nous  jeter pour HS, mais tu es  mal informé  !O.o

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 2 heures, baroche a dit :

La retraite à 62 ans? vous avez vachement de la chance en France! O.o...

 

Hé oui Pierre-Alain :)

Et même qu'une certaine catégorie de fonctionnaires ;) l'ont à 50 ans :)

L'est pas belle la vie cheu nous ?

Amicalement,
AG

Partager ce message


Lien à poster
Partager sur d’autres sites

Le résultat est impressionnant (surtout sur Jupi je trouve). Bravo, beau travail!!

Partager ce message


Lien à poster
Partager sur d’autres sites
Posté(e) (modifié)

Ce qui est intéressant c'est que l'OE va finalement sortir embarqué dans une carte de 120mm x 85mm pour un coût matériel inférieur à 300 euros. ;)

 

Ce système est capable de générer  des images corrigées des effets de la turbulence sur plusieurs heures.

Dans l'exemple suivant, en haut à gauche une image brute et en haut à droite une des images de la vidéo obtenue avec l'OE . Après quand on fusionne 16 images de la vidéo OE (courbe jaune), on obtient une image haute résolution en bas à droite (courbe rouge) :

 

raw_oe.thumb.png.0a7f66f51d59cbe99d25899206eee912.png

 

Je n'ai pas trouvé plus parlant que ces 3 courbes obtenues avec Fitswork :

-> en blanc, les images brutes

-> en jaunes, les images de l'OE

-> en rouge, une image haute résolution.

 

L'algorithme de fusion des images de l'OE fonctionne en arrière plan, l'image HR et/ou la vidéo HR sont accessibles en cours d'acquisition. ;)

 

Modifié par ms

Partager ce message


Lien à poster
Partager sur d’autres sites
Posté(e) (modifié)

Pour obtenir une vidéo avec des images un peu plus homogènes, on peut ne retenir que les images dont le déplacement maximum n'excède pas 1 pixel par exemple (dans le cas présent 293 / 400), mais la différence reste faible :

 

M1_den.thumb.png.f29ca264d89e7b3998387011db4227e0.png

Modifié par ms

Partager ce message


Lien à poster
Partager sur d’autres sites
Posté(e) (modifié)

Autre possibilité, effectuer un recalage subpixel (image du bas), la différence est imperceptible à l’œil humain mais les images de la vidéo deviennent plus homogènes et la composition finale est meilleure  :

 

M1_M2_shifts.png.2cf72278c3970575e0add89a1e6960b9.png

Modifié par ms

Partager ce message


Lien à poster
Partager sur d’autres sites

Salut MS

 

Penses tu que cet OE peux gérer des images avec un histogramme très sombre, genre ciel profond mais en exposition rapide (200 à 500ms voir 1s)? 

Partager ce message


Lien à poster
Partager sur d’autres sites
Posté(e) (modifié)

C'est ce que je suis en train de faire à 3x14ms sur la vidéo de Saturne de polo (qui ne devrait plus tarder) que j'adapte au ciel profond (Watec utilise une base de 40ms dans ses caméras vidéo ultra sensibles c'est à dire en gros 3x14=42ms dans la vidéo de polo).

Ensuite, il faut compositer des images parfaitement alignées (à 0,2 pixel comme ci-dessus) sinon on obtient de gros pâtés comme dans les essais faits avec AS2 ou AS3. ;)

 

Pour l'utilisation de l'OE en ciel profond, il faut faire comme Watec (adapter la focale et augmenter le gain en fonction de l'objet recherché) mais en corrigeant en plus les distorsions, le flou et bien sûr le bruit, aujourd'hui, on peut faire cela en couleur.

 

A l'époque (en 2008), l'OE embarquait une batterie, un écran et un enregistreur, c'était du monochrome sans correction des distorsions, du flou et du bruit, le calculateur (rudimentaire) était dans le boitier Watec :

 

oculaire4.JPG.1dd2bcdc137006c5a51a5cc15e8a7b89.JPG

 

oculaire5.JPG.e26a1b2fed8f31454c49986193d02cb9.JPG

 

Aujourd'hui (2018) , l'OE sera en couleur et muni d'une carte permettant le calcul intensif par le GPU. Il sera capable d'envoyer ses vidéos directement sur un site internet dédié, ainsi chaque observation (diurne ou nocturne) pourra être consultée en temps réel.

Modifié par ms

Partager ce message


Lien à poster
Partager sur d’autres sites
Posté(e) (modifié)

 

Hello ms :) 

 

 

Le 06/10/2017 à 12:29, ms a dit :

Aujourd'hui (2018) , l'OE sera en couleur et muni d'une carte permettant le calcul intensif par le GPU. Il sera capable d'envoyer ses vidéos directement sur un site internet dédié, ainsi chaque observation (diurne ou nocturne) pourra être consultée en temps réel.

 

 

A part pour ce que tu annonces ci-dessus, comment  ton OE se situera-t'il par rapport à ce  produit ?

 

"Le tour de force se trouve également dans son logiciel fait-maison qui permet un empilement des images en temps réel : la première image, posée quelques secondes, vous apparaîtra bruitée, mais la seconde vous paraîtra meilleure, la troisième encore moins bruitée, etc... "

 

Une démo (parmi d'autres) avec la version couleur :

 

 

 

 

Modifié par Nebulium

Partager ce message


Lien à poster
Partager sur d’autres sites

Neb, ceux qui ont déjà une caméra, ils font quoi ?

Ils déboursent 1095 euros pour faire ce que faisait déjà une Watec en monochrome, il y a 10 ans ?

Et pour le planétaire, ils font comment ?

 

L'OE c'est une application embarquée de calcul intensif par GPU.

En 2018, je vais présenter l'OE et ses différentes façons de l'utiliser (astronomie planétaire et ciel profond, surveillance longue distance, vidéo sous-marine, imagerie calcium, ...). Un site internet montrera les différentes possibilités de ce système et ce site sera alimenté en temps-réel.

Partager ce message


Lien à poster
Partager sur d’autres sites

Elle est cramée cette Orion. Rien à voir avec la perception de l'oeil humain (ou inhumain comme les miens)

Partager ce message


Lien à poster
Partager sur d’autres sites

Super projet ! dans le cas ou on n'est pas interesse par le gadget materiel, j'imagine que logiciel ne sera pas opensource ?

Merci en tout cas pour le lien sur le papier "RPCA and Quasiconformal Maps", pas mal de contenu que je ne connaissais pas, et qui m'interesse au plus haut point :)

 

Concernant la deconvolution, ducoup quelle solution a ete retenue, celle du papier en mode completement aveugle, ou alors il y a une estimation de PSF via une autre methode, telle que celle evoque a l'aide d'une image de reference ?

Partager ce message


Lien à poster
Partager sur d’autres sites
Posté(e) (modifié)

Pour ceux qui veulent se lancer dans l'aventure, cet article est important car il reprend les travaux faits ces 10 dernières années dans le domaine :

http://arxiv.org/pdf/1704.03140v2.pdf

 

Toute la complexité est dans l'image d'Orion présentée par Neb ci-dessus et jugée par lyl.

L'OE est capable de faire la part des choses entre la zone surexposée et le reste de l'image.

Pour cela il doit traiter en // des centaines de patchs d'où la nécessité de faire appel au calcul intensif par le GPU.

 

Concernant la reconstruction de l'image, j'ai bien sûr testé les différents algorithmes (SobLap, Centroid, Two-stage, NDLM, RPCA) et bien d'autres. L'idéal c'est une synthèse en temps-réel de SobLap avec Centroid ou RPCA qui sont très proches afin de se rapprocher de l'image du terrain. Hors mis à part SobLap, les 2 autres sont inexploitables en temps-réel.

L'intérêt de l'OE c'est d'avoir fait aussi bien que Centroid ou RPCA mais en temps réel. ;)

 

carfront_oe.png.5d6ea63c7e666e9b27184432858f3d19.png

 

La meilleure façon de présenter l'OE sera de montrer en 2018 ses possibilités sur le terrain et de l'utiliser dans les différents domaines pour lesquels il a été imaginé.

Les cartes embarquant les technologie CUDA et OpenCL que gère l'OE vont se multiplier dans les prochaines années, elles vont se banaliser et de ce fait notre façon de naviguer parmi les étoiles va changer.

J'ai toujours rêvé d'avoir un petit coin de Lune dans mon jardinet pour regarder le ciel. Quand j'étais adolescent c'était bien sûr impossible mais aujourd'hui le rêve commence à prendre des allures de réalité. ;)

Modifié par ms
  • J'aime 2

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a une heure, ms a dit :

oute la complexité est dans l'image d'Orion présentée par Neb ci-dessus et jugée par lyl.

L'OE est capable de faire la part des choses entre la zone surexposée et le reste de l'image.

Alors là chapeau bas, c'est souvent l'ergonomie qui pêche dans ce genre de produit, mais si tu y penses...

Partager ce message


Lien à poster
Partager sur d’autres sites

C'est pas très complexe de comparer une rafale de patchs à ses voisines après avoir effectué quelques opérations élémentaires (somme, moyenne, minimum, maximum) pour en déduire le traitement le mieux adapté, il est alors possible de détecter simplement les zones surexposées.

Une approche plus fine ferait appel aux réseaux de neurones mais là c'est plus coûteux en temps de calcul à moins d'utiliser une carte spécialisée.

C'est ballot de fournir un logiciel qui crame la zone centrale d'Orion alors que quelques lignes de code permettent de résoudre le problème de façon automatique sans passer par une IHM. ;)

Partager ce message


Lien à poster
Partager sur d’autres sites

Pour moi la meilleure explication est celle de Christophe Pellier. D’ailleurs on constate que la division est plus fine sur les bruts de qualité que sur les résultats compilés. Cela provient du traitement ondelette final (d’IRIS).

 

MS je t’ai envoyé des séries de Saturne pour 20000 images, l’idée était de voir cet été si d’autres divisions étaient perceptibles, autres que celles crées artificiellement par le traitement ondelette.

Il y avait aussi une série de CP de 135 images, ... mais jusqu’à aujourd’hui tu n’as pas poster de ces résultats avec le soft de l'OE.

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 4 heures, CPI-Z a dit :

Il y avait aussi une série de CP de 135 images, ... mais jusqu’à aujourd’hui tu n’as pas poster de ces résultats avec le soft de l'OE.

 

M1_den.png.0dc376fc795cebe08c3b8e23ead5b5cf.png

 

Même remarque que pour la nébuleuse d'Orion pour le noyau de M51. J'ai converti l'image en monochrome parce que c'est plus parlant.

Avec l'OE, on verrait une image avec le noyau bien résolu et des étoiles un poil plus rondes en cumulant par exemple des poses de 40ms comme le font les caméras vidéo Watec. Pour comparer, en planétaire ce sont des poses unitaires de moins de 10ms.

 

Ci-après une des 135 images brutes (les noyaux sont bien cramés) :

 

1.png.665e0011c8d51ff37495b872b9f2b93f.png

 

Pour les images de Saturne, j'ai tes 2 vidéos de 10.000 images et celle de polo de 21.000 images, je n'ai pas tout à fait terminé.

 

Modifié par ms

Partager ce message


Lien à poster
Partager sur d’autres sites

ms, je suis allé  voir ton document  RCPA.

Toutes ces maths n'étant plus de mon âge, j'en ai lu le résumé et regardé les images.

J'ai l'impression que le bruit qui accompagne toutes nos prises astro n'est pas de la partie ??? -_-

Partager ce message


Lien à poster
Partager sur d’autres sites

Si j'ai bien compris, ce n'est pas le bruit le souci, mais le rapport signal/bruit, qui devient favorable au signal en empilant les images.

Ces algorithmes servent à améliorer le signal en superposant *correctement* toutes les portions d'images.

 

ms, c'est correct?

Partager ce message


Lien à poster
Partager sur d’autres sites

Merci MS pour l’exemple sur M51 (135 images) ton résultat est probant. Serai-il possible d’avoir ce résultat en version x1 pour le comparé au résultat IRIS ?

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant