ms

Oculaire électronique en une planche

Messages recommandés

OK, si le système consiste juste à fournir un calculateur annexe cela me paraît une bonne idée. L’utilisateur pourra comme vous dites réutiliser les matériels existants (caméra, écran, ...).
Je pensais que votre outil consistait à tout fournir et donc un trop gros investissement et créerait des doublons.

Merci pour votre projet et à suivre avec assiduité.

Partager ce message


Lien à poster
Partager sur d’autres sites
A propos de turbulence forte.

1) devant l'escalier le grillage de la clôture est littéralement broyé par la turbulence :

2) correction des distorsions :

3) correction du flou :

les mailles du grillage sont restituées.

Ici, le test est fait sur une rafale de 50 images, avec une centaine ce serait encore plus net au niveau du grillage.

En gros :
- turbulence faible -> de 1 à 10 images,
- turbulence moyenne -> 10 à 50 images,
- turbulence forte -> 50 à 100 images.

A propos de l'image centrale :
un algorithme plus récent dérivé de l'approche FBA (Fourier Burst Accumulation) permet de s'affranchir des bords déformés de l'image résultante, ci-après la correction des distorsion sur une vidéo de 50 images couleur.

Tous ces algorithmes de correction des distorsions donnent des résultats équivalents (en temps de calcul et qualité) sous turbulence faible à moyenne. Par contre l'écart se creuse sous turbulence moyenne à forte.

quote:
Me semble qu'il y'a d'autres petits malins sur le truc.

jmpd86 : c'est un domaine très actif et qui va encore se développer à l'avenir.

[Ce message a été modifié par ms (Édité le 11-06-2017).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Vivement que le projet aboutisse !

Lucien

Partager ce message


Lien à poster
Partager sur d’autres sites
Dans le cas d'une turbulence forte, les récentes publications montrent l'intérêt de prendre en compte toutes les trames même si certaines régions de l'image brute sont pauvres en détails. Cela conduit à travailler sur un certain nombre de trames consécutives.

[Ce message a été modifié par ms (Édité le 11-06-2017).]

Partager ce message


Lien à poster
Partager sur d’autres sites
C'est bluffant! Un grand bravo pour ce travail de longue haleine!

Partager ce message


Lien à poster
Partager sur d’autres sites
Mode puriste:
- l'oculaire électronique est un abus de langage qui consiste à utiliser des principes de traitement d'images.
- un oculaire est seulement un assemblage de lentilles entre l'observé et l'observateur.

[Ce message a été modifié par maire (Édité le 14-06-2017).]

Partager ce message


Lien à poster
Partager sur d’autres sites
La turbulence moyenne à forte, on peut commencer aujourd'hui à la traiter.
Dans une prochaine manip, je reviendrai sur 300 images brutes couleurs de l'escalier qui sont bien perturbées.
Je proposerai 300 nouvelles images corrigées qui auraient pu être prises dans un site où la turbulence est faible.
La question est de savoir si les images que certains mettent à la poubelle sont récupérables.
Si oui, cette étape intermédiaire permettrait de récupérer les vidéos pour les traiter avec les outils habituels.

Partager ce message


Lien à poster
Partager sur d’autres sites
Une petite planche pour montrer la correction turbulence forte -> turbulence moyenne -> turbulence faible :

La planche correspond à la première image de chaque vidéo de 300 images.
L'image de gauche correspond à la vidéo initiale (turbulence forte).
L'image centrale correspond à une correction sur 10 trames consécutives (turbulence moyenne).
L'image de droite correspond à une correction sur 100 trames consécutives (turbulence faible).

L'algorithme récupère les morceaux dans les différentes trames consécutives et les fusionne pour obtenir une vidéo ayant le même nombre d'images mais de meilleure qualité.

Il est donc tout à fait possible de récupérer les vidéos mises à la poubelle et d'augmenter leur qualité afin que les logiciels actuels puissent les traiter.

Remarques :
- il s'agit de vidéos brutes, le défloutage devra être fait ultérieurement,
- l'artefact qui apparaît au niveau de la clôture sera corrigé dans la prochaine version de l'algorithme.

[Ce message a été modifié par ms (Édité le 12-06-2017).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Après correction de l'artefact et défloutage de la trame, le traitement de la turbulence forte sur une base de 50 trames donne ceci (en moins de 1s) :

On retrouve la fenêtre 2 de la planche initiale.
Sur une base de 100 trames, le résultat serait un poil meilleur mais plus long.

Voilà, j'ai présenté l'état des développements en juin 2017.
Dans le courant de l'été, j'ouvrirai un site internet pour que les intéressés puissent traiter leurs vidéos prises sous turbulence forte.
Ensuite, je choisirai une carte pour y implanter le logiciel.

[Ce message a été modifié par ms (Édité le 13-06-2017).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Intéressant...
Je suppose que les militaires font ça depuis des années ?
Les terrains de jeux de ces derniers sont plutôt des zones chaudes où la turbulence brouille les yeux des drones...
Tu as des infos là dessus ?

Partager ce message


Lien à poster
Partager sur d’autres sites
Pour cette année mon objectif était de sortir ce type d'image en moins de 1s ... c'est fait depuis peu :

Par la suite, il y a effectivement d'autres applications possibles dans le domaine de la surveillance entre autres. En 2012, l'armée américaine avait lancé le sniper super scope, c'était une lunette de 60mm équipée d'un système analogue à l'oculaire électronique permettant des visées jusqu'à 2 km.
Il existe d'autres système comme celui d'ATCOM :

Pour en revenir à l'astro, une image brute (image de gauche) en 1/100s, une image corrigée (image de droite) en moins de 1s et en fin de soirée des milliers d'images exploitables (3600 par heure) pour faire de la vidéo ou pour sortir une image en haute résolution.

[Ce message a été modifié par ms (Édité le 20-06-2017).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Bonjour
Résultats et travail très impressionnants, merci pour toutes tes explications.
Bonne journée.
Luc

Partager ce message


Lien à poster
Partager sur d’autres sites
Et puis l'image s'affine progressivement, de gauche à droite :
l'image brute (1/100s), affichage au bout de 1s, affichage au bout de 10s :

Partager ce message


Lien à poster
Partager sur d’autres sites
L'oculaire électronique va pouvoir être testé sur le ciel à partir de septembre 2017.

Les images brutes donnent ceci :

Les images brutes corrigées donnent cela (elles sont sauvegardées dans un fichier SER) :

Une commande permet de renforcer à l'écran les images précédentes lors de l'observation (une autre commande permet aussi de faire un zoom numérique) :

Cette simulation correspond à 12 secondes d'observation (voir le compteur en bas à droite).

Les processeurs Intel type i5 (ou mieux i7) ainsi que les cartes graphiques Nvidia des séries 900 (ou mieux 1000) sont mis à profit pour tenir la cadence. Les ordinateurs de bureau ou portables type Gamer sont bien adaptés pour cela.

Le logiciel est capable de s'adapter à des conditions de turbulence variables (un des threads est occupé à surveiller ces conditions) afin de fournir des images de qualité à peu près équivalente.

[Ce message a été modifié par ms (Édité le 04-08-2017).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Ebouriffant !!

Super pour les anims publiques !!

Partager ce message


Lien à poster
Partager sur d’autres sites
Les animations publiques ou l'observation au font de son jardin permettent de collecter des images corrigées (la vidéo du milieu) qui n'ont plus rien à voir avec les images brutes (la vidéo du haut). Il devient alors possible de suivre l'objet pendant plusieurs minutes voir plusieurs heures pour réaliser plus tard une vidéo ou une image super résolue.
Tout cela est rendu possible par des capteurs moins bruités de plus en plus rapides et sensibles ainsi que des ordinateurs qui profitent du marché en forte croissance des jeux vidéo.

Partager ce message


Lien à poster
Partager sur d’autres sites
Salut ms,
Le principe même de ce truc est très prometteur, car comme tu le dis il fait la synthèse des deux mondes : celui de l'observation visuelle directe et celui de l'imagerie.
Mon job c'est l'observation publique (ça ne s'arrête pas là, mais c'est ce qui fait bouillir la marmite )
Je suis par définition confronté à ce choix cornélien lors des belles nuits : dois-je privilégier l'imagerie au détriment de l'animation publique ? (les deux font mauvais ménage, sauf avec les geeks passionnés qui se repaissent de technologie ; mais ils sont minoritaires et pendant ce temps tous les autres se font chier car ils viennent chercher des émotions visuelles, de la "science-spectacle", plus que des explications trop théoriques ou techniques...), alors dois-je plutôt profiter des conditions pour montrer aux observateurs visuels un maximum de choses, en abandonnant l'idée de faire des images ?
C'est généralement en ce sens que j'arbitre.
Car c'est comme en cuisine, on ne peut être au four et au moulin : dès qu'on quitte un instant ses fourneaux on court au devant de cruelles désillusions ou on mécontente son public !
Là, je vois évidemment l'opportunité de proposer une vision "augmentée" et collective, en quasi temps réel, et peut-être même au delà du planétaire s'intéresser à des objets du ciel profond plus difficilement accessibles au béotien dont le regard n'est pas éduqué - objets auxquels on renonce souvent avec lucidité pour ne pas décevoir...
L'intérêt aussi est de dynamiser la séance, chaque objet visé pouvant être vu par tous simultanément, les temps d'attente pour accéder à l'oculaire sont supprimés.
En cas de météo un peu fantasque avec belles éclaircies entrecoupées de passages nuageux - comme c'est souvent le cas chez moi aux changements de saisons - il est toujours frustrant d'attendre, pour ceux qui n'ont pas encore vu comme pour ceux qui sont déjà passés à l'oculaire...
Devant une image toujours affichée à l'écran, on peut discuter, et si par malchance le ciel se montre plus ingrat, la soirée n'est pas fichue pour autant.
Bravo pour ta persévérance
Je vais suivre avec attention les premiers retours, et longue vie à ce projet que les progrès techniques permettent enfin de concrétiser ; c'est très excitant et stimulant !

Partager ce message


Lien à poster
Partager sur d’autres sites
Les objets brillants du ciel profond comme certaines nébuleuses planétaires peuvent aussi être traités comme des planètes (courtes poses).
Pour les autres objets comme les galaxies (longues poses), la turbulence est moyennée et le logiciel fonctionne dans un autre mode. Prévoir un système de refroidissement du capteur dans le cas de longues poses.

Certains pensent que la turbulence très déformante (voir la barre métallique du bas)ne peut pas être traitée, c'est inexact :

Un thread est utilisé pour faire de la surveillance et permettre d'ajuster 2 paramètres : le nombre de rafales (bursts) et le nombre d'images brutes totales. Dans le cas ci-dessus, les 300 images brutes sont découpées en rafales de 10 images consécutives. Un algorithme de contrôle de la qualité (type Ninox) écarte les images brutes difficilement exploitables en temps réel (dans le pire des cas, 20% des images peuvent être écartées).

Partager ce message


Lien à poster
Partager sur d’autres sites
Comme les copains : bravo. J'attends la suite avec impatience.

Partager ce message


Lien à poster
Partager sur d’autres sites
La suite c'est une simulation où alternent différents niveaux de turbulence, l'idée c'est de jouer sur la taille des rafales d'images et le nombre total pour un niveau de turbulence donné afin d'homogénéiser la qualité des images.
Ces paramètres sont scrutés par une tâche faisant office de moniteur de surveillance de la turbu, le données acquises sont accessibles aux autres tâches en quasi temps réel via la mémoire partagée du système.

Pour compléter le post précédent, la vidéo de 12 images peut aussi être améliorée en cours d'observation (contraste, bruit, ...) :

Cela peut se faire manuellement ou automatiquement en faisant tendre la PSD (densité spectrale de puissance) d'une image de la vidéo vers la PSD d'une image de référence (image prise par une sonde par exemple). C'est ce qu'avait montré Neb en ajustant les fréquences d'une image en utilisant Fistwork. En représentation 3D, cela donne à peu près ceci (sonde Cassini et image modifiée) :

[Ce message a été modifié par ms (Édité le 06-08-2017).]

Partager ce message


Lien à poster
Partager sur d’autres sites
quote:
Je suis par définition confronté à ce choix cornélien lors des belles nuits : dois-je privilégier l'imagerie au détriment de l'animation publique ? (les deux font mauvais ménage, sauf avec les geeks passionnés qui se repaissent de technologie ; mais ils sont minoritaires et pendant ce temps tous les autres se font chier car ils viennent chercher des émotions visuelles, de la "science-spectacle", plus que des explications trop théoriques ou techniques...), alors dois-je plutôt profiter des conditions pour montrer aux observateurs visuels un maximum de choses, en abandonnant l'idée de faire des images ?

Dans chaque image se cache une belle nuit qui occupe souvent une portion infime de l'image. L'observateur visuel et le photographe recherchent, chacun à sa façon, l'instant magique où la belle nuit remplit toute l'image. Ces deux approches conduisent à terme à une certaine frustration.
Pouvoir s'offrir un petit carré de Lune dans son jardin pour transformer une activité souvent contraignante, en activité ludique, c'est le but que je poursuis. Le comble c'est que la panoplie du gamer permet déjà cela.
Le jeu c'est l'avenir de l'Homme.

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant