ms

Membre
  • Compteur de contenus

    6 661
  • Inscription

  • Dernière visite

Tout ce qui a été posté par ms

  1. F6 : images brutes (t=0) F3 : images distordues corrigées (t=1s) F2 : images floues corrigées (t=1s) F1 : images colorisées (t=12s)C'est la fenêtre 2 qui est intéressante (une image corrigée toutes les secondes).Cette essai est basé sur la vidéo de Marc (100% des 4800 images brutes 448x448 pixels sont utilisées).[Ce message a été modifié par ms (Édité le 08-06-2017).]
  2. Ceux qui veulent suivre l'évolution de l'OE pourront le faire via le site internet consacré à ce système embarqué de vision par gpu. Le site sera lancé courant novembre.
  3. Dans la vie, il faut répondre aux imbéciles par le silence et aux cons par la patience. De ce fait, je ne posterai plus sur ce forum mais j'enverrai par mail les résultats obtenus avec les vidéos que certains m'ont transmis.
  4. Le problème c'est de détecter une aiguille dans une botte de foin (par une approche statistique par exemple) et non faire disparaître le bruit sur la botte de foin (avec Neat Image par exemple). Ce bench n'est pas plus débile qu'un autre mais le problème n'est pas là (ceci dit Julia progresse). Le langage C reste encore aujourd'hui le meilleur outil pour mettre en œuvre le calcul par le GPU et là l'écart est très important entre le processeur (Core i5/i7) et la carte graphique (GeForce GTX 1060 6GB) : x40 pour du calcul matriciel. Par contre Julia va devenir bigrement intéressant le jour où on pourra réellement écrire des noyaux CUDA directement avec Julia : https://julialang.org/blog/2017/03/cudanative La mise au point d'un algorithme avec Julia est très agréable et demain son optimisation avec CUDA ou OpenCL risque de l'être tout autan. En attendant, la librairie ArrayFire (C, C++, Python, Julia, ...) reste une bonne alternative : https://juliacomputing.com/blog/2016/06/09/julia-gpu.html
  5. Sans bruit certes mais il faut éviter d'emporter une partie des détails avec le bruit. Je n'ai pas répondu plus tôt car je suis plongé dans les papiers de la retraite mais dans 1 semaine, je vais pouvoir continuer l'OE à plein temps. Quand on arrive à bien estimer un bruit hybride et le flou au niveau des patchs sans se préoccuper des distorsions, on obtient en gros cela : Ce n'est pas terminé parce qu'il manque en plus de la correction des distorsions (le flot optique), Encke et les 4 satellites. Ce ne sont pas les distorsions qui sont le plus dur à contrôler avec la turbulence mais le bruit hybride et le flou.
  6. Je viens de faire un tour (par curiosité) sur le site de Julia et je découvre que ce langage (en version 0.6 actuellement) a encore progressé en vitesse p/r au langage C : Sur 5 algorithmes sur 8, Julia est déjà plus rapide que C. Je suis curieux de voir ce que cela va donner avec la version 1.0 prévue pour ce trimestre. J'ai utilisé surtout les versions 0.3 & 0.4 de ce langage mais aujourd'hui j'ai l'impression que ce langage fait pratiquement jeu égal avec C.
  7. Cassini plus noire dans les anses

    Compte tenu du seuil de détection de l’œil humain, l'oculaire classique réclame un diamètre compris entre 300 et 400mm pour détecter la division d'Encke. Je crois que Encke a découvert le minimum d'Encke avec 250mm de diamètre. L'OE utilise un modèle statistique pour détecter ou non la présence d'un signal. La nature et l'intensité du bruit résultent de l'analyse de zones homogènes de bruit dans l'image. Le problème revient alors à détecter (ou non) un signal en présence d'un bruit hybride dans des patchs de l'image contenant la fameuse division. Je pense qu'un diamètre bien inférieur à 300mm devrait permettre ce type de détection mais pour l'instant ce n'est qu'une hypothèse. Avec cette approche, le minimum d'Encke et la division d'Encke devraient avoir des signatures différentes (extremums et points singuliers). Le changement de contraste correspond à une variation d'intensité de pixels voisins, ce qui correspond mathématiquement à la recherche des extremums de la dérivée première (gradient) ou à la recherches des singularités de la dérivée seconde (laplacien). On fait l'hypothèse que la division d'Encke est 'cachée' dans un bruit hybride qui peut être déterminé par l'analyse d'une rafale d'images brutes. De combien l'OE augmentera le seuil de détection par rapport à l’œil humain ? Appliquer une convolution à une image d'Hubble pour simuler un instrument de diamètre inférieur n'a pas de sens pour des problèmes liés à des changements de contraste et non au pouvoir séparateur. Par contre bruiter et déformer une image de Hubble pour simuler une rafale c'est déjà plus réaliste. A partir de quel niveau de bruit, l'énergie du signal n'est plus suffisante ?
  8. Cassini plus noire dans les anses

    Un oculaire qui ne crame pas le cœur des nébuleuses et qui offre le spectacle d'une planète avec ses satellites avec par intermittences la fameuse division dans le cas de Saturne.
  9. Il faudrait avoir l'image sans bruit pour comparer mais il me semble que dans le théâtre japonais les décors représentant des arbres ont l'allure de l'image de droite. Je dois avoir un exemple en quelque part. Je posterai bientôt la vidéo complète de polo traitée par l'OE avec la planète et ses satellites, il n'y a pas cet aspect lissé c'est très proche de la vue à l'oculaire avec la planète s'arrêtant de gigoter. Le terme Oculaire Électronique est finalement bien trouvé.
  10. C'est Véronique et Davina qui s'échauffent.
  11. Elle est pas normalisée : Et maintenant ?
  12. Cassini plus noire dans les anses

    Voir ton image de Hubble (en haut à gauche) et celle de polo (en bas), elles présentent quelques similarités : Ce sera plus flagrant sur l'image que je présenterais prochainement.
  13. Avoir un croissant tous les jours à l'heure du petit déjeuner, c'est possible ?
  14. Cassini plus noire dans les anses

    On peut voir des fils électriques à des kilomètres donc bien en dessous du pouvoir séparateur de l’œil humain simplement grâce à de la différence de contraste entre les fils et l'arrière plan (quand le ciel s'y prête). Pour Saturne en visuel quand la différence de contraste est effective (bonne transparence et faible turbulence) alors tout devient possible. Pour la photo c'est différent, la différence gaussienne (par exemple) permet de faire ressortir la fameuse division à condition que les traitements n'aient pas été pollués par des algorithmes générant des rebonds, des halos et autres artefact.
  15. Cassini plus noire dans les anses

    Pourquoi menteur ? C'est peut-être son cerveau qui lui a joué un tour ... à force de regarder des images de Saturne avec cette division, le cerveau finit par l'intégrer aux autres éléments d'apprentissage ... comme ceux et celles qui ont vu la Vierge Marie.
  16. Les ondelettes et leurs histoire

    Je vous recommande le travail titanesque réalisé par Gabriel Peyré : http://www.numerical-tours.com/ vous choisissez votre environnement (Matlab, Python ou Julia) et vous plongez dans les ondelettes par exemple.
  17. Comme cela par exemple mais il y a d'autres transformation possibles de l'image initiale, c'est tout en douceur et sans artefact. La transformation est la suivante : Alors, elle vous plaît cette version ?
  18. C'est ça et l'image du milieu s'obtient simplement à partir de celle de gauche. Après, il suffit juste de faire la soustraction.
  19. Neb, je pense avoir compris comment fonctionne Neat Image : Il suffit de superposer ma dernière image avec celle de Neat pour compendrer la transformation utilisée. Il est donc possible de faire un traitement donnant un aspect analogue mais en plus rapide (quasi temps réel), exempt d'artefact et de halo.
  20. Cassini plus noire dans les anses

    Tu prends un logiciel de CAO (SolidWorks, FreeCAD, ...), tu dessines le globe et les anneaux à la bonne échelle (la division de Cassini fait 4500km de mémoire). Tu fais basculer la planète pour la présenter comme sur l'image d'Hubble. Tu l'éclaires pour obtenir l'ombre du globe sur les anneaux. Je lu que c'était un de ses satellites qui aspirait les particules de cette division, en principe la division devrait être uniformément noire sauf dans la zone où l'on distingue le globe. Le gris que l'on distingue sur la plupart des images des amateurs est sans doute dû aux particules de bruit laissées par le logiciel de traitement.
  21. Je me suis un peu planté dans l'utilisation de l'OE que j'utilise habituellement avec une rafale d'images, du coup les couleurs de l'arrière plan étaient toutes écrasées. Voici une image qui me plaît d'avantage : Là, je crois qu'il n'y a pas photo.
  22. Avec l'algorithme suivant (K-SVD) on n'est plus en temps réel mais l'effet aquarelle disparaît : Cet algorithme est à ma connaissance le seul capable de construire un dictionnaire à partir de l'image bruitée.
  23. Déjà il n'existe pas d'image de référence pour comparer. En suite, l'OE est appliqué sur une image alors qu'en réalité il travaille sur une rafale d'images. Maintenant, nous pouvons discuter : 1) des artefacts bien présents avec Neat Image (voir les rubans dans l'image suivante), 2) des lissages qui écrasent de nombreux détails, 3) du bruit résiduel bien présent. Neb la seule manip intéressante serait à faire avec une image bruitée dont on a l'image de référence.
  24. J'ai trouvé cette image bruitée sur leur site et je n'ose même pas mettre leur traitement tellement il est mauvais (bruit résiduel, artefacts autour des rubans, lissage, ...) : Avec l'OE le débruitage donne cela :
  25. Cassini plus noire dans les anses

    AG, Borland C++ c'est aujourd'hui : Embarcadero Technologies. DOLGULDUR, l'idée c'est de permettre à ceux qui veulent tracer leur propre sillon de gagner du temps et pour cela différents algorithmes seront accessibles via Github à partir de 2018. Il est prévu aussi une version accessible par internet comme sur le site IPOL où chacun peut tester ses propres vidéos d'images brutes. Enfin, pour ceux qui veulent un produit prêt à consommer, le soft de l'OE sera embarqué dans une carte type Jetson TX1/TX2 ou similaire courant 2018 quand tous les tests sur le terrain seront terminés.