brizhell

Membre
  • Compteur de contenus

    2 268
  • Inscription

  • Dernière visite

  • Jours gagnés

    1
  • Last Connexion

    Soon available - 46759

Tout ce qui a été posté par brizhell

  1. Correction de la turbu par PSF.

    Salut à tous,Trés bon résumé ms, je pense malgré tout que le traitement b1) est envisageable sur un petit nombre d'images, dès que ces dernières sont sélectionnnées via un algo de type bestof et triées de la meilleure a la moins bonne. La psf de ce lot d'image sélectionné sera celle qui sera la moins diluée et a priori la plus statique. Mais cela reste "touchy" car a partir de combien d'images doit on convenir que la psf est trop déformée ?? @ Neb :>2. Morphing avant compositage.J'en rappelle le concept de base : >- On crée d'abord une image simplement compositée classique donc >statistiquement crédible. >- On déforme les images individuelles pour qu'elles "collent" à l'image cibleLa il y a déjà dilution, l'image de référence pour le démorphing doit être une image brute il me semble (j'ai un essai qui confirme ca dans les images de jupiter au 150 fait par JL) C'est ce que j'avais expliqué ici : http://www.astrosurf.com/ubb/Forum2/HTML/036639.html >Il ne s'agit pas d'une unique déconvolution au sens classique avec une >psf improbable, mais d'une série d'itérations successives basées sur les >algos connus de déconvolution (que l'on peut choisir et paramétrer à >volonté) qui font évoluer alternativement image et psf dans un cadre de >contraintes prédéfinies (c'est le plus difficile !) selon des critères de >mesure d'erreurs (des histoires de gradients multiples, là j'ai décroché).C'est exactement ce que fait AIDA !! si tu regarde le fichier de sortie des calculs que ms à postée en page 2 de ce poste, AIDA alterne entre une itération sur l'image et une itération sur la psf de manière à réduire des fonctions d'erreur un peu complexe a saisir, je l'admet.J'ai enfin un petit script qui permet de traiter sous AIDA des séquences entières (un fichier bash qui re écrit le "Aida_settings.py" entre chaque images pour ceux que ca interesse), et j'ai quasiment terminé les essais sur les séquences video de Phil Tosi, en utilisant sa PSF originale contenant justement un gros "trefoil". Les résultats sont interessants, mais j'ai encore quelqeus soucis sur la couche bleue..... Dans tout les cas, l'amélioration est sensible entre une psf calculée (donc circulaire), et celle issue d'une acquisition originale contenant le trefoil. Si JL passe par la, je lui avait aussi renvoyé un ou deux traitements sur des images du 1m Mais pour le moment j'ai pas le temps de poster, étant sur un sujet en relation directe avec ce dont on parlait en page 1. J'en parlerai une de ces 4 quand j'aurais des résultats.Bernard
  2. Correction de la turbu par PSF.

    Connais pas non plus, Merci pour le lienBernard
  3. [Admin] Présentation de ce nouveau forum

    Bonjour, l'interférométrie des tavelures se fait sans interféromètre, c'est une technique d'observation à un seul télescope, les interférences sont générées par la turbulence atmosphérique. J'avais décrit ca ici (lien du 28 octobre, mesure de binaires par interférométrie stellaire): http://www.astrosurf.com/thizy/rochelle2009/rochelle2009.htm Avec un télescope de diamètre raisonnable (>250mm), et une camera video rapide et sensible, il est possible de remonter sans trop de complication aux composantes de positions de l'étoile double ou multiple.Bernard
  4. [Admin] Présentation de ce nouveau forum

    Un sujet qui m'interesse aussi, mais pour lesquels les collaborations sont moins actives en france que dans d'autres pays (US, espagne...) : Les étoiles doubles, et les techniques (accessibles aux amateurs) associées (lucky imaging, interferométrie des tavelures).L'ensemble permet de mieux connaître les systèmes d'étoiles multiples, et d'alimenter entre autre la base du wds.Bernard
  5. Windows: XP ou 7?

    J'ai un D620 même configuration que le tien, qui fait tourner ma station meteo. Il est sous Linux (Ubuntu), et je fait tourner une machine virtuelle XP pour la station. C'est vraiment juste juste, mais ca rend service. A mon avis, Seven, il faut pas y compter.Bernard
  6. Le SCMOS nouveau (Sony) est arrivé

    doublon[Ce message a été modifié par brizhell (Édité le 09-12-2011).]
  7. Le SCMOS nouveau (Sony) est arrivé

    Re Re ... ;-)>Tu verras bientot qu'un CMOS à 1e- de bruit de lecture fera le job... Et meme plutot bien. Les tests sont en cours dans ma boite pour comparer les données sur des phénomènes rapides et peu lumineux, entre EMCCD et capteurs CMOS (et aussi un proto de ICX285 avec seulement 1e- de bruit de lecture)Si ce sont des test en comptage de photons, a la milliseconde voire moins, suis interessé. Mais je reste sceptique ... La sensibilité et le rapport S/B d'un capteur n'a pas forcément besoin de passer par une chaine EM. Surtout si on veut de la résolution et de la vitesse. Mais je te l'accorde, ça va être chaud pour trouver la bonne techno !!! Il restera des domaines de prédilection pour l'EMCCD. Rassures-toi ;-)J'attend l'EMCMOS vu la quantité de brevets qui ont été déposé dessus depuis 3 ans :-)).Bernard[Ce message a été modifié par brizhell (Édité le 09-12-2011).]
  8. Le SCMOS nouveau (Sony) est arrivé

    re salut ;-) >Il est absolument évident que la chaine EM écroule la dynamique du capteur (du pixel si tu veux). Et ce d'au moins un facteur 1.4x>Reprenons un capteur E2V, le CCD97 : Le puits de potentiel des pixels du capteur CCD97 : 200 ke- Puits de potentiel de l'ampli EM : 800ke- Le bruit de lecture : 3e- en ampli non-EM à 100kHz / 200ke- 6e- à 1MHz en non EM / 200 ke- 30e- à 5MHz en EM / 800ke- 45e- à 10MHz en EM / 800ke->Dynamique "réelle" d'une image lente : 200k/3 = 66000 (donc 16 bits théoriques) : super pour des temps longs.Yep, on est alors ici hors cadre d'utilisation d'un EMCCD puisqu'on cherche a poser court :-)>Ensuite tu as l'option de sortir en EM Tu as un signal de 200ke- sur un pixelUn signal réel qui rempli la totalité du puit sur une pose unique met en effet les EMCCD a la poubelle, on cherche plutot des domaines de détection ou sur pose unique on est a quelques dizaine ou au pire centaines d'électrons ..... Je me place ici du point de vue de l'utilisateur, pour lequel la dynamique capteur a moins d'importance que la dynamique réelle sur l'image en fonction du flux a imager.>Bien sur, tu ne mets pas un gain de 4x sur la chaine EM mais plutot 100x au minimum. 800k / 100x donnent 8000 e- de signal dans un pixel avant qu'il ne soit saturé par la chaine EM. Ta dynamique sera alors proche de 8000:1 soit 13 bits. Imagine avec 1000x de gain. Ben oui, j'imagine trés bien, c'est bien la dessus que l'on base le choix de la camera sur l'annonce (ou la mesure que l'on fait suite au près de ladite cam quand le fabricant est d'accord)) de la dynamique image et non sur la dynamique capteur, en fonction de l'application....>Du point de vue sensibilité, il est vrai que les EMCCD E2V sont loin devant tout le reste.Pour encore un moment je pense>Pour la dynamique, tout dépend de ce que tu veux imager. Si tu fais de la lucky-imaging, de l'optique adaptative... tu as uniquement besoin de sensibilité et de vitesse.C'est bien dans ce cadre la en astro qu'il peut y avoir des besoins. >Donc oui, les EMCCD sont INCONTOURNABLES en haute vitesse et haute sensibilité cumulées C'est ce que je m'evertue a dire depuis le début, on va finir par être d'accord :-) Faudrait coller un ampli log avant le registre :-) >j'ai meme vu une société (tu en parles) proposer un EMCCD à un client qui voulait poser 10 minutes sur un signal très contrasté (nécessité de dynamique) ou un autre qui n'avait que 10 photons qui arrivaient en 5 min. Si le contrat a été signé, soit le commercial a été bon, soit l'acheteur a été mauvais dans l'estimation de son besoin .... lol>C'est pour la rapidité et la sensibilité que les application de biologie utilisent des EMCCD mais tu ne verras jamais d'EMCCD sur des applications rapides sur un synchrotron (par exemple) car les tests de dynamique (justement) et linéarité les ont TOTALEMENT dissuadés de travailler avec des EMCCD. Même approche ici sur les atomes froids.>Les biologistes ne se préoccupent pas trop de ces aspects techniques alors que d'autres chercheurs veulent une bonne réponse photométrique et une stabilité du gain.La tu vexerai pas mal de biophysicien autour de mon bureau :-)Bernard
  9. Le SCMOS nouveau (Sony) est arrivé

    Salut>Lorsque je parle de comparaison CCD vs EMCCD, je me mets dans des config avec un CCD très sensible (QE 90% et bruit lecture de 3e-) et un EMCCD aussi d'E2V. Les Texas sont assez mauvais en dynamique.Indépendament du type de fabricant, le plus sensible des CCD ne peut en aucun cas rivaliser en terme de sensibilité avec un EMCCD, c'est une question de conception technologique. Je m'explique, une EMCCD est une matrice CCD standart derrière laquelle on ajoute, avant le convertisseur analogique/numérique, un canal de multiplication de charge par effet d'avalanche. Le comportement est en première approximation linéaire (ce n'est pas tout a fait vrai sur l'ensemble de la gamme d'amplification, mais globalement ca marche). La chaine de numérisation (conversion Charge=>tension) se trouve après la multiplication. Ce qui fait que le bruit de lecture sur l'image, lorsque le gain est en mode "ON" devient rapidement négligeable (typiquement <1e-), et ce quelque soit le fabricant de cam ou de matrice. Les EMCCD que l'on utilise au labo sont des Andor Ixon3 860 (on a aussi une 888 et une 897) avec un QE à 90% et une débit max de plus de 513 images par secondes full frame. Ce sont des E2V. http://www.andor.com/scientific_cameras/ixon_emccd_camera/860_back-illuminated/ Il est évident que je n'allais pas sortir du labo une camera a plusieurs dizaine de millier d'euros pour mes essais en astro amateur. On a aussi quelques lucas et Merlin de chez Raptor.>Si ton signal est un fond noir avec des spots lumineux (des etoiles, par exemple) alors tu peux pousser les curseurs de l'EM et tu vas avoir une tres bonne sensibilité. Mais si ton signal est noyé dans une lumiere parasite, alors l'EM amplifie tout et écroule la dynamique. Partons de l'hypothèse que les matrices sont correctement refroidies.Il ne faut pas confondre la dynamique intrinsèque du capteur et de la camera, et le rapport signal sur bruit de l'objet a étudier !! Le canal EM n'écroule pas la dynamique du capteur, il amplifie le signal de l'étoile et le bruit du fond de ciel ! Je m'explique : L'erreur principale est de considérer que les étoiles sont sur un fond noir. Ce cas n'existe tout simplement pas. Physiquement, les étoiles sont entourées d'un "Halo" de photons de différentes longeurs d'ondes issus du fond de ciel, qu'il s'agisse du fond atmosphérique, ou des photons des objets voisins. Il y a généralement peu de photons mais suffisament pour générer un bruit que l'on appelle justement "bruit de photon". Le régime de détection dans lequel fonctionne un EMCCD est justement celui qui permet d'augmenter la sensibilité jusqu'a pouvoir détecter ce bruit de fond, qui je le répète, n'est pas lié au capteur, mais à l'objet étudié (chaque pixel devenant virtuellement un photopultiplicateur). C'est ce que l'on appelle le régime de comptage de photons. Il n'existe tout simplement pas de CCD classiques (sauf ommission de ma part) capables d'atteindre ce régime.>Le CCD en devient meilleur meme a haute vitesse. Les EM texas ont ce probleme. Tout devient relatif si on compare avec une camera CCD qui a 10-12 e- de bruit de lecture.Ben justement non, pour les raisons explicitée plus haut... Pour un rapport signal (étoile) sur bruit (fond de ciel) donné, à temps de pose court et constant, la quantité d'énergie par unité de temps (autrement dit la puissance optique détectée) est multipliée linéairement (jusqu'a plusieurs millier de fois) pour le signal et pour le bruit, alors que le bruit de lecture de la camera reste constant (celui de la chaine de numérisation). L'effet "magique", comme tu le dit, est que si tu ne sature pas l'étoile, en affichant le max de l 'étoile a niveau constant sur l'image, l'augmentation du gain EM provoque une chute du bruit de lecture sous le bruit de photon (cela reviens a dire que le bruit de lecture est "divisé" par le gain EM). Donc sur une image prise avec une CCD classique, obtenant le même rapport signal (étoile) sur bruit (fond de ciel) le bruit de lecture sera forcément supérieur au bruit de photon... La limite est simplement la profondeur du puit de chaque pixel, qui, si le gain devient trop fort, sature rapidement les images (si on remplis trop le puit de potentiel du capteur, forcément, il déborde ;-))Les tout nouveaux sCMOS sont en passe de devenir très bons. Ils divisent deja par 2 a 3 l'utilisation des EMCCD dans le milieu scientifique. Mais en longue pose > 1s le CCD hautbde gamme est largement dominant sur pas mal de points.encore une fois, on ne parle pas des même domaines scientifiques. Tant que l'on s'interesse aux applications rapides à trés faible flux, l'EMCCD reste incontrounable. Voici dans mon labo des applications (microscopie confocale a deux photons) ou les seuils de détections sont si faibles que n'importe quels CCD est a la rue.... Il s'agit d'imager des nanocristaux fixé sur des molécules uniques (http://www.lkb.ens.fr/-Research,163-)..... Et il y en a bien d'autre, y compris en astro.J'ai eu la chance de pouvoir jouer en astro avec ca en 2009 pendant une arpès midi : http://www.insu.cnrs.fr/co/ama09/la-camera-la-plus-rapide-et-la-plus-sensible-en-astronomie-ocam Bon, on est loin du domaine amateur, mais ca montre que la techno même de l'EMCCD en tout cas de l'utilisation d'un canal EM est loin, trés loin d'être morte.>Tiens, un article sur NATURE sur les cameras sCMOS : http://www.nature.com/nmeth/journal/v8/n12/full/nmeth.1777.html ben justement, il le précisent bien dans cet article : "Scientists should also remember that not all microscopy applications will benefit from the new technology. sCMOS sensors are not generally considered sensitive enough for extremely low-light applications or for single-molecule tracking, which currently requires electron-multiplying charge-coupled devices (EMCCDs), a kind of CCD designed for higher sensitivity. "
  10. Le SCMOS nouveau (Sony) est arrivé

    >brihell, la point grey gazelle en camera link qui intègre le cmosis dont tu parles, coute 2500$ auxquels il faut ajouter le prix de la carte caméra link et des cables.Je pensais qu'il y aurai un gap de prix vers le haut plus important. C'est encore cher, mais ca commence a tourner dans le bon sens, même si c'est pas de l'Andor, ca risque quand même de bien causer dans les mois a venir....Bernard
  11. Le SCMOS nouveau (Sony) est arrivé

    On commence a voir des composants vraiment interessants sur le sCMOS. CMOSIS fait aussi un 2k x2k à 180fps 10bits pixels de 5,5microns http://www.cmosis.com/products/standard_products/cmv4000 c'est intégré sur une Raptor sCMOS. Ca a l'air pas mal, mais l'électronique limite le débuit a 37fps en 12 bits tout de même !! http://www.raptorphotonics.com/product-selected.php?31 Bon j'imagine a peine le prix ....
  12. Le SCMOS nouveau (Sony) est arrivé

    @ms et asp06, entièrement d'accord avec vos analyses. J'ai de mon coté eu la chance de pouvoir jouer avec des EMCCD au niveau professionnel, mais a titre purement personnel, mon budget me porte a loucher sur ces IMX03x avec beaucoup d'attention ;-)Merci pour le lien asp06, j'ai bien regretté de ne pas avoir pu assiter au WETAL Bernard
  13. Le SCMOS nouveau (Sony) est arrivé

    Salut, >Mon graphe que j'avais publié ici il y a pas mal de temps est toujours d'actualité. Mais c'est maintenant devenu un peu plus serré avec l'arrivée du (s)CMOS.Pas tant que cela, il faut voir comment se comporte le CMOS en faible flux ou autrement dit sur des temps de poses trés courts.>Les EMCCD 16bits back-illuminated, pas de soucis, ils sont toujours d'actualité du fait de leurs caractéristiques uniques. Seul T.I. a perdu face au CMOS parce que leurs EMCCD étaient 1 cran en dessous des E2V.Les EMCCD standart sont aussi devant de 2 ordres de grandeurs sur la sensibilité (exprimée en watts) pour des poses courtes. Pour s'en convaincre il suffit de comparer des poses de 20ms ou 30ms par exemple avec le même télescope, et une EMCCD vs un CMOS. On a fait le test avec au T60 du pic, on gagne 3 a 4 magnitudes. Un autre exemple avec un certain Christian Buil, ou il a eu la possibilité de faire de la spectro via une EMCCD (j'espère qu'il ne m'en voudra pas trop de reproduire une partie de notre correspondance privée sur le sujet: "j'ai pu faire des essais avec le nouveau spectro LISA. Faut bien l'admettre, c'est tout à fait extraordinaire ! Attraper des étoiles de magnitude V=9,5 en 0,5 seconde de pose avec un pouvoir de résolution spectral, avec un spectre lisible, c'est vraiment impressionnant. En gros le gain est 50 à 100 fois la sensibilité en pose courte d'un caméra CCD QSI532." >Mais un EMCCD reste cher. très cher. Il a besoin d'être refroidi (généralement le CCD97 se retrouve entre -70 et -90°C). La résolution actuelle est de 13µm. E2V n'arrive pas à descendre en taille.C'est vrai qu'il est dommage que Texas ai stoppé sa fabrication de TC246 et 247. Les photosites etaient à 10µm. Et E2V qui est devenu incontournable sur le marché peut se permettre de ne pas travailler en priorité sur le devellopement technologiques de photosites plus petits.>Ensuite, il existe des applications ou l'EMCCD est obligatoire notamment en biologie sur des applis spéciales.C'est le cas dans mon labo (physique quantique), mais l'EMCCD reste incontournable principalement en courte poses...> D'autres applis ou le CMOS peut faire le job pour 2x moins cher avec une vitesse supérieures et un grand champ. Lorsqu'on a 1e- de bruit de lecture sur un CMOS, on détecte quand meme pas mal de choses, et le gap avec l'EMCCD se resserre (du moins, meme si on pert un facteur 2 à 3 en S/B, le signal est là, avec une meilleure résolution. Le facteur de perte est beaucoup plus important que 2 a 3 en courte pose (plutot dans la gamme des 10 à 40 en S/B). Le GAP reste énorme d'ou l'interet pour les futurs EMCMOS si ils sortent... La limitation techno devient la profondeur de puit x coeff de multiplication, ou l'ont fini par saturer allègrement le can en quelques ms...>Le nouveau Fairchild (exclusif) en 4Mpix arrive à un peu plus de 14 bits de dynamique avec un bruit faible (1.3 e-) et surtout une vitesse importante (100fps en full). Il enterre complètement l'ancien composant.ca c'est le gros pb des EMCCD : la vitesse. On est limité technologiquement par le fait d'être obligé de commuter des tensions monstrueuses sur le registre de multiplication pour accélérer le traitement d'une image. Actuellement en full frame, je ne connais pas de camera capable de dépasser 30fps>Cette techno (deep depl.) ne peut pas etre appliquée sur un EMCCD du fait d'une incompatibilité technique entre la zone image et le registre de transfert EM. C'est il me semble en cours de correction chez E2V mais je peut me tromper.[Ce message a été modifié par brizhell (Édité le 08-12-2011).]
  14. Le SCMOS nouveau (Sony) est arrivé

    l'EMCCD n'est pas tout a fait mort et a encore quelques belles années devant lui. Meme si Texas a stoppé sa production, on ne parle pas du même domaine d'application.C'est vrai que ce n'est pas pour des applications astro grand public, mais les sensations en astro sont assez incroyables. D'autres fabricant ce sont posté sur les rang pour la conception de cameras à EMCCD (Hamamatsu entre autre, sur des Back illuminated aminci avec canal EM).Les EMCCD et le sCMOS ne sont pas destinés aux même applications. L'idée de l'EMCCD est de descendre a la limitation par le shot noise (mode de comptage de photon), pour se faire on multiplie le nombre d'électron d'un facteur variant de 1000 à 3000 au max, avant la numérisation. Ce qui fait que pour un rapport signal/bruit donné, si on pose trés trés court (quelques ms a quelques dizaines de ms) le bruit de lecture devient si petit au regard du signal/bruit qu'il en est négligeable devant le bruit de photon. Et la sensibilité sur un même temps de pose (court je le répète)est plusieurs ordre de grandeur au dessus des meilleurs CMOS (y compris les sCMOS). Les domaines interessés principalement sont la biologie (fluorescence), la physique (quantum dots) et certaines niches en astro (optiques adaptatives sur grand télescope). Rien que dans le cadre des deux premiers domaines cités, il y a encore des années de boulots avec des EMCCD (ici dans mon labo, on doit bien en avoir une demi douzaine).CCD1024, tu avais d'ailleurs il y a quelque années posté un graphe trés représentatifs de l'avantage des EMCCD en courte pose par rapport aux CCD classiques et aux CMOS. Dans ces domaines de temps de pose, les EMCCD sont largement imbattables (sauf peut être par les intensificateurs d'images).L'idée du canal EM est tellement séduistante que les brevets pleuvent aux US sur l'EMCMOS (par contre est-ce déjà sorti ??).Dès que l'on pose plus long par contre, les EMCCD redeviennent des CCD "classiques" voire même trés moyens et il ne sont plus compétitifs par rapport aux CMOS et sCMOS en particulier. Ce dernier sont en fait en terme de perf, au dessus des CCD.Bernard
  15. Le SCMOS nouveau (Sony) est arrivé

    en effet, c'est vraiment abordable !! @fredogoto :C'est une technologie CMOS pour laquelle l'architecture de lecture du pixel est optimisée (5 transistors au lieu de 3). Le détail sur la présentation de Thierry Midavaine au RCE 2010 sur la techno CMOS en général et sCMOS en particulier : http://www.afanet.fr/RCE/Minutes2010.aspx Les principaux avantages en plus de ceux déjà éprouvés du CMOS sont en gros : rendement quantique de l'ordre de 85 à 90%, bruit de lecture proche de 1e-, photosite de petite taille. [Ce message a été modifié par brizhell (Édité le 07-12-2011).]
  16. Le SCMOS nouveau (Sony) est arrivé

    Bonjour, l'un d'entre vous connais-t-il l'ordre de grandeur du prix ?Bernard
  17. Nouvelle Comete P/2011 W2 (Rinner)

    Salut a tous, encore un immense bravo a Claudine, mais je lui ai déjà transmis sur une liste d'utilisateur de détecteurs électronique....@Laurent : Et je pense que c'est la meme chose avec l'interférométrie des tavelures, mais je peut me tromper.Je te confirme, ce serait dommage de perdre la qualité "Grand champs" ton télescope. En interférométrie des tavelures (au T60 au pic et j'ai fait des mesures il y a peu avec Jocelyn Serot au petit équatorial de Nice), il faut travailler aux environs de 25 à 30m avec camera video rapide (pour descendre sous le temps de cohérence de la turbulence), c'est un peu une abbération de faire ca avec un télescope ouvert a 3.3, mais bon .... De plus, sur le détection d'étoile double, il faut filtrer pour avoir des tavelures lisibles, et non dispersées par le chromatisme, ce qui oblige a avoir des cameras trés sensibles (EMCCD, mais c'est pas une obligation), et surtout de cibles brillantes..... On va pas au dela de mag 11 avec le T60 et une EMCCD... Autre problème en terme de détection, c'est l'écart de mag entre les composantes de l'étoile multiple. au dela d'un delta mag de 3,5 on est un peu aux fraises.... Ca restreint la quantité de cibles. Pour ce qui est d'imager des astéroides doubles, avec 500mm, il ne doit pas y avoir beaucoup de candidats dont la séparation dépasse 0.3" d'arc, mais avec un plus gros télescope, c'est peut être un truc à tenter.....Bernard[Ce message a été modifié par brizhell (Édité le 02-12-2011).][Ce message a été modifié par brizhell (Édité le 05-12-2011).]
  18. Salut Christian.C'est absolument magnifique comme travail !!Bernard
  19. Bientôt l'optique adaptative à la portée de tous ?

    Bonjour à tous.Salut Neb.En effet, ca a l'air d'une solution interessante mais pas forcément pour des applis astro.Il me semble que l'approche optique adaptative (compensation de déformation de front d'onde) a plus d'avenir en passant par une solution de ce type : http://www.thorlabs.de/thorProduct.cfm?partNumber=AOK2-UP01 Bon, 10000 euros c'est encore extremement cher, mais ca baisse d'année en années... De plus, cette solution complète comportant un shack Hartmann, un miroir déformable 32 actuateurs, et le soft de boucle d'asservissement du miroir sur l'image de la PSF, n'est pas forcément adapté a des télescopes de petits diamètres (pour des raisons notament de structure de déformations du front d'onde pour des diamètres "petits").Pour la solution logicielle (AIDA), on a continué a travailler dessus avec Jean Luc, et on a de bons voire trés bons résultats (au 1m, autant que sur petits diamètre). On touche maintenant aux limites non plus de la résolutions en terme de tache d'Airy, mais bien en terme d'échantillonnage. Le début etait sur le post http://www.astrosurf.com/ubb/Forum2/HTML/036639.html On a des choses interessantes sur les images parfaites du 1m, on est en train de vérifier que la forme d'une PSF altérée par un défaut optique puisse être compensée par le même algo (Philippe, si tu nous lit, poste tes PSF au C14 ;-))Bernard
  20. > La "si petite étoile" était quand même Vega!Ah bon, Véga ne peut pas être sous échantillonnée, avec la MAP faite parcequ'elle est brillante ?Mathématiquement il y a un truc rigolo qui s'appèle le théorème de Nyquist-Shannon. Il porte sur l'échantillonnage. Son résultat est que si l'on ne peut avoir suffisament d'information spatiale sur la taille de la tache d'Airy (ce qui est le cas quand on sous échantillonne), on en peut plus calculer la largeur a mi hauteur....Et le fait que ce soit Véga ou une étoile de mag28 au hst ne change rien à l'affaire .....Bernard
  21. Pic du Midi 2011, le retour :)

    Salut neb, Un peu que je suis preneur, je t'ecrit sur ton mailBernard
  22. Pic du Midi 2011, le retour :)

    Ces Satellites de Jupiter.... C'est monstrueux
  23. Salut ms, >Tu pourrait recalculer une PSF à partir : - des déformations du disque de la planète ou - de l'image d'un de ses satellites.Déformation du disque de la planète, j'ai peur que non, la turbulence a cette échelle (quelques dizaines de secondes d'arc) est plus de l'ordre des variations d'isoplanétisme que de celui de fluctuation de forme de la psf (qui elles est eux environ de la seconde).Sur l'image d'un des satellites, ce serait plus vraisemblable, j'ai d'ailleurs du grain a moudre sur des vieilles Saturne (et bientot j'esoère des Jupiter au C14 d'un fil de la galerie d'image), mais je ne dit rien tant que je n'ai pas de résultats concrets.....>Je trouve qu'Aida est bien adapté à des objets comme M57 car la PSF est accessible dans chaque image à partir du champ d'étoiles, ce qui permet d'avoir une PSF par image. Le problème c'est juste le temps de calcul.La aussi, j'ai des choses à traiter. J'ai pas mouliné sur AIDA les videos de mes premiers tests en EMCCD sur M57 et M27 au T60. Par contre on voit parfaitement sur ces images que outre les abbérrations de l'optique, se rajoute une déformation locale de la forme de la psf sur chaque étoiles du champs. C'est a la fois l'anisoplanétisme et les tavelures (600mm c'est trop gros comme télescope En fait je commence juste Et comme tu dit, c'est gourmand en temps de calcul (j'en suis toujours à 24 images/heures.....). @Eric, merci, en effet la première conséquence c'est de ne pas avoir (ou peu) d'artéfact type rebond. La PSF théorique est certes proches d'une PSF expérimentale mais l'idéal est une PSF statique instantannée. Comme ce n'est jamais acessible (ou alors faut avoir des cam sensible et rapide ainsi qu'une étoile dans le champs), la seule solution est d'avoir plein d'images de l'objet stables ou la psf est constante. Après on interpole, ou on utilise une psf expérimentale statique acquise avec le même télescope sur une autre étoile. C'est justement le but de la suite des traitements que j'expérimente.Bernard
  24. Bonsoir, Lors d'un premier travail, il y a 2 ans, consistant à visualiser la turbulence au T60 du pic et sur un SC de 200mm (http://brizhell.org/Voir_La_Turbulence.htm), j'avais trouvé une algorithme professionnel de déconvolution en licence publique, dénommé AIDA (Astronomical Imaging Deconvolution Algorithm) utilisé en imagerie scientifique (Astronomie, Biologie), et basé sur l'idée de restaurer l'image d'un objet en connaissant la réponse optique du système d'imagerie. Le sujet a longuement été débattu sur le post http://www.astrosurf.com/ubb/Forum2/HTML/036240.html mais ayant de multiples projets en cours, j'avais laissé AIDA de coté depuis un bout de temps. M'y étant remis, je pense commencer à sortir des choses qui tiennent la route. Avec Jean Luc Dauvergne, pour s'attaquer au problème, nous avons décidé de travailler sur une séquence video de Jupiter qu'il a obtenu le 5 juillet 2008 à 2h41 HL avec un Newton D=150 f/5 + powermate 5x. La camera est, sauf erreur une DMK, et pour comparaison, Jean Luc m'a aussi fait passer une image réalisée par Anthony Wesley, image aquise à quelques heures d'intervalle. A Gauche L'image de Wesley, le jour de l'acquisition. A milieu, mon premier jet d'ondelettes modérées, a droite, un traitement sérieux de quelq'un qui sait faire des ondelettes, merci Jean Luc.Le principe de base du traitement est le suivant, la justification du choix de ces étapes est décrite plus bas : Recentrage global => Déconvolution => Démorphing => AdditionAprès quoi, les réhaussement de détails de type Ondelettes ou autres traitements peuvent parler ... En effet, il ne faut pas se tromper, Aida est un outil de restaurations de détails à l'échelle de la psf, et non pas comme c'est le cas pour laplupart des traitements classiques, un algo de réhaussement des contrastes de détails de l'image.La même comparaison, cette fois ci sur différentes méthodes : A gauche toujours l'image de Wesley, mais sur la première ligne à droite, un traitement shift&add classique suivi d'ondelettes. deuxième ligne a droite, le traitement en déconvolution/demorphing suivi d'ondelettes Voici une petite planche comparative de traitements différents de l'avi : Jean Luc à osé l'utilisation de Focus Magic en post traitement, mais ne connaissant pas l'opération exacte, je ne sais quoi en dire. Ca semble un traitement plutot dur, mais la dynamique de l'image brute est telle qu'il devient difficile de lisser le traitement aux ondelettes de manière homogène entre le shift and add et la déconvolution. Dans tout ces traitements les ondelettes sont identiques sur les 2 images traitées.La différence est vraiement marquée sur les compositage bruts après déconvolutions et démorphing sur chaque images. Colonne de gauche, compositage classique sans déconvolutions 200 images en haut, 500 en bas. Colonne de droite, la même chose, mais avec passage en déconvolution/demorphing. Le principe de la déconvolution paraît simple, mais est diablement compliqué à mettre en oeuvre si on veut faire quelque chose de techniquement correct. Ici la PSF utilisée est une fonction d'Airy dont les dimensions et la dynamique sont extrapolées aux conditions de prise de vue.L'image d'un objet I(x,y) peut s'écrire comme la convolution d'une fonction objet O(x,y), par la fonction de transfert optique du système d'imagerie H(x,y). Ces trois fonctions dépendent du temps. Il est donc nécessaire, de travailler sur des images acquises lorsque la turbulence est "Figée", c'est à dire avec des temps de poses suffisament court pour que la turbulence soit bloquée dans un état stable. La déconvolution doit donc intervenir sur chacune des images d'une vidéo acquise avec des temps de pose trés court, et une psf correspondant à l'image traitée. L'idéal est d'avoir une PSF par image, mais c'est rarement possible en planétaire... Donc la seule issue est d'avoir des images suffisament stables sur l'ensemble de la video pour considérer la PSF constante. On peut ensuite procéder a la déconvolution sur chaque image avec la même PSF.La turbulence se décompose en plusieurs phénomènes qui peuvent être considérés comme quasi indépendants (car liés par un facteur d'échelle) les uns des autres :-La composante de tip-tilt, entrainant le déplacement de l'ensemble de l'image -La déformation de la PSF (Point Spread Function, réponse optique de la combinaison télescope/atmosphère) -La fluctuation de l'angle d'isoplanétisme, qui déforme localement l'image lorsque la taille de l'objet dépasse quelques dizaines de secondes (c'est, en gros, les fluctuations de formes que l'on observe sur les images lunaires ou solaires) Cet angle d'isoplanétisme est la dimension sur l'image, au sein de laquelle la PSF (voir en dessous) est considérée constante. * Le tip/tilt etant une déplacement global de l'image, un recentrage (registration) permet de compenser cet effet. * La déformation de la PSF est dût principalement à l'effet de tavelures. Un telescope d'un diamètre donné D, ne produit pas une tache d'Airy (équivalent de la PSF) dont la dimension correspond à 1.22.lambda/D, mais à 1.22.lambda/R0, ou R0 est le diamètre de ce que l'on appelle la tache de Fried, zone de turbulence à l'entrée du telescope, et pour laquelle la déformation de front d'onde est minimale (le front d'onde plan avant l'entrée dans l'atmosphère est "bosselé" par la turbulence atmosphérique). R0 (50mm en moyenne dans les très bon sites en plaine) est quasiment toujours inférieure à D, ce qui veut dire la PSF observée est plus large que la PSF théorique. Sur chaque image d'une séquence video, on a donc une PSF qui est constituée d'un ensemble de petits grains de taille 1.22.lambda/D mais repetés n fois jusqu'à obtenir une largeur a mi hauteur de la PSF observée de taille 1.22.lambda/R0. Or la subtilité dans la détermination de la PSF pour pouvoir faire une déconvolution, est de se placer dans des conditions ou R0 tend vers D (la PSF se rapproche d'une tache d'Airy). Soit on réduit D (donc ca marche mieux pour des petits télescope), soit on sélectionne les meilleures images de la video (celles ou R0 tend vers D). On peut voir en bas de ma page sur la visualisation de la turbulence, sur les animations comparées entre le T60 et un LX200 8 pouces, que la PSF devient quasi constante dans le cas du 8 pouces. * La fluctuation d'isoplanétisme (si l'on se place dans le cas d'une PSF quasi constante sur la video), c'est le décalage local sur l'image, des détails de petites dimensions. Pour compenser cet effet, il faut considérer une image la moins déformée possible, et recentrer chaque détails par rapport à leurs position sur l'image de référence. C'est un recentrage multipoint que l'on peut qualifier de "Démorphing". On a procédé ici avec Registax6L'idée de la démarche est donc pour obtenir des compositages propres : Recentrage global => Déconvolution => Démorphing => AdditionAprès, les réhaussement de détails de type Ondelettes ou autres traitements peuvent parler ...Le prétraitement est le suivant : Sur une video brute, on commence donc par selectionner et trier (je l'ai fait ici via Iris), les images de la séquence, de la meilleure à la moins bonne. La première image de la sélection servira ainsi de référence pour les étapes précédent (registration) et suivant la déconvolution (demorphing). La compensation du tip/tilt peut être attaquée en faisant une registration de toutes les images de la séquence. Toutes les images sont globalement recentrées sur l'image de référence. On a fait ca sous Iris Ensuite un fenêtrage des images de la séquence permet de réduire le temps de calcul pour chaque déconvolution (plus l'image est grande, plus c'est long....) Puis suis la calcule de la PSF la plus vraissemblable pour demarrer le calcul. On lance la déconvolution de la séquence, puis un passage en registax6 et la fonction d'alignement multipoint permet de compenser partiellement le problème de l'isoplanétisme. On peut ensuite procéder à l'addition et aux traitements plus classiques.Voila, c'est un début, mais je pense qu'il peut y avoir une suite. En effet, le traitement de séquences videos stables, mais avec une PSF entachée d'abbération optique (coma, trefoil et autres joyeuseté) devrait améliorer le résultats.Toutes idées et commentaires pour améliorer l'utilisation de cet algo seront les bienvenus.Bernard[Ce message a été modifié par brizhell (Édité le 21-10-2011).]
  25. Pic du Midi 2011, le retour :)

    Salut Jean Luc, Desolé pour le leger HS, mais c'est pour la bonne cause....suis en train de négocier ca avec mon hébergeur perso (l'ingé info de mon labo qui fait de l'hébergement de sites chez lui, dont le mien). Il peut potentiellement monter un compte a 10Go, en sftp (ftp sécurisé), et déclarer quelques personnes pour y accéder en upload. Le seul risque c'est que ca risque d'effondrer sa bande passante.... Mais question taille, ca lui pose aucun problème.Il peut pas faire ca avant demain soir par contre.Te tiens au courant en "off"Bernard [Ce message a été modifié par brizhell (Édité le 20-10-2011).]