Data is data. Is dat ook echt zo?

meegja

Chaoot
Ik zie wel vaker de term "Data is data". Maar is dit ook zo?
Ik ben bv nu bezig met data verzamelen van M106. Als ik een individuele FITS capture vergelijk van een goede en een mindere nacht, dan is er optisch verschil zichtbaar. Maar als ik een mindere nacht dan stack, dan is er optisch bijna geen verschil met de stack van de goede nacht. Met goed en minder bedoel ik bv seeing, dus niet met bv maanlicht..
Nu kan ik me voorstellen dat voor de SNR het goed is (toch?) maar is het ook goed voor het object zelf?
Als ik "mindere" data gebruik bij de "goede" data, wat voor echt effect heeft dat? Haalt de mindere data niet de betere data naar beneden (als een soort van optelsom zeg maar). En dit dan met veel integratie tijd, zit nu bv met M106 op +11 uur.
 
Laatst bewerkt:

svdwal

Sander - Moderator
Slechte seeing maakt sterbeeldjes groter en verwijderd de kleinste details in de slechte-nacht-stack. Als je het gewoon optelt dan wordt het resultaat slechter, daar de ruis van de slechte nacht hoger is. Als je weegt met de kwaliteit, dan zal het resultaat ietsje beter moeten zijn.
 

Extrafocaal

Donateur
Mijn ervaring is dat bij lange belichtingstijden, e.g. > 5 minuten, seeing i.h.a. nauwelijks nog een rol speelt in de grootte van het uiteindelijke sterbeeldje. Alleen duidelijk kortere belichtingstijden, e.g. seconden, maken hier een verschil. Wat volgens mij wel een belangrijk effect heeft is transparantie - sterbeeldjes worden diffuser bij slechte transparantie. Dan nog liever maanlicht.
 

wvreeven

Moderator
Mijn ervaring is dat bij lange belichtingstijden, e.g. > 5 minuten, seeing i.h.a. nauwelijks nog een rol speelt in de grootte van het uiteindelijke sterbeeldje. Alleen duidelijk kortere belichtingstijden, e.g. seconden, maken hier een verschil. Wat volgens mij wel een belangrijk effect heeft is transparantie - sterbeeldjes worden diffuser bij slechte transparantie. Dan nog liever maanlicht.
Er is nogal een verschil tussen "seconden" en "> 5 minuten". Hoe zit dat met bv 30 of 60 seconden? Volgens mij speelt seeing dan toch ook al geen rol meer. Of is dat anders in jouw ervaring?
 

Extrafocaal

Donateur
Er is nogal een verschil tussen "seconden" en "> 5 minuten". Hoe zit dat met bv 30 of 60 seconden? Volgens mij speelt seeing dan toch ook al geen rol meer. Of is dat anders in jouw ervaring?
Enkel op grond van de 'definitie' van 'seeing' zal 30 of 60 seconden inderdaad geen verschil meer mogen maken, maar heb dit nooit bewust vastgesteld.

Waarschijnlijk dat een enkele 30 en zelfs nog 60 seconden opname nog merkbaar beter kan zijn dan een enkel >5m belicht frame, maar vraag me af of zonder selectie 10x30s of 5x60s dan ook nog zoveel beter zullen zijn dan 1x5min.
Vooral volgfouten zullen vermoedelijk vaker een reden zijn om kortere belichtingstijden te kiezen. Ook zou ik me bij langere belichtingstijden eerder zorgen maken over zaken als focusverloop, windvlagen, vliegtuigen etc. Voor alle duidelijkheid, we spreken hier over de kwaliteit van sterbeeldjes m.b.t. uiteindelijk 'scheidend vermogen' en niet 'signaal-ruis-verhouding'.

Binnen de 'live stack' functie van SharpCap bestaat de mogelijkheid frames te weren op grond van een gemiddelde FWHM van sterbeeldjes (vermoedelijk van die welke ook voor het registreren gebruikt worden). Men zou dan kunnen bepalen hoeveel procent frames 'gedropt' worden bij verschillende belichtingstijden. Probleem is natuurlijk hoe kies je de FWHM limiet bij verschillende belichtingstijden. Een mogelijkheid zou kunnen zijn eerst het gemiddelde FWHM te bepalen van een 12 x 5 sec 'live stack' en deze als limiet voor 1 min frames te gebruiken. Zo ook het FWHM van een 60 x 5 sec 'live stack' voor 5 min frames.
Ik vrees dat dit in de praktijk moeilijk vergelijkbare resultaten oplevert - de opname omstandigheden mogen zich tussendoor natuurlijk niet wijzigen, e.g. transparantie, guiding, focusverloop etc.
Misschien alles ook tijdverspilling - bij een bepaalde belichtingstijd en gain gewoon zoveel frames opnemen als mogelijk en later op kwaliteit, e.g. rondheid en/of FWHM, selecteren voldoet dan even goed.

Voor een 'wat dieper' op de materie ingaand verhaal (en waarom een 40cm telescoop eigenlijk alleen zinvol is op Cerro Paranal - en in de Lage Landen enkel een 5cm :confused:):

MvG,
Peter
 

wvreeven

Moderator
@Extrafocaal, Peter,

Dank voor de toelichting. Een andere reden om te kiezen voor kortere belichtingstijden is het voorkómen van saturatie van sterren.

Enne, scherpte is natuurlijk niet de enige reden om een grote telescoop te kiezen. Een grote telescoop harkt ook meer licht binnen. Met een 40 cm telescoop kun je sneller zwakkere objecten fotograferen dan met een 40 cm telescoop, áls die zwakkere objecten al binnen het bereik van de 5 cm telescoop liggen.
 

Extrafocaal

Donateur
... Een grote telescoop harkt ook meer licht binnen...
Dat heb ik dan experimenteel weer wel vast kunnen stellen - vond het ook al verdacht dat ze toch een 39 meter telescoop op Cerro Armazones willen bouwen;).

Kortere belichtingstijden ter voorkomen van saturatie is inderdaad nog een ander argument - bij minder extreme openingsverhoudingen, bandpass filters, lage gain toch vaak een 'luxe probleem'. Nu is het tegenwoordig wel de tendens sensors met steeds kleinere pixels in te zetten en die lopen natuurlijk sneller vol.
 

Han.K

Han
bij een bepaalde belichtingstijd en gain gewoon zoveel frames opnemen als mogelijk en later op kwaliteit, e.g. rondheid en/of FWHM, selecteren voldoet dan even goed.
Jazeker. Selecteren of achtergrondniveau en FHWM of HFD. Rondheid zit al in de FWHM verwerkt. En bij voorkeur met unity gain.
 
Ik maak in PixInsight altijd eerst een selectie van de ruwe lights m.b.v. de Blink-functie. De ècht slechte frames (volgfouten, sluierbewolking, te lage stand van het object e.d.) gaan meteen de prullenbak in. Na de kalibratie (en eventueel Cosmetic Correction) laad ik de gekalibreerde frames in SubFrameSelector. Dat is een machtig mooie tool. Afhankelijk van het type object krijgen de gekalibreerde lights dan een "weight factor" in de FITS-header bijgeschreven die later bij het stacken gebruikt wordt om te bepalen hoe "zwaar" de light mee moet tellen in het eindresultaat. Dat geeft vaak betere resultaten dan alleen maar de SNR.

Bij een object met weinig sterren in het beeldveld laat ik de FWHM, Excentriciteit en SNR via een formule bepalen hoe hoog die factor moet zijn. Een tutorial van Adam Block geeft –voor een beeldveld met veel sterren– een andere formule waarin het aantal sterren bepalend is voor die factor. Hij gaf een mooi voorbeeld van 2 frames die hij had geschoten: het eerste frame vroeg in de avond bij een lage stand van het object en met de zon pas een half uurtje onder en een tweede frame die midden in de nacht was geschoten bij een hoge stand van het object. Er was duidelijk te zien dat er op het eerste frame nog geen nevel te zien was, terwijl dat op het tweede frame wel zo was. Vreemd genoeg liet PixInsight het eerste frame veel zwaarder meewegen –ondanks dat die slechter was– dan het tweede. Blijkbaar "ziet" PixInsight de lichtvervuiling aan voor signaal. De enige basis die hij kon gebruiken voor een goede weight factor was het aantal sterren in beeld.
 

Han.K

Han
Elke programma heeft zijn eigen methode. Voor ASTAP worden de opnames in een tabel getoond en kan je sorteren op een aantal kwaliteitsparameters. De belangrijkste is de quality berekend uit het aantal gedetecteerde sterren gedeeld door de mediaan HFD. De opnamens blinken kan ook. Het aantal getecteerde sterren is een goed maat voor de transparantie.

Een weegfactor gebaseerd op kwaliteit lijkt me moeilijk goed toe te passen. Voor elke pixel positie worden de outliers (buitenbeentjes) al verwijderd de statische selectie sigma-clip. Daar een weegfactor in verwerken is lastig.
 
Een weegfactor gebaseerd op kwaliteit lijkt me moeilijk goed toe te passen. Voor elke pixel positie worden de outliers (buitenbeentjes) al verwijderd de statische selectie sigma-clip. Daar een weegfactor in verwerken is lastig.
Het blijft natuurlijk altijd een beetje een persoonlijke voorkeur. De formule die ik gebruik m.b.t. het aantallen sterren in combinatie met de SNRWeight in PI is deze: 1/(Math.abs(Math.min(StarsSigma+1,0))+1)*SNRWeight. Als ik met de 80 mm F5 Esprit schoot –en zeker richting de melkweg– was dit een prima formule om de kwaliteit van de frames te bepalen. Met de 10" F5 Newton richting b.v. M81 is dit redelijk zinloos omdat vrijwel elke frame hetzelfde aantal sterren zal laten zien. Daarvoor gebruik ik liever een combinatie van FWHM, excentriciteit en noise met deze formule: (40*(1-(FWHM-FWHMMin)/(FWHMMax-FWHMMin)))+(20*(1-(Eccentricity-EccentricityMin)/(EccentricityMax-EccentricityMin)))+(40*(1-(Noise-NoiseMin)/(NoiseMax-NoiseMin))). De waarden 40, 20 en 40 zijn te variëren naar eigen voorkeur.
 

Han.K

Han
Jeroen,

Ja deze commandos zullen niet door iedereen gebruikt worden. Maar over "eccentricity", dat zie je toch ook in de FWHM waarde? Zodra de eccentricity toeneemt dan is de FWHM ook groter.

Voor de HFD (FWHM) gebruik ik als maat de mediaan van alle ster metingen. Geven de waarden FWHMMax en FWHMMin n een min en max van de opname aan? Normaal is de FWHM vrijwel constant. Alleen bij tilt en in de randen neemt hij toe.

Han
 
Uitgaande van goede optiek en een vlak beeldveld zijn FWHM en excentriciteit 2 verschillende dingen. Grofweg wordt de FHWM bepaald door de scherpstelling en de excentriciteit door de guiding/volgen. Een slechte scherpstelling resulteert in een hogere FWHM waarde, maar als de guiding nog steeds goed is zal de excentriciteit laag zijn. Andersom kun je bij een goede scherpstelling een prima, lage FWHM-waarde hebben, maar als de guiding slecht is gaat de excentriciteit omhoog.

Ik volg dit wel maar ik volg het helemaal niet meer :unsure:
Maar maakt niet uit :)
Terug naar waar het mee begon: het is altijd de moeite waard om mindere data in je bewerking mee te nemen. Je zou zelfs eens kunnen kijken of je verschil ziet tussen een stack met daarin alle data verwerkt en en stack met alleen de "goede" data en kijken of je verschil ziet. Waar het mij om ging is dat je aan ieder frame dat je hebt een "waarde" toe kunt kennen op basis van één of een aantal criteria zoals FWHM, excentriciteit, aantal sterren etc. Slechtere data voegt wel degelijk iets toe aan het eindresultaat.
 
Bovenaan Onderaan