Subs opbouwen in lagen?

alfje

Vesta
Hai :)

Voor zover ik begrijp, maken we veel subs met kortere belichtingstijden die dan achteraf gestapeld moeten worden (klopt?) Maar wie kan me uitleggen hoe dat werkt, foto1, 50% helderheid foto2, 50% helderheid, enzo..ik bouw het beeld dus op naar 100%, ik kom niet verder dan 100%, als ik nog 30 fotos zo ga toevoegen heb ik niet meer info op de foto staan. Hoe werkt zoiets?

Ik gebruik linux en heb Gimp (takke programma) Krita en darktable.

Misschien doe ik iets verkeerd of zie ik iets over het hoofd...

Vr,gr
 

wvreeven

Moderator
Hai,

Het is een stuk gecompliceerder dan hoe ik het ga beschrijven, maar waar het op neer komt is dit.

Stel je hebt een 16 bit camera, dan kan een pixel een waarde hebben tussen 0 en 2 tot de macht 16 ofwel 65536. Eigenlijk 65535 want 0 telt ook mee als waarde. Maar goed, stel dat je 30 opnames hebt, dan heeft een zekere pixel nooit exact dezelfde waarde. Dit heeft te maken met statistische processen in de pixel (het reageert niet altijd hetzelfde op invallende fotonen) en in het uitleesproces (soms komt er wat meer ruis bij en soms wat minder). Dus stel dat de pixel waardes heeft van 100, 99, 101, 101, 102, 98, 99, 97, ....., 102 (in totaal 30 waardes). Dan wordt het gemiddelde van die pixels berekend en die waarde krijg je in de uiteindelijke stack.

Waarom is het gecompliceerder?

Wel, de montering hoeft niet per sé goed te volgen. Dat kan per ongeluk zijn (volgfouten) of expres (dithering). Je moet dan de individuele frames op elkaar uitlijnen. Dat wordt registreren genoemd.

Dan zijn er allerlei mechanismen die de intensiteit van een pixel beïnvloeden. De eerder genoemde uitleesruis is er een van. Pixels kunnen ook slecht funcitoneren en altijd een heel lage waarde (dark pixel) of juist een heel hoge waarde (hot pixel) hebben. De optische trein (lens + filters etc) introduceert vignettering. Voor dat alles kan gecorrigeerd worden en veel software doet dat dan ook voor je. Dan krijg je te maken met dark frames, flat frames, bias frames en bad pixel maps.

Het kan zijn dat je niet een 16 bit maar een 14 of 12 bit camera hebt. Dan is de maximale waarde van de pixels navenand lager.

Het kan zijn dat je een kleuren camera hebt. Dan zul je met de Bayer matrix rekening moeten houden.

Er zijn vast nog meer zaken die dit gecompliceerder maken :)
 

alfje

Vesta
Ik bouw dus niets op, ik ben de ruis aan het vervagen met al die subs (kort door de bocht)?
 

Darkmatter

Donateur
Klopt. Het merendeel van de ruis in de foto is willekeurig en alleen de dingen die écht bestaan komen op elke foto weer terug. Door de foto's te combineren wordt de ruis steeds minder en kun je daarna de softwarematig de helderheid van de foto gaan verhogen (stretchen) zonder ook de ruis mee te versterken. De belichtingstijd verandert echter niet dus als iets met een belichtingstijd van 30 seconden niet zichtbaar is, wordt het ook met 100 foto's van 30 seconden niet zichtbaar.

Jarno
 

wvreeven

Moderator
De belichtingstijd verandert echter niet dus als iets met een belichtingstijd van 30 seconden niet zichtbaar is, wordt het ook met 100 foto's van 30 seconden niet zichtbaar.
Dat moet even wat genuanceerd worden want wat betekent "niet zichtbaar"? Het licht van elk object in het beeldveld komt op de camera terecht maar daar zit dan altijd nog lichtvervuiling, sky glow en andere ruisfactoren bovenop. Een object is onzichtbaar als het contrast (dwz de hoeveelheid licht die het uitstraalt gedeeld door de achtergrondvervuiling) te klein is. Maar door heel veel opnames te stacken wordt die ruis steeds minder terwijl het signaal van het object min of meer gelijk blijft. Het is dus zeker wél mogelijk dat objecten (of delen ervan) die eerst onzichtbaar waren, na het stapelen van veel opnames wél zichtbaar worden.

Maar er zit een adder onder het gras. Het contrast tussen een object en de achtergrond kan zó laag zijn, dat het zelfs met veel opnames niet zo veel beter wordt dat het object zichtbaar wordt. Je kunt het echt vergeten om zeer zwakke nevels vanuit een lichtvervuild gebied te fotograferen. Daarvoor moet je echt naar een donkere plek want daar is de lichtvervuiling veel minder en dus het achtergrondniveau veel lager.

Zo als altijd is het dus een kewstie van proberen en gewoon lekker fotograferen. En lukt het niet om een object vanuit de achtertuin op de foto te krijgen dan zul je dus naar een donkerder plek moeten gaan.
 

ArnoM

Donateur
Zelf geen ervaring met Linux, maar denk dat alfje ook wel geholpen is met de naam van een programma die het stacken in Linux voor hem kan doen.
Voor windows hebben we Deepskystacker als gratis beginners alternatief, alhoewel ik begrijp dat Siril een beter alternatief is (ook gratis?). Met Astro Pixel Processor (APP) en Pix Insight (PI) als betaalde programma's met betere stacking en bewerkings algoritmes.
Weet dus niet welke software geschikt is voor Linux om bovenstaande uit te voeren.
 

wvreeven

Moderator
Siril, AstroPixelProcessor en PixInsight draaien allemaal prima op Linux en Mac. Er is ook ASTAP dat ook op Windows, Linux en Mac draait. Zowel Siril als ASTAP zijn gratis.
 

DeepSkyScanner

Halsstarrige sterrenstaarder
foto1, 50% helderheid foto2, 50% helderheid, enzo..ik bouw het beeld dus op naar 100%, ik kom niet verder dan 100%, als ik nog 30 fotos zo ga toevoegen heb ik niet meer info op de foto staan.
Als jouw opnames werkelijk zulke hoge intensiteiten zouden opvangen, waarom zou je dan nog stacking overwegen? Jouw foto is immers al gereed met die 50%.
Ons probleem is normaliter dat onze relatief kleine teleskopen ("klein" ten opzichte van de professionele exemplaren) te weinig licht opvangen als we zwakke objecten willen weergeven. We krijgen dus geen 50% te pakken, maar een fractie hiervan. Theoretisch zou je ook zo een zwakke opname kunnen stretchen en de ruis onderdrukken, totdat je een beeld hebt. Maar, dat beeld zal niet veel voorstellen. Je wilt een mooie foto waarop de nevel of galaxie er scherp en strak op staat, met contast en al.
Enter stacking. Je gooit vele opnamen op een hoop en middelt de verschillen per detail uit dankzij slimme software. Dat gaat niet helemaal vanzelf. De software heeft referenties nodig, namelijk sterren die in elke frame te zien zijn en die als ankerpunten kunnen werken. De zwakke details worden vervolgens statistisch versterkt door honderden of duizenden frames slim te stapelen.
En lukt het niet om een object vanuit de achtertuin op de foto te krijgen dan zul je dus naar een donkerder plek moeten gaan.
Ik moet toegeven dat ik niet meteen begreep dat dit de betekenis is van het zogenaamde "benzine-filter", toen ik deze aanduiding in verschillende fora tegenkwam.
 
Laatst bewerkt:

Neo

Donateur
Als jouw opnames werkelijk zulke hoge intensiteiten zouden opvangen, waarom zou je dan nog stacking overwegen? Jouw foto is immers al gereed met die 50%.
Je leest het verkeerd denk ik. De 50% helderheid slaat niet op de kwaliteit van de foto maar op de factor waarmee dat beeld in de stack mee weegt. Als alfje het anders bedoelt dan horen we het wel. ;-)
 

alfje

Vesta
Klopt Neo.
DeepSkyScanner bedankt voor de verdere uitleg.
--

Als je met een hogere iso waarde wil werken moet ik dus ook meer subs maken?

 

Neo

Donateur
Zelf stack ik wel eens handmatig een klein aantal (niet astro) foto's om snel de SN te verbeteren.

In PS leg je dan de foto's als laagjes op elkaar en geeft elke laag een bepaald percentage 'opacity'.
De onderste is 100%, de laag erboven 50%, dan 33 - 25 - 20 - 16,7 -14,3 - 12,5 - 11,1 - 10% waarna je de stack van 10 samenvoegt.
Maar dit is een heel eenvoudige en primitieve manier van stacken ;-)

Als je met een hogere iso waarde wil werken moet ik dus ook meer subs maken?
Met hogere ISO's krijg je wat meer ruis. Meer opnames maken helpt om dat te bestrijden.
Voor elk cameratype geldt een optimale ISO waarde waarbij het geen meerwaarde meer heeft als je daar boven gaat.
In de tabellen op deze pagina vind je optimale ISO waarden voor de meeste camera's.
 
Laatst bewerkt:

DeepSkyScanner

Halsstarrige sterrenstaarder
In PS leg je dan de foto's als laagjes op elkaar en geeft elke laag een bepaald percentage 'opacity'.
Ah, ok, dat was dan mijn bron voor verwarring. Ik had niet aan zo iets gedacht, maar ging alleen van astro-stacking uit.
Als je met een hogere iso waarde wil werken moet ik dus ook meer subs maken?
Met een hogere iso-waarde laat je toe dat je sensor gevoeliger reageert, doordat de gain verhoogd wordt. Dat wil je omdat je relatief zwakke objecten wilt fotograferen. Je wilt die zwakheid tegemoet treden met een optimale gain van je sensor, en dus een hoge iso-waarde. Daarmee groeit ook de mogelijke ruis die de pixels doorgeven, maar dat compenseer je later weer via stacking.
Eigenlijk is het dus relatief "ongevaarlijk" om in astro-fotografie met een hoge iso-waarde te werken. Je probeert immers uit hoe lang een sub belicht moet worden voor een bepaald object aan de hemel. Ruis wordt later weggewerkt. Je wilt natuurlijk geen overbelichtingen, maar als je een zwakke nevel vastlegt en daarin heldere sterren hebt staan, laat zich de overbelichting van de sterren toch niet voorkomen. Met een hoge iso-waarde verkrijg je de kortst mogelijke belichtingstijden per sub. Misschien moet je niet tot de allerhoogste iso gaan vanwege de ruistoename, maar dat is per camera-sensor verschillend.

Daarbij komt wel nog een ander aspect om de hoek kijken: dynamisch bereik. Er zijn vast wel objecten die een zodanig hoog dynamisch bereik vertonen dat de iso-keuze kritisch wordt. Ik denk dan meteen aan M42. En dan is het niet meer zo eenvoudig om simpelweg een relatief hoge iso te kiezen die de zwakkere delen van het motief versterkt, terwijl de hogere intensiteiten overbelicht worden.
 
Laatst bewerkt:

wvreeven

Moderator
Met een hogere iso-waarde laat je toe dat je sensor gevoeliger reageert, doordat de gain verhoogd wordt. Dat wil je omdat je relatief zwakke objecten wilt fotograferen. Je wilt die zwakheid tegemoet treden met een optimale gain van je sensor, en dus een hoge iso-waarde. Daarmee groeit ook de mogelijke ruis die de pixels doorgeven, maar dat compenseer je later weer via stacking.
Sorry maar dit is incorrect. Je wilt juist opnames maken met de optimale SNR (signal to noise ratio ofwel signaal ruis verhouding) en niet met de hoogste gain. Alles wat je later moet compenseren is eigenlijk al te veel. Dat kleine beetje signaal dat je probeert te vangen boven de ruis dient zo veel mogelijk boven de ruis uit te komen. Als je de gain opschroeft en de ruis daarmee meer (!!!) verlies je dus data. Dat kun je met meer opnames compenseren maar dan heb je er VEEL meer nodig dan wanneer de SNR vanaf begin af aan al beter is.

Lees de link van Neo er maar eens op na. Daar wordt precies uitgelegd wat ISO (en dus gain) inhoudt in de wereld van digitale fotografie.
 

wvreeven

Moderator
En kijk ook eens naar dit topic van cyber:


Hierin laat hij zeer duidelijk zien wat stacken nou precies doet. Het filmpje, waarin een stack van 1, 2, 4, 8, etc, subs wordt getoond laat overduidelijk zien dat zwakke details zeker wél zichtbaar worden naarmate je meer foto's stackt. Er zit een grens aan en op een gegeven moment zul je zo veel méér foto's moeten maken dat het niet meer opweegt tegen het kleine beetje betere SNR dat je er mee krijgt. De enige andere optie is dan om naar een donkerdere plek te rijden.
 

DeepSkyScanner

Halsstarrige sterrenstaarder
Je wilt juist opnames maken met de optimale SNR (signal to noise ratio ofwel signaal ruis verhouding) en niet met de hoogste gain.
Dat is waar. Maar ik zei daarom ook:
Misschien moet je niet tot de allerhoogste iso gaan vanwege de ruistoename, maar dat is per camera-sensor verschillend.
De input-referred read noise (de analoge ruis) neemt bij iso-variante camera's af met stijgende iso. Het nadeel is dat het dynamische bereik tegelijk kleiner wordt, zodat geen onnodig hoge iso dient te worden gekozen.
Verder moet ik eens proberen het volgende artikel te begrijpen, want ik geloof inderdaad dat ik het hele overzicht op dit thema nog niet heb (correcties op mijn beweringen zijn dan ook zeker op hun plaats):
Astrophotography Basics: SNR
Dit is trouwens ook heel interessant (niet dat ik het al volledig heb begrepen, dat komt hopelijk nog):
Sensor simulation
De enige andere optie is dan om naar een donkerdere plek te rijden.
Het artikel dat ik hier boven citeerde, beschrijft dan ook hoe zwaar de lichtvervuiling telt in de sommatie van ruis dat we proberen kwijt te raken.
 
Laatst bewerkt:

wvreeven

Moderator
@DeepSkyScanner interessante artikelen, dank.

Wat ik mis echter is de invloed van afnemede bit diepte bij hogere gain/ISO. Wat ik bedoel is dit: stel dat een sensor bij lage gain 10 ADU aan ruis geeft en bij hoge gain 5. Dan is de ruis bij hoge gain dus de helft van bin lage gain. Maar als de bit diepte afneemt van 16 tot 10 bits, dan zal de maximale waarde die een pixel kan hebben afnemen van 65535 naar 1024. Dat is een factor 64. Als je dan gaat stretchen kan de ruis dus ineens toenemen van 5 naar 320 wat veel hoger is dan bij lage gain/ISO. En dat geldt voor alle ruis, dus uitleesruis maar ook lichtvervuiling. Aangezien je pixels eerder gesatureerd zijn, zul je korter belichten waardoor de lichtvervuiling omlaag gaat. Maar de relatieve bijdrage van de uitleesruis wordt toch hoger, ondanks dat de absolute waarde in elke foto lager is.

En dat is zeker iets waar je rekening mee moet houden en daarom zul je dus nooit op te hoge gain/ISO willen schieten. Behalve misschien voor plate solving of scherp stellen omdat je dan snel opnames wil kunnen maken.
 

DeepSkyScanner

Halsstarrige sterrenstaarder
stel dat een sensor bij lage gain 10 ADU aan ruis geeft en bij hoge gain 5. Dan is de ruis bij hoge gain dus de helft van bin lage gain. Maar als de bit diepte afneemt van 16 tot 10 bits, dan zal de maximale waarde die een pixel kan hebben afnemen van 65535 naar 1024.
Sorry, maar ik begrijp niet wat je bedoelt met de verkleining van de bit-diepte in deze context. Wat verloren gaat met een hogere iso is het dynamisch bereik: de bit-diepte bereikt bij een lagere intensiteit het maximum van de bit-diepte-bereik. Het bit-diepte-bereik zelf verandert niet. De analoge ruis blijft nog steeds laag, namelijk in de onderkant van de bit-diepte. Wat wel gaat toenemen met groeiende iso is de digitalisatie-ruis.
Wellicht begrijp ik deze materie helemaal verkeerd, want, zoals gezegd, moet ik nog proberen de artikelen te begrijpen die ik in mijn vorige commentaar citeerde.
 
Bovenaan Onderaan