› Fora › ASTRO-FORUM › ASTROFOTOS OG -TEGNINGER › Billedebehandling/ manipulation – hvad er ok?
- Dette emne har 31 svar og 9 stemmer, og blev senest opdateret for 15 år siden af mogens. This post has been viewed 715 times
-
ForfatterIndlæg
-
6. marts 2009 kl. 16:11 #11921
jesperDeltager- Neutron star
Thomas wrote:
Et objekt der kun udsender i H-alpha, den er og bliver rød lige meget hvor svag den er.Ja, og den sætning du citerede i første omgang var nok mangelfuldt formuleret. Jeg tænkte nok mere på den kritik vi astrofotografer nogen gange møder fra visuelle folk, fordi vores billeder er alt for kulørte og overdrevne. I okularet er det hele jo mere eller mindre gråt. Der handler det om hvad man definerer som ægte farver: Er det det som det blotrte øje ser, eller er det hvad man ser i en 8″ eller hvad hvis vi satte et okular på VLT, så ville der komme kulør på. Eller er det din definition: Et målt spektrum, gengivet på præcis samme måde. Det sidste kan ikke lade sig gøre.Det korte og det lange er at emissionståger ikke kan gengives ægte, på grund af det menneskelige øjes virkemåde. – og skærme og printere er jo tilpasset denne. Hvis vi opfandt en ny type skærm der udsendte Ha lys på samme måde som tågen ville vi nok stadig se det som postrødt. Vi kunne også have små Ha, OIII, SII mikrofiltre på CCD’en istedet for RGB. Lige meget ville det hjælpe.Og jo, man kan godt selv vælge farverne fordi de i alle tilfælde vil være falske med smalbåndsfiltre. Det bedste man kan gøre er tilnærmet ægte farver.Jesper 2009-03-06 15:14:37 6. marts 2009 kl. 16:38 #11923
thomas- Giant
Jesper wrote:
Der handler det om hvad man definerer som ægte farver: Er det det som det blotrte øje ser, eller er det hvad man ser i en 8″ eller hvad hvis vi satte et okular på VLT, så ville der komme kulør på.Det er jo ikke et spørsmål om kulør, men om intensitet.Nu skal mit brok jo IKKE misforstås, jeg elsker at jeres astrofotos. Også dem med hubble-palettenMen farve-ægthed har man først når spectrometet viser de samme når det er rettet mod skærmen som mod himlen. Uanset intensitiet.Eller sagt på en anden måde:1. tag et billede2. vis det på skærmen.3. tag et billede af skærmen4. sammenlign farverne på billed 1 og 2.stemmer farverne ikke, så blev det første billede ikke vist i ægte farverThomas 2009-03-06 15:52:42 6. marts 2009 kl. 17:02 #11926
jesperDeltager- Neutron star
Jeg synes ikke du brokker dig, men jeg synes du konsekvent misforstår hvad jeg prøver at sige, så i erkendelse af at jeg åbenbart må være dårlig til at formulere mig
vil jeg slutte her.
6. marts 2009 kl. 17:18 #11927
jesperu- Giant
Personligt er jeg mest til en minimalistisk stil hvor det så vidt muligt er de rå data som præsenteres – gerne i sort/hvid. Og frem for alt: at det er beskrevet hvad der er lavet af billedebehandling. Det sidste er jo sjældent tilfældet hvis man går ind og markerer områder som så behandles på en bestemt måde. Så har man jo tilføjet information til billedet som ikke var der i forvejen og andre som optog et tilsvarende billede med det samme udstyr ville ikke være istand til at reproducere resultatet.Som jeg ser det, er problemet med billedebehandling at der ikke er nogen grænse for hvad man kan få ud af et billede hvis man har lidt styr på billedebehandling.Vi har alle sammen set billeder taget med Hubble og så laver vi vores billedebehandling således at billedet mest muligt kommer til at ligne Hubblebilledet – og hvis vi er dygtige til billedebehandling kommer vores processerede billede til næsten at være en kopi af Hubblebilledet. Men giver det egentlig mening? Hvorfor ikke bare downloade det “rigtige” Hubblebillede fra nettet?Heldigvis er alt det her jo en smagssag og der er ikke noget astrofotopoliti som uddeler bøder eller bank hvis man processerer sine astrofotos på en bestemt måde.
–Jesper6. marts 2009 kl. 18:13 #11928
mortenDeltager- Super Nova
Jeg har undervist i synsfysiologi i mange år, så tilgiv mig nedenstående bidrag, som jeg håber er pædagogisk.Når det kommer til farver, så må man til en vis grad acceptere at “seeing is believing”. Vi har kun tre forskellige sanseceller der kan videregive farveinformation, blå, grønne og røde tappe (de sidste har faktisk absorbsionsmax i nærmest det gule område). Farveopfattelsen dannes ved forholdet mellem hvor meget de tre taptyper er stimuleret. Dette betyder at lys med to vidt forskellige spektre kan opfattes af det menneskelige øje som havende præcis den samme farve. Man bruger iøvrigt dette forhold til at karakterisere rød-grøn farveblindhed. Den farveblinde sættes til at blande rødt og grønt indtil lysblandingen matcher standard (monokromatisk) gult lys. Den rød-blinde vil blande meget rødt lys i, mens den grøn-blinde vil blande meget grønt lys i for at opnå et match. Pointen er at når farveblandingen matcher, så ser den dikromatiske blanding af grønt og rødt lys nøjagtigt ud som det monokromatiske gule lys, d.v.s. to forskellige spektre har samme farve.Hvidt lys er en nogenlunde ligelig blanding af lys af alle bølgelængder. Hvidt lys kan dog også frembringes ved at blande næsten monokromatisk lys af få bølgelængder. Dette er f.eks. princippet i lysstofrør og i de hvide lysdioder. Hjernen er god til at definere hvad der er hvidt, den laver en automatisk hvidbalance. Hvis der er en dominans af f.eks. rødt lys i omgivelserne fratrækkes automatisk noget fra den røde kanal, så hvide flader fremstår hvide.Dette er fuldstændigt analogt til et farvefoto, hvor lyset stimulerer de røde, grønne og blå pixels i chippens Bayer matrix, og hvor elektronikken laver en (mere eller mindre god) automatisk hvidbalance. Også her kan to forskellige spektre give de samme farver. Det er iøvrigt også baggrunden for at lyskilder med meget forskellige spektre kan give nogenlunde de samme farver (efter hvidbalancering). Tænk på hvor forskelligt spektret er i lyset fra et lysstofrør og spektret fra en glødelampe, alligevel kan man tage nogenlunde brugbare billeder i lysstofrør-belysning.Når vi ser gennem okularet er lysenergien så svag at vi ikke kan se farver overhovedet. Dette skyldes ikke, at farverne ikke er der, men at energien er så svag, at vi vores tappe overhovedet ikke reagerer. VI ser kun med vores stave, som ikke videregiver farveinformation (i mørke er alle katte grå).Den maksimale “lukkertid” i det menneskelige øje er nogle få hundrede millisekunder. Når vi bruger CCD chippen så får vi samlet så mange fotoner, at det bliver muligt at farveseparere dem, så farveinformation kan ekstraheres. Dette kan gøres med farvechips i lighed med dem i normale digitale kameraer, og de farver der fremkommer er bare de farver der er på himlen i forvejen men forstærket. Hvis lyset i de blå, grønne og røde område er koncentreret i nogle få smalle bånd, så kan man lave den samme farvepalet ved kun sample lyset i disse bånd, og definere dem som rød, grøn og blå. Dette resulterer i fejl i farvebalancen svarende til den energi der ligger mellem de smalle bånd, og som som bliver filtreret væk – det meste af disse fejl kan hvidbalanceres væk ved at sammenligne med kendte “hvide” stjerner.Kravet om at spektret på skærmen skal være det samme som spektret i det lys der falder på chippen kan ikke imødekommes alene af den grund af spektret der kommer ud af computerskærmen (næsten) kun består af tre toppe, rød, grøn og blå. Der kommer f.eks. ikke noget lys i Halpha bølgelængden ud af computerskærmen.6. marts 2009 kl. 18:21 #11929
jesperDeltager- Neutron star
Hej Jesper,
Det er nu en misforståelse at man tilføjer information til billedet ved at billedbehandle selektivt. Det gør man ikke, man fremhæver noget der er der i forvejen. Grunden til at gøre det er at højlysområderne har et meget bedre signal/støjforhold end lavlysområderne. Højlysområderne indeholder derfor meget mere information, som kan fremhæves uden at billedet bliver kornet. Lavlysområderne derimod har som regel brug for det modsatte: Støjreducering.Men som du selv siger så er det en smagssag hvad man vil og ikke vil gøre ved sine fotos. Der er lige så mange forskellige måder at gøre det på som der er fotografer.Og så lige den med at man kan gå ud og tage et astrofoto, og så billedbehandle det så det kommer til at ligne et Hubblefoto. Den går altså ikke! Det vil du hurtigt opdage.6. marts 2009 kl. 18:33 #11930
jesperDeltager- Neutron star
Hej Morten,
Tak for din grundige gennemgang som sætter mange ting på plads. Problemet ved smaldbåndsbilleder er jo at vi ikke bare kan vælge nogle passende bånd der ligger i det røde, grønne og blå område. Vi må nøjes med f.eks Ha, OIII og SII som slet ikke passer med RGB. Af den grund kan jeg heller ikke se hvordan man skulle kunne kalibrere ud fra en hvid stjerne, sådan som man kan med RGB filtre?6. marts 2009 kl. 21:48 #11935
thomas- Giant
Rigtig god forklaring Morten
heh, jesper, jeg misforstod dig nu ikke med vilje. Men efter Mortens indlæg tror jeg godt jeg kan se hvad du mener.Og selvfølgelige er det ok at dit H-alpha billede ikke kommer ud af skærmen som ~656 nm, bare du farver det blåt.Og nu er det ikke for at lyde uforskammet, men hvornår skal vi se dit næste projekt?6. marts 2009 kl. 23:26 #11940
jesperu- Giant
Jesper wrote:
Det er nu en misforståelse at man tilføjer information til billedet ved at billedbehandle selektivt. Det gør man ikke, man fremhæver noget der er der i forvejen.Det jeg mener er, at når man markerer et område i sit astro billede – f.eks en galakse – og behandler det anderledes end resten af billedet har man jo taget et valg omkring hvad der er galakse og hvad der ikke er galakse. Og det er jo også information. Hvis man f.eks gør det med “lasso” i photoshop har man tilført billedet den information som består i de x,y værdier hvor man har kørt lassoén rundt i billedet. Andre amatørastronomer vil kun kunne reproducere det behandlede billede hvis de har originalbilledet og de samtidig ved hvordan man har flyttet lasso-tool’et og behandlet det markerede område.Jeg vil nok mene at jeg har tilført billedet af M81 noget information som ikke var i det oprindelige billede blot ved at markere nogle områder og justere kontrastenOg det der med at man kan billedebehandle sig til et Hubblebillede – det er nok rigtigt at det bliver svært. Men pointen er blot at vi bevidst eller ubevidst har en idé om hvordan vores astrofotos ideelt set skal se ud. Og så hiver og strækker vi i billederne i PS for at få galakserne til at have den “rigtige” farve og få “hesten” til at have den “rigtige” kontrast. Og man kan faktisk gøre ret meget med et elendigt billede hvis man blot ved hvilket resultat man gerne vil have frem på forhånd.Men det er iøvrigt en spændende diskusion som kun er sund.Selv er jeg som sagt på den modsatte vogn hvor kvaliteten af billedet ikke er et spørgsmål om visuel æstetik, men om opløsning, kontrast og reproducerbarhed. Og så et minimum af billedebehandling. Og så selvfølgelig et spændende objektbedste astrohilsnerJesper6. marts 2009 kl. 23:40 #11942
mortenDeltager- Super Nova
Hej Jesper
Her ser du den spektrale følsomhed for tappene i menneskets nethinde. Læg mærke til at de røde og de grønne tappe har næsten ens spekrtum. Dette skyldes at de først har udviklet sig sent i pattedyrenes udvikling. Hos katte, hunde og grise f.eks. findes der kun de blå tappe og en gul tap.Når du kører med smalbåndsfiltre som lader Halpha, OIII og SII så begår naturligvis en fejl ved at se bort fra det lys der har andre bølgelængder, som der er meget af i stjerner og galakser. For i hvert fald nogle emissionståger er hovedparten af lyset imidlertid af Halpha, OIII eller SII bølgelængderne (i astronomi er jeg begynder, men det er sådan jeg har forstået det). Lad os nu antage at du sendte en farveblanding af monokromatisk lys af disse tre bølgelængder ind i dit øje. Som det fremgår af figuren, så ville dine røde tappe reagere mest på SII, dine grønne på Halpha og dine blå på OIII. Derfor ville denne farveblanding se ud for dig på samme måde som den tilsvarende blanding af ægte grønt lys (ca 530 nm), ægte rødt (ca 650 nm) og ægte blåt (ca 450 nm). Det der betyder noget er IKKE den faktiske bølgelængde, men hvordan den stimulerer de tre taptyper.Jeg kan ikke her overskue hvordan farven ville være, hvis man forstærkede din farveblanding Halpha, OIII og SII, og i hvilken grad den ville ligne det tilsvarende forhold på computerskærmens grønne, blå og røde kanaler. Det kan man finde ud af ved at tage et astrobillede, se hvad værdierne er for de tre kanaler, og så plotte dem ind i et CIE diagram, svarende til bølgelængderne for de tre kanaler i computerskærmen. Det kan jeg evt gøre når jeg er færdig med det foredrag om resultatet af operation for nethindeløsning, som jeg nu skal til at lave. Det villle dog ikke overraske mig om blandingerne så relativt ens ud, for farvesystemet er ret robust, når der bare er hvidbalanceret (noget de fleste billedbehandlingsprogrammer laver mere eller mindre automatisk).6. marts 2009 kl. 23:51 #11944
mortenDeltager- Super Nova
Jesper
(der er en del overspringshandlinger med det foredrag)Med hensyn til den hvide stjerne, så er den hvid hvis forholdet mellem stimulationen af de røde, grønne og blå tappe er nogenlunde ens (ikke helt rigtigt men næsten). Når du hvidbalancerer i RBG, så sørger du for at dine tre taptyper blive lige stimuleret i de områder i billedet, der skal være hvide. Det samme er nødvendigt med Halpha, OIII og SII, ellers ser stjernerne ikke hvide ud.7. marts 2009 kl. 00:19 #11950
jesperDeltager- Neutron star
Hej Thomas, Jesper og Morten,
Der er mange spændende ting at snakke om her, men hvis det er i orden med jer venter jeg lige til i morgen. Jeg er på vej hjem i seng nuOg Thomas: Jeg tror skam heller ikke det var med viljeMit næste projekt starter nåpr det engang bliver klart vejr, hvis det da nogensinde sker.
7. marts 2009 kl. 12:35 #11966
jesperDeltager- Neutron star
Til Jesper: Først og fremmest så er alt hvad jeg siger her selvfølgelig bare min mening. Der er heldigvis ikke nogen facitliste til billedbehandling.
Og ja, der bliver tilføjet information til M81 billedet. Ha ha ha. Den så jeg ikke komme, men spøg til side. Selektiv billedbehandling handler ikke om at udvælge en galakse, eller et andet objekt, det handler om højlys og lavlysområder. Man behandler den eksisterende information selektivt, men tilføjer ikke ny information til billedet (hvis man altså holder sig fra at lave smiley faces 🙂 Mange deepsky objekter har et enormt dynamikområde, fra de svage ydre dele til den lyse kerne (M42, M31 etc.) 12-16 bit kameraer kan i mange tilfælde godt dække hele dynamikområdet, men det kan ikke vises på skærmen eller på print i lineær stretch. Vi må altså ty til ikke-lineær stretch som DDP eller Curves for at højlysområderne ikke skal vises udbrændt på skærmen. Og der har vi så allerede brugt selektiv billedbehandling, på trods af at kommandoen måske er global, for DDP, Curves, Shadow/highligts og så videre behandler ikke højlys og lavlys ens. Det logiske næste skridt er så at gøre det mere præcist, med f.eks selections.
Den anden del af det er som nævnt at højlysområderne har en meget bedre SNR. Det muliggør sharpening og anden fremhævelse af detaljer. I den forbindelse kan man nævne at et filter som Photoshops Smart Sharpen også arbejder selektivt, selvom det bruges globalt. Lavlysområderne vil være meget mere støjfyldte og som regel kræve en form for støjreduktion.
Billedbehandling handler efter min mening om at vise den information der findes i de rå data på den mest optimale måde. Hvad den mest optimale måde er, findes der naturligvis ikke en objektiv definition på, men hvis vi begrænser os til kun at vise billederne i næsten rå form og lineær stretch er der ingen grund til at bruge mange timer eller dage på at optage data.
Ideen om at andre skal kunne reproducere billedet 100 % forstår jeg ikke rigtig. Hvis vi forudsætter at det ikke er fotometri eller sådan noget vi laver, men bare ”pretty pictures” hvorfor skal de så kunne det? I de (heldigvis meget sjældne) tilfælde hvor der er mistanke om plagiering kan man udlevere sin rå data. En erfaren astrofotograf vil ret let kunne vurdere dem uden at kende billedbehandlingen i mindste detalje. I mit eget tilfælde vil en detaljeret gennemgang af billedbehandlingen være noget nær umulig at give idet det involverer masser at trial and error og spring i History paletten. Det ville fylde flere A4 sider.
Til Thomas: Jeg tror egentlig ikke vi er så uenige om farverne, i hvert fald ikke RGB. Det jeg fiskede efter var en definition på hvad ægte farver er. Jeg har hørt nogen sige at alt hvad der er mere kulørt end ”det man kan se” er falsk eller overdrevet. Det er jeg naturligvis uenig i, eller ville alle mine astrofotos være grå. Der findes en god metode til RGB med filtre eller oneshot-color kamera, nemlig G2V måling som Michael Stauning har vejledninger til her:
http://messier.flight.dk/Vejled/
Til Morten: Smaldbåndsfiltre bruges, som du også er inde på, kun til emissionståger, supernovarester og planetariske tåger. De bruges kun i særlige tilfælde til galakser (som jo består af stjerner og derfor lyser bredspektret). De tre ”bedste” filtre er h-alpha (brintemission), OIII (ilt) og SII (svovl). Tågerne består som oftest mest af brint, og h-alpha filtret giver derfor næsten altid det skapeste og reneste billede af det tre. Herunder kan du se hvor i spektret de ligger:
Astronomik filtrene er ret brede. Man kan få filtre ned til 3nm. Selve emissionen ligger altid på den præcise bølgelængde. Som du kan se passer det hverken halvt eller helt med noget der ligner RGB. Hubble tricolor paletten lægger Ha på grøn, ud fra den filosofi at det bedste billede skal ligge på den kanal hvor øjet er mest følsomt og bedst til detaljer og kontrast – når nu vi alligevel ikke kan opnå ægte farver.Men hvad kan man gøre for at tilnærme farverne til noget der ligner ægte farver? Jeg har selv brugt Ha til rød, OIII til grøn og et almindeligt blåt filter til blå, da der ikke findes en brugbar emission i det blå område. OIII er ikke grøn, men nærmest cyan – den kan ses af bade grønne og blå pixels i et onesht-color kamera. Man kan derfor også bruge en bicolor teknik, hvor Ha er rød og OIII er både blå og grøn. Det kan give noget der kommer tæt på virkeligheden for brint og iltemission. Stjernerne mister altid deres farver når man bruger smaldbåndsfiltre, men jeg er så begyndt at eksperimentere med at lægge RGB stjerner på smalbåndsbilleder af tåger. Det er svært at få til at se ordentligt ud, men det kan lade sig gøre.7. marts 2009 kl. 12:46 #11967
jesperDeltager- Neutron star
Eksempel på Ha, OII, blå: http://www.astrofoto.dk/Deepsky/NGC6992_farve.html
Eksempel på Ha, OIII bicolor: http://www.astrofoto.dk/Deepsky/NGC6888.htmEksempel hvor der er tilføjet RGB stjerner: http://www.astrofoto.dk/Deepsky/Orion_wide_full.htm7. marts 2009 kl. 13:46 #11970
jesperDeltager- Neutron star
Der findes også en metode til at få ægte farver i emissionståger: Ved simpelthen at bruge RGB filtre i stedet for smaldbånd, og så bruge ovennævnte G2V kalibrering. Det burde give et korrekt billede, med tanke på hvad Morten skrev om øjets måde at opfatte smaldbånsemission. Prisen for det er et billede der ikke er lige så dybt og detaljeret. Gevinsten er at mange synes sådan et billede er mere naturligt. Jeg synes begge dele har sin berettiglese. RGB af tåger kræver en mørk himmel, hvad smalbånd ikke gør, og derfor er mange af os mere eller mindre afskåret fra metoden.
-
ForfatterIndlæg
- Emnet 'Billedebehandling/ manipulation – hvad er ok?' er lukket for nye svar.