Skocz do zawartości

PIXORIALE - czyli jakie to proste z PixInsight.


Rekomendowane odpowiedzi

*************************************************************************************************************************************************
post-476-0-19587500-1414316916.jpg
 
SPIS PIXORIALI:
  1. Kalibracja materiału - klatki kalibracyjne (oryginalny wątek na forum)
  2. Kalibracja materiału w PixInsight - Image Calibration (oryginalny wątek na forum)
  3. Wyrównywanie klatek - Star Alignment (oryginalny wątek na forum)
  4. Składanie materiału z kamerki mono - Image Integration, Drizzle Integration  (oryginalny wątek na forum)
  5. Postprocessing - Screen Transfer Function, Dynamic Crop, Dynamic Background Reduction  (oryginalny wątek na forum)
  6. Dekonwolucja - Deconvolution, Dynamic PSF, Star Mask  (oryginalny wątek na forum)
  7. Odszumianie w fazie liniowej - Multiscale Linear Transform  (oryginalny wątek na forum)
  8. Składanie obrazu LRGB - Channel Combination, LRGB Combination, Color Balance  (oryginalny wątek na forum)
  9. Operacje krzywymi - Histogram Transformation, Curves, Saturation  (oryginalny wątek na forum)
  10. Kompresja dynamiki obrazu - HDRMT, LHE  (oryginalny wątek na forum)
  11. Redukcja szumu - TGVDenoise, ACDNR, MMT, GREYCstoration, SCNR
  12. Organizacja pracy - Process Container, Image Container, Projects
  13. Wybieranie najlepszych klatek - Subframe selector

SPIS PLIKÓW PDF

  1. PixInsight - BatchPreprocessing sript - by Alien
  2. Annotation: czyli opisywanie zdjęć w PixInsight - by Alien
  3. Jak podciągać kolor w Pixie - by jolo
  4. Krótki tutorial obróbki zdjęć komety wykonanych kamerą mono - by wessel
  5. PixCore Comet Alignment Module – złożenie komety - by wessel
  6. PixInsight - Dynamic Crop - by wessel
  7. Processing od podstaw - M42 w PixInsight cz. 1 - by Grzegorz Czechowski
  8. Zmniejszanie gwiazd w PixInsight - by Grzegorz Czechowski

*************************************************************************************************************************************************

 
 
1. Kalibracja materiału - klatki kalibracyjne
 
Kalibrację materiału w PixInsight możemy wykonać używając skryptu z menu Script -> Batch processing -> Batch preprocessing. Ale warto też zapoznać się kolejnymi krokami wykonywanymi w tym procesie, dzięki czemu później łatwiej będzie uniknąć przykrych niespodzianek kiedy już całą metodologię sobie zautomatyzujemy. Proces możemy podzielić na dwa etapy: przygotowanie i złożenie samych klatek kalibracyjnych oraz właściwą kalibrację materiału. 
 
Składanie klatek kalibracyjnych. 
Do składania używamy oczywiście procesu Image Integration. Najpierw BIAS - dodajemy do okienka wszystkie pliki BIAS jakie mamy, co najmniej 20, niektórzy mają 50 albo nawet 100. Opcje zmieniamy jak poniżej:
post-1260-0-97612900-1412522615_thumb.jp
 
Po uruchomieniu procesu i odczekaniu chwili pojawi nam się klatka MASTER BIAS którą sobie zapiszemy.
Następnie DARK. Żeby nam się później nie mieszało warto wybrać od razu, czy klatki kalibracyjne będziemy mieli skalibrowane czy nie - w tym tutorialu będziemy kalibrować klatki kalibracyjne (wiem, masło maślane masłem smarowane :) ). DARKi skalibrujemy MASTER BIASem:
post-1260-0-71716900-1412522617_thumb.jp
 
a potem poskładamy używając Image Integration z takimi samymi parametrami jak wcześniej klatki BIAS i uzyskany obraz zapisujemy jako MASTER DARK. Jako ostatnie idą klatki FLAT. Je skalibrujemy wcześniej zrobionymi klatkami MASTER BIAS i, jeśli mamy, klatkami MASTER DARK dopasowanymi czasem ekspozycji i temperaturą do klatek FLAT. Kalibracja FLATów DARKami ma sens, jeśli jesteśmy zmuszeni do naświetlania stosunkowo długich FLATów (np ponad 10s):
post-1260-0-98391100-1412522618_thumb.jp
 
Jeśli chcemy skalibrować FLATy DARKami a nie mamy akurat takich o właściwym czasie naświetlania należy wybrać DARKi o czasie naświetlania jak najbliższym czasowi naświetlania FLATów i zahaczyć Optimize w okienku powyżej. 
Następnie skalibrowane FLATy składamy w okienku z ustawieniami jak poniżej:
post-1260-0-07176800-1412522621_thumb.jp
 
Oprócz powyższych ustawień zmieniamy jeszcze ustawienia w sekcji Pixel Rejection (2):
post-1260-0-17532600-1412522623_thumb.jp
 
Po uruchomieniu procesu utworzy nam się klatka MASTER FLAT. W ten sposób mamy komplet master klatek kalibracyjnych które możemy następnie używać do kalibracji naszego materiału w programie PixInsight. W nastepnym poście już o samej kalibracji materiału, dlaczego kalibrowaliśmy klatki kalibracyjne i czy lepiej stosować MASTER DARKi czy usuwać hot piksele procesem Cosmetic Correction.
Ponieważ nasze master klatki kalibracyjne są skalibrowane, podczas kalibracji właściwego materiału w procesie Image Calibration nie będziemy zaznaczać pola Calibrate dla żadnego typu klatek.
Więcej na ten temat po angielsku na stronie http://www.pixinsight.com/tutorials/master-frames/index.html
 
  • Like 9
Odnośnik do odpowiedzi
Udostępnij na innych stronach
2. Kalibracja materiału - Image Calibration
 
Mając już zachomikowane master klatki kalibracyjne których użyjemy z naszym materiałem otwieramy w PixInsight proces Image Calibration, i wypełniamy go informacjami jak poniżej:
post-1260-0-01072500-1412580661_thumb.jp
 
W polu Target Frames są pliki z materiałem, które będziemy kalibrować. Poniżej w Output Files wybieramy folder do którego zostaną wgrane pliki po kalibracji. Możemy również wybrać czy i jak zmienić nazwę pliku po kalibracji. Jeszcze niżej wybieramy w odpowiednich polach nasze klatki kalibracyjne. Tak jak wcześniej opisałem, ponieważ klatki kalibracyjne są skalibrowane nie zaznaczamy opcji Calibrate w żadnej pozycji. Jeśli nasze klatki DARK zostały wykonane z innymi parametrami niż klatki z materiałem należy zaznaczyć opcję Optimize w sekcji Master Dark. Program wtedy spróbuje tak przeliczyć klatkę MASTER DARK, żeby dopasować ją do naszego materiału. Warunkiem prawidłowego zadziałania opcji Optimize jest dobrej jakości klatka MASTER BIAS, którą wcześniej kalibrowaliśmy DARKi. Tak czy inaczej warto sprawdzić w plikach wynikowych czy opcja Optimize zadziałała prawidłowo, czasami niestety tak nie jest.
 
Cosmetic Correction zamiast DARKów
Jak wiadomo każda kalibracja materiału wprowadza nam dodatkowy szum - jak się przyjrzymy master klatkom kalibracyjnym, to zauważymy że nie są one całkiem gładkie, ale zawierają też szum. Szum ten podczas kalibracji przeniesiony zostanie do naszego materiału. Im więcej mamy klatek kalibracyjnych, tym mniejszy szum będzie z nich dodany. Największym problemem są tutaj klatki DARK - bo zawierają dość sporo szumu a dodatkowo ich wykonanie jest czasochłonne. Jeśli nasza klatka MASTER DARK po kalibracji nie ma jakiś defektów w postaci pasów czy jaśniejszych obszarów, a zawiera jedynie stada hot pikseli, możemy materiał kalibrować bez użycia klatek MASTER DARK i usunąć hot piksele mapą. W PixInsight użyjemy do tego procesu Cosmetic Correction:
post-1260-0-99650600-1412580659_thumb.jp
 
Po skalibrowaniu surowych klatek przy użyciu jedynie MASTER BIAS i MASTER FLAT wrzucamy nasze wynikowe pliki do procesu i następnie mamy do wyboru trzy opcje usuwania hot pikseli: używając listy hot pikseli, automatycznej detekcji lub MASTER DARKa. Interesuje nas ta ostatnia opcja - pakujemy tutaj skalibrowaną BIASem klatkę DARK, lub MASTER DARK złożony z kilku klatek. Następnie zarówno w Hot Pixels jak i Cold Pixels Treshold zaznaczamy opcję Enable. W przypadku hot pikseli najwygodniej suwakiem obok pola Qty wybrać taką wartość, żeby pole Sigma poniżej suwaka miało wartość około 3. Jeśli się okaże że nie wszystkie hot piksele zostały usunięte, można suwak przesunąć bardziej w prawo tak, żeby ilość hot pikseli do usunięcia (Qty) się zwiększyła. Wartość Sigma wtedy będzie mniejsza.
W przypadku zimnych pikseli zazwyczaj wpisuję ręcznie w pole Qty wartość 20-50 i po kliknięciu Enter mogę sprawdzić wyliczone parametry dla wpisanej wartości. Po uruchomieniu procesu klatki zostaną oczyszczone z hot i cold pikseli i zapisane do nowych plików. Proces jest szybki i nie dodaje nam do materiału szumu pochodzącego z klatek DARK.
 
Dithering zamiast DARKów - o tym trochę więcej w następnej części tutoriala.
W kolejnej części wyrównywanie klatek i przygotowanie ich do składania. Również kilka słów o drizzlowaniu :)
 
 
  • Like 4
Odnośnik do odpowiedzi
Udostępnij na innych stronach
3. Wyrównywanie klatek (star alignment)
 
Tutaj nie ma wielkiej filozofii - używamy procesu Star Alignment z PixInsighta (w przypadku komet użyjemy innego narzędzia, ale to temat na osobny tutorial). W sekcji Target Images ładujemy nasz skalibrowany materiał. Następnie przeglądamy listę podglądając kolejne obrazy i jeśli znajdziemy taki według naszego uznania dobrej jakości użyjemy go jako Reference image (u góry okna procesowego Star Alignment). Obraz referencyjny możemy też oczywiście wybrać z pomocą bardziej 'naukowych' metod - określając na przykład zdjęcie z najlepszym FWHM i najbardziej okrągłymi gwiazdami. Jeśli nasz materiał jest dobrej jakości i dobrze skorygowany bez komy i lokalnych zniekształceń obrazu to będzie wszystko co trzeba zaznaczyć. Jeśli jednak mamy wątpliwości co do ugięć i innych defektów naszego zestawu, które mogą wpłynąć na jakość zdjęć, warto w polu Registration model wybrać opcję 2-D Surface Splines i zahaczyć pole Distortion correction. Również jeśli robimy zdjęcia obiektywami powodującymi różne aberracje i zniekształcenia warto te pola zaznaczyć.
post-1260-0-04882600-1412592558_thumb.jp
 
Możemy również poskładać nasz materiał z użyciem algorytmu drizzle. Jest to algorytm, który poprawi nam rozdzielczość niedopróbkowanych (undersampled) zdjęć. Przekładając to na język ludzi, jeśli nasz zestaw daje nam niewielką skalę obrazu (więcej niż 1.5-2"/px) albo FWHM gwiazd na zdjęciach wynosi poniżej 2px wtedy można spróbować użyć tego algorytmu. Stosować go będziemy w procesie składania obrazów, ale już na etapie wyrównania musimy zaznaczyć opcję Generate drizzle data jeśli chcemy go wykorzystać. Poniżej przykładowy stack M13 z wykorzystaniem drizzle (po lewej) i bez drizzle ale przeskalowany o 200% (po prawej). FWHM w czasie tej sesji wynosiło około 1.8"/px i różnica pomiędzy obrazami jest niewielka - ale jak wiadomo diabeł tkwi w szczegółach :) Im mniejsze FWHM tym drizzle powinno dać lepsze rezulataty.
post-1260-0-80590600-1412592556_thumb.jp
 
Przy okazji wyrównywania klatek warto wspomnieć o trzecim sposobie na pozbywanie się hot pikseli z materiału - to tak zwany dithering. Tak naprawdę dithering musimy włączyć w trakcie akwizycji materiału. Dithering polega na przesuwaniu kadru o kilka pikseli w losowym kierunku pomiędzy kolejnymi zdjęciami. Dzięki temu podczas wyrównywania klatek hot piksele (które są zawsze w tym samym miejscu na matrycy) trafiają w różne miejsca i są skutecznie usuwane przez algorytmy składające materiał, które mają za zadanie odrzucenie złych pikseli (pixel rejection).
 
 
 
W następnej części składanie materiału (stack) z użyciem drizzle i bez.
  • Like 1
Odnośnik do odpowiedzi
Udostępnij na innych stronach
4. Składanie materiału (z kamerki mono).
 
To już sama przyjemność po żmudnym procesie kalibracji i wyrównywania. Używamy procesu Image Integration do którego dodajemy wszystkie skalibrowane i wyrównane klatki które chcemy złożyć w jedno zdjęcie. Opcji jest w tym procesie całkiem sporo, generalnie nie walczyłem z nimi za bardzo i ustawiam je zazwyczaj jak na ekranie poniżej:
post-1260-0-82832900-1412617611_thumb.jp
 
Jeśli chcemy w następnym kroku złożyć materiał z wykorzystaniem algorytmu drizzle należy zaznaczyć tutaj opcję Generate drizzle data. Po zakończeniu procesu pojawią nam się trzy klatki - dwie z nich to będą odrzucone piksele (rejection_high i rejection_low), a trzecia to nasz złożony materiał. Na początku warto się przyjrzeć klatkom z odrzuconymi pikselami, zrobić na nich Autostretch (Ctrl + A) i jeśli odrzuconych pikseli jest zbyt wiele albo nie ma w ogóle można trochę podregulować parametry Sigma low i Sigma high w sekcji Pixel Rejection (2). Następnie możemy przystąpić do oceny złożonej klatki i jeśli jesteśmy zadowoleni to czeka nas zapewne jeszcze sporo czasu spędzonego na finalnej obróbce takiego zdjęcia :)
Jeśli chcemy to teraz jest też pora na złożenie zdjęcia przy użyciu algorytmu drizzle. W tym celu otwieramy proces Drizzle Integration i do okienka ładujemy nasze pliki .drz. Parametr Scale określa nam jak będzie przeskalowany wynikowy obraz w porównaniu z pojedynczymi klatkami. Domyślna wartość 2 spowoduje wygenerowanie złożonego zdjęcia o dwa razy większej rozdzielczości, niż klatki wejściowe.
post-1260-0-08069000-1412617596_thumb.jp
 
Sam proces trochę trwa, a po jego zakończeniu możemy podziwiać nasze zdjęcie w bardzo wysokiej rozdzielczości. Jak bardzo będziemy go podziwiać zależy od wielu czynników, ale głównie od własnego nastawienia :)
post-1260-0-56822300-1412618043_thumb.jp
 
Następne kroki możemy podzielić na takie które wykonujemy na surowym złożonym obrazie (operacje liniowe jak na przykład Deconvolution), albo już po wyciągnięciu. A niektóre procesy możemy wykonać przed i po wyciąganiu i daje to dobre wyniki (jak na przykład Color Calibration). Jak się poczuję w tym trochę mocniejszy to może napiszę jeszcze coś na temat PixInsighta :)
  • Like 1
Odnośnik do odpowiedzi
Udostępnij na innych stronach
  • 2 tygodnie później...
6. Dekonwolucja.
 
Ogólnie rzecz biorąc dekonwolucja to proces polegający na określeniu funkcji opisującej zakłócenia i następnie wykorzystaniu jej w celu oddzielenia zakłóceń od obrazu. W przypadku procesu dekonwolucji w PixInsight funkcja opisująca zakłócenia to PSF (Point Spread Function). Jest to funkcja opisująca odpowiedź systemu obrazowania na punktowe źródło światła (np. gwiazdy). Proces dekonwolucji należy przeprowadzić na obrazie w trybie liniowym - zanim przeprowadzimy na nim operacje krzywymi albo poziomami. Dekonwolucja nie naprawi nam obrazu, gdzie w każdym miejscu kadru gwiazdy mają inny kształt (na przykład na skutek złej kolimacji albo źle ustawionego/dobranego korektora, na skutek komy), ponieważ model PSF musi być taki sam dla całego kadru. Może nam natomiast w pewnym stopniu poprawić na przykład zdjęcie z 'pojechanymi' na skutek złego prowadzenia gwiazdami, ponieważ są one w całym kadrze jednakowo zniekształcone. Do procesu dekonwolucji w PixInsight będziemy potrzebowali trzy elementy:
  - model PSF naszego obrazu utworzony w procesie DynamicPSF
  - local deringing support, który będzie w naszym przypadku maską StarMask. Ma on na celu ograniczenie wzrostu artefaktów w procesie dekonwolucji w miejscach o szybkich zmianach jasności (gwiazdy, brzeg tarczy Księżyca lub planety)
  - maskę luminancji do ochrony obszarów, których nie chcemy przetwarzać dekonwolucją
 Do zbudowania modelu PSF naszego obrazu wykorzystamy proces DynamicPSF. Po otwarciu procesu, zaznaczamy na naszym zdjęciu obrazy gwiazd - o różnej jasności, ale nie przepalonych. Około 30-40 gwiazd pozwala na wyznaczenie dobrego modelu PSF. Po czym zaznaczamy wszystkie punkty na liście i klikamy w procesie na ikonkę aparatu fotograficznego i proces na podstawie zaznaczonych gwiazd generuje nam model PSF w postaci statystycznego obrazu gwiazdy. Zachowajmy ten obraz na później.
post-1260-0-24366100-1414163518_thumb.jp
 
Następnie musimy zbudować local deringing support (nie wiem jak to przetłumaczyć :) ). Nie jest to tak naprawdę maska, choć jest w ten sposób tworzona - obraz ten powinien zawierać jaśniejsze gwiazdy z naszego zdjęcia. Otwieramy proces StarMask i tak długo dobieramy parametry procesu, aż local deringing support będzie zawierał to co chcemy - czyli jaśniejsze gwiazdy ze zdjęcia. Jeśli w obrazie wciąż łapią się fragmenty mgławicy lub galaktyki możemy je usunąć ręcznie np procesem CloneStamp. Następnie zmieniamy nazwę wygenerowanego obrazu np na "LDS" i zachowujemy na później.
post-1260-0-34375400-1414139804_thumb.jp
 
Ostatni element naszej układanki to maska luminancji. Kopiujemy nasz obraz (chwytamy za pionową belkę z nazwą obrazu i przeciągamy ją w inne miejsce - powstaje kopia). Następnie aplikujemy na stałe STF - otwieramy proces HistogramTransformation, zaznaczamy kopię naszego obrazu i przenosimy proces STF (trójkątna ikonka) na dolną belkę procesu HistogramTransformation. W ten sposób kopiujemy ustawienia pomiędzy tymi dwoma procesami. Następnie aplikujemy proces HistogramTransformation na kopię obrazu.
post-1260-0-76162200-1414139803_thumb.jp
 
 I teraz po kolei:
  - aplikujemy maskę luminancji na nasz obraz: przeciągamy nazwę maski z pionowej belki na obszar pod nazwą obrazu. Pionowy pasek z nazwą zmienił kolor na brązowy, co oznacza że maska jest zaaplikowana. Teraz ukryjmy maskę (menu Mask -> Show mask) żeby nam nie przeszkadzała
post-1260-0-97745800-1414139491_thumb.jp
  - otwieramy proces Deconvolution i przechodzimy na zakładkę External PSF. Tam w polu View identifier wybieramy nasz model PSF gwiazdy
  - aktywujemy sekcję Deringing. W polu Global dark wpisujemy wartość naszego poziomu tła. Aktywujemy Local deringing i wybieramy nasz wygenerowany obraz local deringing support
post-1260-0-58176600-1414164191_thumb.jp
 
  - na obrazie definiujemy kilka podglądów. Proces dekonwolucji jest dosyć czasochłonny i parametry lepiej dopasowywać parametry dekonwolucji na podglądach (Preview)
W końcu możemy przystąpić do właściwej dekonwolucji :) Algorytm Richardson-Lucy, na początek 10-20 iteracji, przechodzimy na pierwszy Preview i przeciągamy trójkątną ikonkę procesu na podgląd. Po chwili możemy zobaczyć wyniki. Kombinacją klawiszy Ctrl + Shift + Z możemy na podglądzie sprawdzać różnicę pomiędzy widokiem przed i po zastosowaniu procesu. Ctrl + R powoduje nam zresetowanie podglądu do stanu jak w oryginalnym obrazie.
post-1260-0-82273200-1414164195_thumb.jp
 
Parametr Iterations możemy zwiększać, co powoduje nasilenie efektów dekonwolucji. Jednak powyżej pewnej wartości zaczynają się tworzyć artefakty. Zazwyczaj wartości pomiędzy 20 i 50 są wystarczające do uzyskania dobrego efektu.
Parametr Local deringing amount może być użyty do kontrolowania siły z jaką działa local deringing support.
W sekcji Wavelet regularization dostrajamy parametry odpowiedzialne za usuwanie szumu powstającego w procesie dekonwolucji. Trzeba tu znaleźć kompromis pomiędzy redukcją szumu i utratą szczegółów.
Efekt procesu dekonwolucji nie jest spektakularny, powoduje jedynie niewielką poprawę szczegółów w obrazie - ale są to szczegóły rzeczywiste, o ile tylko proces jest prawidłowo zaaplikowany. A jak wiadomo diabeł tkwi w szczegółach :) . Jeśli zauważymy, że dekonwolucja nie została np zastosowana do słabych fragmentów mgławicy, możemy przejść do maski luminancji i rozjaśnić te fragmenty. 
Jeśli już jesteśmy zadowoleni z efektów na jednym podglądzie, pora sprawdzić jak wygląda sprawa na pozostałych podglądach - na jasnych gwiazdach albo obszarach mgławicowych.
Poniżej przykład podglądów przed (po prawej) i po procesie dekonwolucji (po lewej). Klikając na podglądzie kombinację klawiszy ctrl + shift + z możemy najlepiej porównać efekty działania procesu. 
post-1260-0-72184100-1414164193_thumb.jp
 
Mocno przepalone gwiazdy zazwyczaj w procesie dekonwolucji są dość mocno degradowane. Jeśli komuś nie odpowiada takie działanie może na masce luminancji zamalować narzędziem CloneStamp taką gwiazdę na czarno, wówczas proces nie będzie na niej wykonywany. Poniżej obraz takiej gwiazdy, w której prawa część na masce została zamalowana. Możemy zobaczyć różnicę pomiędzy gwiazdą po dekonwolucji (jej lewa część) i jej oryginalnym obrazem (prawa część). 
post-1260-0-98000500-1414139493_thumb.jp
 
Po dokonaniu wszystkich poprawek i korekt możemy zastosować proces na całym obrazie. I jeśli jesteśmy zadowoleni z efektów przechodzimy do kolejnych procesów :) Następnym procesem może być pierwsza faza usuwania szumu z obrazu, o czym w następnej części :)
 
  • Like 7
Odnośnik do odpowiedzi
Udostępnij na innych stronach

7. Odszumianie.

 

Odszumianie w fazie liniowej (przed operacjami na krzywych i poziomach) - Multiscale Linear Transform.
Operację zaczynamy od opracowania maski. Przy usuwaniu szumu na obrazie liniowym siła redukcji szumu powinna być proporcjonalna do stosunku sygnału do szumu. Proces MLT umożliwia nam łatwe wyznaczenie liniowej maski. W tym celu otwieramy proces Multiscale Linear Transform i zaznaczamy sekcję Linear Mask, a w niej Preview mask, Inverted mask i następnie klikamy w dolnej belce przycisk Preview (podgląd). Do dyspozycji mamy tylko dwa parametry - suwakiem Amplification ustawiamy maskę tak, aby jasne obszary oryginalnego obrazu na masce były ciemne, a więc chronione przed redukcją szumu. Suwak Smoothness określa nam jak bardzo maska ma być wygładzona. Po ustawieniu wartości według naszego uznania wyłączamy podgląd i odhaczamy pole Preview mask.

post-1260-0-45611300-1414169686_thumb.jp

 

Następnie możemy się zabrać za redukcję szumów. Przy obrazie liniowym warto zwrócić uwagę, aby nie redukować szumu za mocno. Szumu nie można usunąć w całości - szum jest częścią danych obserwacyjnych. Jeśli chcemy poprawić stosunek sygnału do szumu w obrazie musimy zebrać więcej materiału.
W przypadku naszego zdjęcia wybraliśmy algorytm Multiscale linear transform i pięć warstw waveletów. Odpowiadają one odpowiednio skali 1, 2, 4, 8 i 16 pikseli. W każdej z warstw możemy włączyć redukcję szumu zaznaczając warstwę w okienku z listą warstw i następnie zaznaczając sekcję Noise reduction. Parametr amount w sekcji Noise reduction pozwala na regulację siły redukcji szumu w wybranej warstwie. Parametr threshold określa próg powyżej którego następuje redukcja szumu. Zwiększanie tego parametru powoduje, że więcej detali na obrazie jest traktowane jako szum. Parametrem iterations możemy kontrolować stopień redukcji szumu, szczególnie kiedy parametr amount jest w przedziale 0.5-0.8. 

post-1260-0-55225500-1414169688_thumb.jp

 

Szum na przykładzie powyżej w skali 1:1 jest bardzo 'gruby', ponieważ obraz powstał przy składaniu z algorytmem drizzle a więc w dwa razy większej skali, niż oryginalne zdjęcie z matrycy. W tym konkretnym przykładzie wavelety w skali 1px praktycznie w ogóle nie wpływają na obraz.
Podobnie jak w przypadku dekonwolucji, warto też testować ustawienia na podglądzie. Jeśli obraz ma bardzo niewielki szum, czasami wystarcza jedynie wybranie i zastosowanie redukcji szumów w trzech albo czterech warstwach.  I z mojego niewielkiego doświadczenia wynika, że trzeba tutaj dość sporo czasu poświęcić na takie dopracowanie ustawień, które zredukuje nam szum, a jednocześnie zachowa szczegóły obrazu i nie zmasakruje za bardzo tła :) Znacznie więcej czasu, niż w przypadku procesów takich jak ACDNR czy TGVDenoise - ale o nich innym razem :)

07 Odszumianie w fazie liniowej - Multiscale Linear Transform.pdf

  • Like 2
  • Thanks 1
Odnośnik do odpowiedzi
Udostępnij na innych stronach
8. Składanie zdjęcia LRGB - Channel Combination, LRGB Combination, Color Balance.
 
Złożenie zdjęcia kolorowego z monochromatycznych kanałów LRGB w PixInsight jest proste, choć wymaga więcej niż tylko jednego kliknięcia. Operację tą wykonujemy na zdjęciach w trybie liniowym. Pierwszy etap to wyrównanie wszystkich czterech klatek LRGB. Otwieramy te klatki i następnie otwieramy proces Star Alignment. Jako Reference image wybieramy nasz otwarty plik luminancji. Następnie przeciągamy po kolei trójkątną ikonkę procesu na klatki R, G i B. Zostaną utworzone nowe klatki wyrównane do obrazu luminancji.
post-1260-0-35225800-1414267965_thumb.jp
 
Drugi etap to połączenie klatek R, G i B w klatkę kolorową. Posłuży nam do tego proces Channel Combination. W polach RGB wybieramy odpowiednio nasze wyrównane klatki z kolorami i klikamy ikonkę Apply Global (ta z kółkiem). Po chwili mamy nasz złożony obraz kolorowy, który najprawdopodobniej jest super ciemny i nic w nim nie widać. Otwieramy więc proces STF, włączamy Track View i klikamy promieniotwórczą ikonkę (słynny Auto Stretch). Obraz się rozjaśni, ale na 90% będzie z mocną dominantą któregoś z kolorów. Żeby póki co nie raził nas za bardzo w oczy, wyłączamy opcję Link RGB Channels i klikamy Auto Stretch jeszcze raz. Tym razem powinien nam się pokazać w miarę prawidłowy, lekko kolorowy obraz.
post-1260-0-01888100-1414267967_thumb.jp
 
Trzeci etap to połączenie zdjęcia RGB z luminancją. Użyjemy do tego procesu LRGB Combination. Kanały L i RGB mamy już wyrównane, więc w polu L wybieramy nasz obraz z luminancją, a pola RGB odhaczamy. Następnie przeciągamy trójkątną ikonkę procesu na obraz RGB i po chwili pojawi nam się efekt działania programu. Możemy tutaj dobrać dwa parametry odpowiadające za intensywność luminancji (jasności) i chrominancji (koloru) w wynikowym obrazie. Jeśli otrzymany obraz LRGB jest zupełnie wyprany z kolorów możemy go wydobyć zmniejszając parametr Saturation - spowoduje to wzmocnienie koloru. Po zmianie parametru zanim zaaplikujemy proces ponownie na obraz RGB cofnijmy zmiany jakie na nim wykonaliśmy poprzednim procesem (ctrl + Z).
post-1260-0-88563000-1414267968_thumb.jp
 
Tak wygląda nasz surowy obraz LRGB. Żeby wydobyć z niego całe piękno, na początku wyrównamy tło i poprawimy balans kolorów. Jak wyrównać tło opisałem już w poradniku "PixInsight - podstawy postprocessingu" http://www.forumastronomiczne.pl/index.php?/topic/5642-pixinsight-podstawy-postprocessingu/ . Użyjemy narzędzia Dynamic Background Extraction.
Następnym krokiem będzie zbalansowanie kolorów. Kolory balansujemy teraz, kiedy obraz jest jeszcze w fazie liniowej, a tło jest wyrównane. Często okazuje się, że po wyciągnięciu obrazu konieczne jest jeszcze jedno zbalansowanie kolorów, ale o tym przy innej okazji.
Do zbalansowania kolorów użyjemy procesu Color Calibration. Otwieramy proces STF i zaznaczamy na nowo ikonę Link RGB Channels (po wykonaniu procesu Dynamic Background Extraction tło już powinno mieć prawidłowy kolor) i klikamy Auto Stretch
Kalibracja koloru w PixInsight polega na tym, że algorytm próbuje tak dopasować kolorystykę obrazu, aby suma wszystkich barw w zdjęciu dawała w wyniku kolor szary. Dlatego oprócz danych w zdjęciu program nie potrzebuje żadnych innych informacji. Kalibrację możemy przeprowadzić na kilka sposobów, opiszę tutaj sposób "na obszar", którym może być np galaktyka albo środek gromady kulistej. W procesie Color Calibration mamy dwie sekcje. W pierwszej z nich White Reference wybieramy podgląd, wg którego algorytm zbalansuje kolor w jasnych partiach obrazu. W naszym przypadku ląduje tam podgląd zawierający środek gromady gwiazd. Dodatkowo jako Lower limit ustawiamy wartość tuż ponad poziomem tła, dzięki czemu jedynie piksele zawierające obraz zostaną wzięte pod uwagę przy kalibracji. Zahaczamy też pole Output white reference mask, dzięki czemu zobaczymy jaki obszar został wzięty pod uwagę podczas obliczeń.
Druga sekcja nazywa się Background reference. Wybieramy w niej podgląd, który zawierać będzie próbkę naszego tła. Tutaj jako Upper limit wybieramy wartość nieco powyżej wartości tła tak, żeby algorytm załapał piksele z tła, ale nie te zawierające sygnał z gwiazd. Również zahaczamy tutaj opcję Output backgroung reference mask.
post-1260-0-87760700-1414267970_thumb.jp
 
Po czym klikamy ikonkę Apply (kwadrat). I najpierw analizujemy obie wygenerowane maski. Biały obszar na masce oznacza miejsca uwzględniane przez algorytm podczas obliczeń. 
post-1260-0-04718200-1414267974_thumb.jp
 
Maska tła (background) powinna być w większości biała i jedynie zawierać czarne punkty odpowiadające gwiazdom. Jeśli tak nie jest, należy dostroić parametr Upper limit w sekcji Background reference. Maska bieli (white) powinna mieć zaznaczone obszary w których występują gwiazdy - na podstawie tego sygnału zostanie przeprowadzona kalibracja koloru w obrazie. Jeśli maska bieli nie jest prawidłowa należy dostroić parametr Lower limit w sekcji White reference. Po zmianie parametrów zamykamy oba obrazy z maskami, cofamy zmianie na naszym obrazie LRGB (ctrl + Z) i ponownie aplikujemy proces kalibracji na obraz. Jeśli wygenerowane maski wyglądają już prawidłowo najprawdopodobniej również kalibracja się powiodła. Możemy otworzyć proces STF i nieco przyciemnić nasz obraz - zobaczymy wtedy wyraźniej jego barwy. Nasycenie wciąż będzie niewielkie, ale o bezbolesnym zwiększaniu saturacji w obrazie napiszę w następnej części.
Tak wygląda kalibracja "na obszar" - jako obszar może też służyć na przykład galaktyka. Kiedy w kadrze brakuje nam obiektów do kalibracji koloru "na obszar" możemy skalibrować kolor "na gwiazdy". Do tego celu w sumie potrzebujemy tylko jednego podglądu, który wybierzemy w obu sekcjach procesu Color Calibration. Ustawiamy podobnie jak poprzednio wszystkie parametry, a zaznaczamy jedynie dodatkowo pole Structure Detection. Spowoduje to wyszukanie i oznaczenie w masce bieli gwiazd. Structure detection działa zazwyczaj dobrze z domyślnymi ustawieniami. Po zaaplikowaniu procesu należy znowu przejrzeć wygenerowane maski, a następnie przyciemnić obraz i sprawdzić jak się prezentuje kolor.
post-1260-0-25148900-1414267977_thumb.jp
 
Proces Color Calibration w fazie liniowej najczęściej działa bardzo efektywnie. Czasami zdarzy się jednak, że po kalibracji kolor jest wyraźnie nieprawidłowy. Trzeba wtedy nieco pomanipulować obszarem w podglądach, zaznaczyć inne gwiazdy, wyciąć trochę bardziej albo mniej tło. A drobne poprawki w balansie kolorów najlepiej zostawić sobie na późniejsze etapy.
 
 

08 Składanie obrazu LRGB - Channel Combination, LRGB Combination, Color Balance.pdf

  • Like 3
Odnośnik do odpowiedzi
Udostępnij na innych stronach
9. PixInsight - wyciąganie obrazu, nasycenie kolorem. Histogram Transformation, Curves
 
Po procesach wykonywanych na obrazie liniowym pora na rozjaśnienie naszej pracy. W tym celu zastosować możemy kilka procesów. Pierwszy etap wyciągania szczegółów z cieni najczęściej w PixInsight wykonuje się procesem Histogram Transformation. Po włączeniu procesu Histogram Transformation klikamy w prawym dolnym rogu ikonki Track View i Reset View. Powiększając i przesuwając odpowiednio krzywą moglibyśmy zaaplikować naszemu zdjęciu właściwe ustawienia w jednym kroku, jednak sam najczęściej robię to w dwóch albo trzech krokach. W pierwszym nie korzystam z podglądu i przesuwam jedynie środkowy suwak tak, żeby histogram w górnej części odjechał wyraźnie od lewej krawędzi, ale jednocześnie żeby nie stał się zbyt szeroki i nie dotknął prawej krawędzi. Podczas pracy z procesem HT należy cały czas zwracać uwagę na pola Shadows i Highlights w których pokazywana jest informacja o obcinaniu danych w światłach i cieniach. Nie możemy dopuścić, żeby w którymkolwiek z tych pól wartość wskazywała na więcej niż niewielki ułamek procenta, bardzo niewielki. Czasami nasz obraz posiada ciemną ramkę, wtedy zanim przystąpimy do operacji procesem HT należy ramkę zlikwidować procesem DynamicCrop.
Po ustawieniu suwaków przeciągamy ikonę procesu (trójkącik) na nasz obraz aplikując w ten sposób naszą krzywą.
post-1260-0-24522000-1414327973_thumb.jp
 
Nasze zdjęcie nieco się rozjaśni. Teraz możemy jeszcze bardziej go wyciągnąć z pomocą podglądu (Preview). Resetujemy proces HT i włączamy podgląd (Real-Time preview) ikonką z kółkiem. Następnie znowu suwakami tak regulujemy obraz aż będzie dla nas akceptowalny, nie będzie za wiele pikseli utraconych w cieniach i światłach (Shadows, Highlights) i nie będzie za jasny. Kiedy efekt nas satysfakcjonuje zamykamy podgląd i przeciągamy ponownie ikonkę procesu na nasz obraz. Możemy go teraz powiększyć i sprawdzić czy przy okazji nie wyszło nam zbyt wiele szumu w tle albo nie pojawiły się inne artefakty. Jeśli tak, to cofamy zmiany (ctrl + Z) i ustawiamy transformację jeszcze raz.
post-1260-0-69102700-1414327975_thumb.jp
 
Jest jeszcze jedno narzędzie, którym możemy wykonywać transformacje jasności na obrazie - to krzywe, czyli w Pixie: Curves Transformation. Działa ono bardzo podobnie do krzywych w innych programach graficznych, choć jest bardziej rozbudowane. Po otwarciu procesu klikamy podobnie jak w HT ikonki Track View oraz Reset i włączamy Real-Time Preview. Następnie obserwując wykres i podgląd możemy jednocześnie modyfikować krzywą. Klikając na podgląd na histogramie pojawia się nam linia oznaczająca jasność klikniętego miejsca. Możemy np w tym miejscu zwiększyć nachylenie krzywej, co spowoduje zwiększenie kontrastu w miejscach o tej jasności.
post-1260-0-92668200-1414327978_thumb.jp
 
Proces Curves Transformation może pracować w wielu trybach i zmieniać jasność również poszczególnych kanałów, a także saturacji, czyli nasycenia kolorami. Ponieważ nasze zdjęcie po wyciągnięciu krzywymi jest najprawdopodobniej dość wyblakłe, postaramy się go nasycić kolorami. Tła obrazu raczej nie chcemy nasycać kolorem, ochronimy go więc maską. Klikamy na pasku zadań ikonkę Extraxt CIE L component, co wydzieli nam z naszego zdjęcia osobny obraz zawierający jedynie luminancję. Następnie przeciągniemy ten obraz na pasek boczny naszego zdjęcia, dzięki czemu zostanie on użyty jako maska.
post-1260-0-24706200-1414327981_thumb.jp
 
Maskę możemy teraz ukryć Mask -> Show Mask (ale nie wyłączyć). Otwieramy proces Curves Transformation, przełączamy go w trym S (nasycenie kolorów), włączamy Real-Time Preview i modyfikujemy krzywą tak, żeby wzrosło nam nasycenie kolorami zdjęcia.  Najlepiej tą czynność zrobić w kilku krokach, żeby nie przesadzić z nasyceniem.
post-1260-0-90595000-1414327982_thumb.jp
Nasycając kolorem w ten sposób mamy dużą kontrolę nad całym procesem. Po pierwsze chronimy maską tło przed niepotrzebnym nasycaniem kolorem szumu. Po drugie operując krzywą możemy słabiej nasycone fragmenty mocniej pokolorować, a mocno nasycone zostawić bez zmian, albo wręcz zmniejszyć nasycenie takich miejsc.
 
Po nasyceniu kolorem dobrze jest w procesie Histogram Transformation upewnić się, że początki histogramów każdego z kanałów zaczynają się w tym samym miejscu. Jeśli tak nie jest, możemy przełączając się pomiędzy kanałami RGB przesunąć wszystkie histogramy tak, żeby ich początki się pokrywały.
post-1260-0-28334700-1414327985_thumb.jp
 
W następnej części HDR Multiscale Transform, czyli wydobywanie struktur obrazu waveletami.
 
  • Like 5
Odnośnik do odpowiedzi
Udostępnij na innych stronach
Kompresja dynamiki obrazu - HDR Multiscale Transform, Local Histogram Equalization
 
Po wyciągnięciu obrazu procesami Histogram Transformation i/albo Curves czasami okazuje się, że nasze obiektu mają spory zakres dynamiki i utraciliśmy szczegóły w jasnych partiach obrazu. Dotyczyć to może np centrów galaktyk jak M31 czy M81, albo mgławicy M42, ale też wielu innych obiektów. Proces który nam może tutaj pomóc to HDR Multiscale Transform. HDR dlatego, że powoduje kompresję dynamiki obrazu. Multiscale dlatego, że robi to w kilku różnych skalach jednocześnie.
Operację tym procesem wykonujemy na obrazie nieliniowym - po wyciągnięciu krzywymi. Otwieramy proces HDRMT i mamy tutaj kilka ustawień do zaaplikowania (opiszę tylko te, które zmieniam):
 - Number of layers. Parametr ten określa na ilu warstwach będzie wykonywana kompresja dynamiki. Pierwsza warstwa operuje na skali obrazu 1 piksel, druga na 2, trzecia na 4 i tak dalej. Dla obrazów o typowej skali w pobliżu 2"/px domyślna wartość 6 warstw jest odpowiednia.
 - Number of iterations. To ilość iteracji wykonywania procesu. Im więcej iteracji tym wpływ procesu na obraz jest mocniejszy.
 - Scaling function to funkcja skalująca obraz. W 90% używam B3 Spline (5). Czasami, kiedy obraz ma jednie maleńkie detale warto wypróbować którąś z funkcji pracujących w mniejszej skali (3)
 - To lightness - w przypadku obrazów kolorowych kompresja będzie tylko w luminancji. Dla obrazów mono bez znaczenia.
 - Lightness mask. Raczej zaznaczamy, ponieważ nie musimy stosować kompresji dynamiki dla ciemnych partii obrazu.
Jeśli w trakcie aplikowania procesu powstają wokół gwiazd czarne obwódki możemy aktywować sekcję Deringing i tam parametrami postarać się je zlikwidować.
Na przykładowym zdjęciu galaktyki M81 możemy zobaczyć efekty działania procesu. W kolejnych podglądach widzimy obraz oryginalny i z zastosowaniem procesu HDRMT z kolejno 1, 2 i 4 iteracjami przy 6 warstwach.
post-1260-0-96286200-1414756458_thumb.jp
 
Najlepiej jak zwykle zrobić sobie podgląd interesującego fragmentu i testować różne ustawienia wedle własnych updodobań. Czasami po pierwszej aplikacji procesu HDRMT możemy spróbować kolejnej, tym razem z mniejszą ilością warstw. Poniżej na obrazie zastosowano najpierw proces HDMRT z 6 warstwami i 1 iteracją, a następnie w kolejnych podglądach mamy obraz po takiej aplikacji, a następnie po kolejnej aplikacji procesu z odpowiednio 5, 4, i 3 warstwami przy 1 iteracji.
post-1260-0-63464300-1414756459_thumb.jp
 
Proces HDMRT daje dobre rezultaty na dobrej jakości materiale o dobrym stosunku sygnału do szumu. Jeśli materiał nie jest najlepszy, podczas kompresji dynamiki najprawdopodobniej wyjdzie nam w obrazie szum. No i łatwo jest przesadzić z kompresją dynamiki :)
Obraz po procesie HDMRT jest czasami dość płaski i warto spróbować zastosować na nim proces Local Histogram Equalization. W procesie LHE zazwyczaj operuję tylko dwoma parametrami:
 - Contrast limit ustawiam w zakresie 1.5 - 2.5
 - Amount wedle uznania - to siła działania procesu :)
Poniżej przykładowy wynik działania procesu LHE wraz z ustawieniami
 post-1260-0-43749200-1414756460_thumb.jp
 
i dla porównania oryginalny obraz sprzed wszystkich operacji opisanych w tym tutorialu
post-1260-0-03568700-1414756692_thumb.jp 
 
 
Podczas aplikacji procesu LHE warto zwrócić uwagę na gwiazdy - jeśli LHE psuje nam obraz gwiazd trzeba je ochronić na obrazie maską (Star Mask) - oczywiście negatywową (Mask -> Invert mask), ponieważ chcemy ochronić gwiazdy. Zamiast LHE możemy do podniesienia ogólnego kontrastu użyć krzywych (Curves).
 
Więcej na te tematy (po angielsku niestety):
 
  • Like 3
Odnośnik do odpowiedzi
Udostępnij na innych stronach
  • 1 rok później...
Gość
Ten temat został zamknięty. Brak możliwości dodania odpowiedzi.
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.

© Robert Twarogal, forumastronomiczne.pl (2010-2020)