Czy RAW w ekspozycji w nawiasach (głównie) są zbędne?

11

Kiedy mój aparat wykonuje zdjęcia w formacie RAW + JPEG z ekspozycją w nawiasach (-1 / 0 / + 1 EV), wydaje mi się, że jedyną różnicą, która może logicznie istnieć między zdjęciami RAW, jest czas otwarcia migawki.

Jeśli założę, że domyślna ekspozycja 0 EV ma rozsądną ekspozycję, czy to oznacza, że ​​RAW -1 i +1 są mniej lub bardziej zbędne? Czy też naprawdę mają znaczną ilość dodatkowych informacji, które byłyby konieczne, jeśli (powiedzmy) chciałbym stworzyć obrazy HDR w drodze, lub zrobić coś innego niż zwykłe?

(Zasadniczo próbuję sprawdzić, czy naprawdę powinienem przechowywać wszystkie 3 pliki RAW, ponieważ są one tak ogromne).

użytkownik541686
źródło
1
Można powiedzieć, że po zakończeniu przetwarzania plików RAW nie ma sensu ich zatrzymywać.
Agent_L,
4
@Agent_L zdefiniuj „kiedy skończysz” ...
Chris H
2
@ChrisH Dokładnie :)
Agent_L

Odpowiedzi:

14

Punktem braketingu w kontekście, który opisałeś, jest uzyskanie wyższego zakresu dynamicznego niż ten, który można uzyskać z pojedynczym obrazem, ponieważ chcesz lub musisz to zrobić .

Nawet jeśli RAW ma więcej bitów na kanał niż JPEG, nadal ma ograniczony zakres dynamiki. Dlatego w zależności od sceny, którą masz przed sobą, będziesz chciał lub musisz robić zdjęcia z różną ekspozycją. Co więcej, nie chodzi tylko o RAW vs JPEG, każdy model aparatu ma własne możliwości rejestrowania danego zakresu dynamicznego. Zasadniczo, jeśli histogram pokazuje „wypalone” silne światło lub całkowicie czarne cienie, przy jednym zdjęciu brakuje informacji.

Jeśli uważasz, że zdjęcie 0EV ma rozsądną ekspozycję, być może nie potrzebujesz HDR w pierwszej kolejności (możesz nawet uzyskać wynik HDR z jednego pliku RAW).

Oczywiście, różnica EV między dwoma ujęciami będzie funkcją zakresu dynamicznego, który chcesz uchwycić, a zatem funkcją sceny. I tak , w tym przypadku niektóre informacje i tak będą zbędne, ponieważ to, co znajduje się w środkowym zakresie zdjęcia A (powiedzmy 0 EV), będzie również obecne w B (powiedzmy -1EV) i C (+ 1EV). Aby to ograniczyć, musisz ustawić parametr braketingu na odpowiednie wartości.

Jeśli chodzi o liczbę potrzebnych zdjęć i różnicę EV między każdym ujęciem, wiele osób ma wiele porad. To, co działa jako „standard” (powiedzmy różnicę 1 2/3 lub 2 EV dla 7 zdjęć dla danej sceny), może być nieodpowiednie dla kogoś innego.

Chciałbym dodać, że szybkość migawki nie jest jedyną zmienną. Niektóre aparaty mogą zmieniać czułość ISO lub wartość przysłony w celu uzyskania braketingu (użyj braketingu przysłony tylko wtedy, gdy wiesz, co robi).

Kartick Vaddadi przedstawił przykład ilustrujący, w jaki sposób informacje są rzeczywiście zbędne, zobacz: https://photo.stackexchange.com/a/67276/26456

Olivier
źródło
3
Nie zmieniaj przysłony dla braketingu HDR. Nie chcesz różnych DOF między zdjęciami.
tys
W rzeczywistości nie chcesz zmieniać przysłony dla braketingu HDR. Jeśli tak, to dla braketingu DOF ( photo.stackexchange.com/questions/12553/... )
Olivier,
8

Braketing jest przydatny, gdy scena przekracza zakres dynamiczny kamery. To jest to. Nie ma odpowiedzi, która ma zastosowanie przez cały czas, ponieważ zależy to od sceny.

Itai
źródło
6

Jeśli założę, że domyślna ekspozycja 0 EV ma rozsądną ekspozycję, czy to oznacza, że ​​RAW -1 i +1 są mniej lub bardziej zbędne?

Jeśli ekspozycja jest rozsądna zarówno w cieniach, jak i światłach - to znaczy, że scena ma zakres dynamiczny, który z łatwością mieści się w zakresie tego, co aparat może zarejestrować - to tak, masz rację. Bracketing ekspozycji niewiele dla ciebie robi.

Nawet jeśli ekspozycja jest tylko jeden lub dwa stopnie na każdym końcu, często możesz wydobyć wystarczającą ilość z jednego surowca, aby stworzyć przyzwoity kompozyt obejmujący pełny zakres dynamiki.

Jeśli jednak scena ma jeszcze większy zakres dynamiczny, zastosowanie większej liczby ekspozycji pomoże. Jeśli są zarówno bardzo jasne światła, jak i bardzo głębokie cienie, może to przekroczyć możliwości pojedynczego pliku RAW. W takim przypadku prawdopodobnie chcesz uchwycić jeszcze szerszy zakres, wykonując jedno centralne zdjęcie, a następnie jedno, aby zakryć światła, a drugie cienie. Możesz nawet wziąć wielokrotności, uzyskując zarówno skrajności, jak i więcej w środku.

Przed połączeniem wielu zdjęć w HDR stało się popularne, głównym powodem, dla którego brakowało, kiedy nie byłeś pewien, jaki wybór ekspozycji chcesz wybrać. Ma to większy sens w przypadku filmu - w przypadku technologii cyfrowej zwykle wystarczy obejrzeć histogram lub zrobić zdjęcie próbne i przejrzeć recenzję.

Proszę przeczytać mój profil
źródło
5

Przekonałem się, że braketing w zakresie ± 1 lub ± 2 EV nie pomaga, ale braketing w ± 3 EV tak.

Zrobiłem następujący eksperyment:

Najpierw wybrałem scenę o wysokim zakresie dynamicznym, bez bezpośredniego fotografowania słońca. Tutaj słońce znajdowało się częściowo za cienkimi chmurami, a gołym okiem było niewygodnie jasne. Innymi słowy, było znacznie jaśniej, niż wygląda na poniższych zdjęciach.

W przypadku tej sceny zrobiłem trzy zdjęcia z przedziałem 1EV i wykonałem fuzję ekspozycji w Photomatix:

wprowadź opis zdjęcia tutaj

Następnie wyrzuciłem oryginały -1 i +1 EV i zsyntetyzowałem je z wersji 0EV w Lightroom. Następnie połączyłem wszystkie trzy zdjęcia:

wprowadź opis zdjęcia tutaj

Nie zauważam żadnej różnicy między nimi.

Powtórzyłem ten eksperyment dla ± 2 EV, najpierw z braketingiem:

wprowadź opis zdjęcia tutaj

A potem bez:

wprowadź opis zdjęcia tutaj

Znowu nie ma różnicy.

Następnie powtórzyłem test z ± 3 EV, z braketingiem:

wprowadź opis zdjęcia tutaj

A potem bez:

wprowadź opis zdjęcia tutaj

Otwórz zdjęcia w osobnych zakładkach, aby wyświetlić je w pełnym rozmiarze.

Tym razem jest wyraźna różnica, zarówno w wyłączonych kolorach, jak iw wersji syntezowanej, w słabej tęczy widocznej na ścianie po prawej stronie, od góry do dołu.

Wniosek, który wyciągnąłem z tego ćwiczenia, jest taki, że nawet dla scen o dużym zakresie dynamicznym braketing ekspozycji o ± 1 lub ± 2 EV nie daje lepszego zdjęcia. Wszystko, co robi, to marnowanie czasu i zwiększanie złożoności, np. Śledzenie kolejnych zdjęć, bez żadnych korzyści. Jeśli nawiasuję, nawiasuję o ± 3 EV.

To jest na Sony NEX-5R; wydajność może się różnić w zależności od aparatu.

Vaddadi Kartick
źródło
+1 Uwielbiam to! Gdybyś mógł zamieścić inne, które byłyby niesamowite. Dziękujemy za poświęcenie czasu na zrobienie tego!
user541686,
Gotowe. Przepisałem też całą odpowiedź, aby była jaśniejsza.
Vaddadi Kartick
Tylko osobiste wrażenie - nie krytyka wyrażonej opinii: spojrzenie na wersję +/- 1EV przy 100% uprawach pokazuje, że w wersji z pojedynczą ekspozycją jest znacznie więcej hałasu niż w wersji z 3 ekspozycjami. Jest to widoczne na dużej części obrazu, ale szczególnie w bardziej zacienionych obszarach, np. Na podstawie jednostki klimatyzacyjnej. Podczas gdy ten poziom degradacji szumu prawdopodobnie nie zostałby zauważony przez większość np. Przy typowych rozdzielczościach ekranu, podejrzewam, że zacząłby się wyświetlać przy poziomach 4K i np. Na wydrukach A4. | Może to zabrzmieć jak klasyczny „podglądacz pikseli”, ale na własne potrzeby ....
Russell McMahon
.... mniej dbam o drobne szczegóły niż o to, czy podoba mi się wynik i myślę, że na zdjęciach, które miały być „najwyższej jakości”, zauważyłem ten poziom hałasu - nawet jeśli tak naprawdę nie „dbałbym” o tym w wielu przypadkach. tzn. myślę, że ci, którzy wydają się dbać o poziom hałasu znacznie bardziej niż ja często, uważają różnice za znaczące.
Russell McMahon,
Widziałem hałas, ale dopiero po tym, jak go wskazałeś, i tylko na 100%. Kryterium, którego używam, jest to, czy widzę to na pełnym ekranie na moim 30-calowym monitorze (w trybie wypełnienia, nie pasuje, ponieważ ten pierwszy powiększa nieco więcej), a ja nie mogłem. Mogę zmienić swój widok, kiedy dostanę monitor 4k, ale na razie cieszę się z mojej opinii, że braketing ekspozycji nie jest potrzebny przy ± 1 lub ± 2 EV na NEX-5R. W każdym razie dziękuję za Twój wkład.
Vaddadi Kartick
4

Pozwól mi dodać problem hałasu do już udzielonych odpowiedzi. Załóżmy, że ekspozycja 0 EV jest wystarczająco dobra, cienie nie są niedoświetlone, jasne obszary nie są prześwietlone, to nadal jest tak, że użycie ekspozycji +1 EV (dla części, które nie są prześwietlone) da obraz o niższym szumie . Wydłużając czas ekspozycji, a następnie dostosowując jasność do pożądanego poziomu, eliminujesz hałas poprzez uśrednianie. Ponadto w przypadku obrazu HDR skompilowanego z różnych ekspozycji, nie jest tak, że każdy piksel pochodzi z tylko jednej ekspozycji; zazwyczaj wszystkie ekspozycje przyczyniają się do pewnego stopnia. Zatem w przypadku 3 różnych ekspozycji dochodzi również do uśrednienia, co dodatkowo zmniejsza hałas.

Hrabia Iblis
źródło
+1, choć wyobrażam sobie, że +1 EV jest również bardziej rozmazany, prawda? tzn. niekoniecznie zdecydowanie lepiej, nawet jeśli na żadnym ze zdjęć cienie i światła nie są prześwietlone lub niedoświetlone?
user541686,
1
Dlaczego ekspozycja +1 niekoniecznie byłaby bardziej rozmyta?
Michael C,
3
@AbdulNQuraishi: Hałas jest głównie problemem w ciemniejszych częściach obrazu. Zmniejszenie ekspozycji o jeden stopień F spowoduje podwojenie hałasu, a zmniejszenie o dwa stopnie F zwiększy go czterokrotnie. Z drugiej strony, jeśli wykonamy sekwencję zdjęć -2 / 0 / + 2, zwykle maskujemy ciemniejsze części ekspozycji -2, więc ilość szumu w tych częściach nie będzie miała znaczenia . Jedynymi częściami obrazu -2, które prawdopodobnie wykorzystalibyśmy, byłyby te, które są narażone na co najmniej 10% maksimum, i są to części, które będą miały najmniejszy hałas.
supercat,
1
@AbdulNQuraishi: Podczas korzystania ze skali liniowej różnica między jasnością 4% i 2% będzie ogólnie znacznie bardziej widoczna niż różnica między jasnością 97% a jasnością 99%. Jeśli jedna część obrazu ma mieć jasność 3%, a druga 98%, a obie mają ten sam szum o wartości +/- 1%, szum ten spowoduje, że niektóre piksele w obszarze „3%” będą miały dwa razy jaśniejszy niż inne, ale w obszarze „98%” najjaśniejsze piksele będą mniej niż 2,07% jaśniejsze niż najciemniejsze.
supercat,
1
@AbdulNQuraishi: Innym sposobem patrzenia na rzeczy jest stwierdzenie, że jeśli musisz zwiększyć widoczną ekspozycję po zrobieniu zdjęcia, zwiększy to wszelkie szumy uchwycone za jego pomocą; jeśli zmniejszysz ekspozycję po zrobieniu zdjęcia, zmniejszy to szum, ale nie uratuje rozjaśnienia, które zostały zdmuchnięte podczas robienia zdjęcia. Celem najjaśniejszych i najciemniejszych zdjęć nie jest samodzielne użycie, ale zamiast tego, aby zapewnić, że jeśli nic nie
poruszy
3

To zależy. Jeśli cały zakres dynamiczny sceny można uchwycić podczas pojedynczej ekspozycji, jest on zbędny. Jeśli cały zakres dynamiczny sceny przekracza pojemność pojedynczej ekspozycji, a chcesz uchwycić cały ten zakres dynamiczny, musisz ustawić zakres.

Pamiętaj, że pojedynczy 14-bitowy nieprzetworzony plik może zawierać tyle samo informacji o zakresie dynamicznym, co 8-bitowa seria JPEG -3, 0, +3! Tak więc seria nieobrobionych ujęć z przedziałami -1, 0, +1 obejmuje wiele nakładek, nawet w przypadku aparatów cyfrowych, które mogą zarejestrować tylko 10–11 stopni zakresu dynamicznego. Najlepsze kamery dzisiaj mogą osiągać 13-14 stopów przy podstawowym ISO. W miarę zwiększania ISO DR każdej kamery zostanie zmniejszone. W przypadku sceny o bardzo szerokim zakresie dynamicznym nadal można uzyskać wszystkie półcienie bez żadnych przerw, strzelając do serii -2, 0, +2 lub nawet -3, 0, +3, jeśli fotografujesz z dość niskim ISO (około ISO 800 lub mniej) i odpowiednio wyśrodkuj podstawową wartość ekspozycji.

Michael C.
źródło
+1 wspaniałe punkty na temat DR, a także wpływu ISO na to, dzięki!
user541686,
1

Obrazy RAW nie zawierają wszystkich informacji, które można odzyskać ze sceny. Zawierają po prostu więcej informacji niż obrazy JPEG. Kiedy fotograf decyduje się na zrobienie zdjęć w ramkę i połączenie ich później, zwykle dzieje się tak, ponieważ jasne i ciemne obszary ich sceny są wystarczająco różne, że aparat nie jest w stanie wykryć różnic w ciemnych obszarach, a jednocześnie wykrywa różnice w jasnym obszary. Aby wykryć różnice w ciemnych obszarach, jasne obszary nasycą strony. Dzięki braketingowi zdjęć aparat wykrywa jeden szczegół w ciemnych obszarach lub więcej szczegółów w jasnych obszarach, dlatego informacje zawarte na trzech fotografiach są różne, czasem drastycznie.

Jeśli spróbujesz utworzyć ten sam obraz z plików JPEG, możliwe, że będzie ich więcej ze względu na zmniejszony zakres dynamiczny.

przeklęte prawdy
źródło
0

Może się okazać, że chcesz wziąć +1 lub -1 z RAW i nie będziesz wiedział, dopóki nie usiądziesz, aby nad tym popracować. Dzieje się tak nawet w przypadku ekspozycji z bracketingiem.

Jeśli coś przesuwa się między ekspozycjami, możesz uzyskać dziwne efekty przy odpowiednim HDR. Nawet jeśli uważasz, że wszystko jest jeszcze najlżejsze, może to zrobić lub solidny statyw na mniej niż solidnej podłodze, ktoś przesuwa ciężar. Może pojawić się nawet ruch subpikseli. A co powiesz na błąd przelatujący przez scenę?

Nie zapominaj, że możesz wziąć swój surowy +1 i uzyskać więcej szczegółów cienia niż mógłbyś z +1 jpg lub surowego importowanego przy użyciu ustawień domyślnych.

Wreszcie, surowe nie są aż tak duże, niezupełnie. Mają 10s MB, gdy dyski mają 100s GB. Zawsze możesz je skompresować również po zakończeniu edycji (robiłem to z 12-bitowymi plikami z naukowego aparatu, aby uzyskać dobry efekt, nie próbowałem z moimi .cr2s). Pracuję na zasadzie „usuń tylko śmieci”.

Chris H.
źródło
Zgadzam się; nawiasy nie zawsze służą do scalania. I może pomóc w uboju, aby móc spojrzeć na nawias i sprawdzić, czy w tym cieniu jest coś, czym można się martwić, bez konieczności przetwarzania RAW, aby to zobaczyć.
211Oakland