Dlaczego mój aparat tak wybacza przesadną ekspozycję podczas fotografowania w formacie RAW?

15

Przekonałem się, że mój aparat (Sony A99) bardzo wybacza pod względem prześwietlenia podczas fotografowania w formacie RAW. Rozumiem przez to, że mogę przeoczyć ekspozycję o mniej więcej stop, a kiedy wrócę do domu do przetwarzania końcowego, mogę niedoświetlić go z powrotem i odzyskać wszystkie szczegóły.

Oczywiście nie działałoby to w JPEG. Nie ma danych poza prawym skrajnym obszarem histogramu. Ale nie w przypadku RAW dane w magiczny sposób wracają do histogramu. Dlaczego? Czy kamera rezerwuje mi obszar histogramu na wypadek, gdy się pomylę? Jeśli tak, to czy nie oznacza to, że utracę pewną swobodę, jeśli będę strzelał poprawnie (idealnie naświetlony)?

Ponadto, dlaczego jest to dostępne tylko w przypadku prześwietlenia? Ale nie niedoświetlenie? Nie sądzę, że będę w stanie wyciągnąć detale ze zmiażdżonych czarnych obszarów.

erotsppa
źródło

Odpowiedzi:

30

Jest to jedna z korzyści, jakie daje strzelanie na surowo.

Nie można odzyskać szczegółów podświetlenia lub cienia z pliku JPEG, ponieważ ma 8 bitów głębi koloru na komponent koloru, 1 i jest odwzorowany tak, że najniższa wartość piksela jest interpretowana jako „czarna”, a najwyższa to „biała”. Po prostu nie ma nic poniżej czerni lub powyżej bieli. Twórcy JPEG zrobili to, ponieważ 8 bpc jest wystarczające dla ludzi, aby postrzegać prawidłowo naświetlony obraz w pełnym kolorze. 2 Ludzkie oko ma większy zakres dynamiczny niż pozwala JPEG, ale nie widzi tego pełnego zakresu przez cały czas. 3)

Większość kamer przystosowanych do przetwarzania w stanie surowym jest w stanie zarejestrować co najmniej 10 pb. 12 bpc + jest bardzo powszechne, a 14 bpc + jest możliwe dzięki najlepszym czujnikom. Sztuka polega na tym, jak wykorzystać ten dodatkowy zakres dynamiczny? Istnieje kilka przestrzeni projektowych, w których można znaleźć rozwiązanie:

  • Przechwytywanie i wyświetlanie w pełnym zakresie

    Miernik ekspozycji aparatu może próbować uchwycić tyle zakresu dynamiki, ile jest to fizycznie możliwe, i może próbować wyświetlić wszystko na małym ekranie z tyłu aparatu. Oprogramowanie do nieprzetworzonego przetwarzania może również próbować pokazać cały zakres dynamiczny w pliku obrazu na ekranie. Podczas zapisywania pliku JPEG kamera może po prostu mapować cały zakres dymamiczny w oczywisty sposób, skutecznie usuwając najmniej znaczące bity z czujnika.

    Nikt tego nie robi. 4

    Jeśli zrobisz zdjęcie podświetlanego krzaka o zachodzie słońca, aparat może spróbować uchwycić czarne mrówki w ciemnoszarym cieniu pod gęstym ciemnozielonym liściem, jednocześnie rejestrując szczegóły plam słonecznych na dysku słonecznym.

    Aparaty tego nie robią, ponieważ powstały obraz wyglądałby jak pasiaste błoto. Ludzkie oczy nie mają zakresu dynamiki, aby jednocześnie widzieć mrówki i plamy słoneczne, więc ludzkie mózgi nie oczekują takich rzeczy. 5 Nie mamy też technologii wyświetlania wystarczającej do odtworzenia fizycznie poprawnego obrazu. 6

  • Plasterek od środka

    Zamiast tego aparat może po prostu umieścić pojęcie „poprawnej” ekspozycji w środku zakresu i wyodrębnić 8-bitowy plik JPEG oraz podgląd ekranu ze środka zakresu. Jeśli Twój aparat ma czujnik 12-bitowy, może skutecznie dać ci zakres regulacji ekspozycji ± 2 stopnie, ponieważ każdy 1 bpc przekłada się na 1 stopnie, pod względem fotograficznym.

    Nie sądzę, że jest to całkowicie zła droga, ale nie dałaby najbardziej przyjemnych zdjęć. Firmy fotograficzne, które to zrobiły, nie sprzedawałyby wielu kamer.

  • Punkt czerni i krzywa gamma

    O wiele lepszym planem jest wybranie poziomu jasności na obrazie, aby nazwać go czarnym 7, a następnie wybrać krzywą gamma, aby ponownie przypisać nieprzetworzone dane czujnika do tego zakresu 8 bpc.

    Dzięki tej metodzie aparat i oprogramowanie do przetwarzania raw mogą pozostawić niektóre nieprzetworzone dane poza mapowanym zakresem, tak aby surowy plik obrazu kodował kolory bardziej czarne niż czarne i jaśniejsze niż białe. Jest to region, z którego pobierasz, gdy oprogramowanie do przetwarzania na surowo odzyskuje szczegóły świateł lub cieni.

Nie ma uniwersalnego autorytetu nakazującego, której metody użyć, a nawet gdyby tak było, istnieje wiele odmian istniejącej technologii i wciąż jest dużo miejsca na dalsze zmiany. Na przykład Lossy DNG używają przestrzeni kolorów 8 bpc, ale w nieliniowy sposób dane wejściowe obrazu są mapowane na wartości wyjściowe, nadal masz nieco zakresu dynamicznego do pracy poza normalnie widocznym zakresem wyświetlania.


Przypisy:

  1. 8 bpc jest również nazywane „24-bitowym” przez tych, którzy wolą brać pod uwagę wszystkie trzy kanały potrzebne do obrazowania w kolorze razem.

  2. W dowolnym momencie ludzkie oko ma mniejszy zakres dynamiki niż z 8 pb. Jedynym powodem, dla którego używamy nawet tak wielu bitów na kanał, jest to, że komputery lubią przetwarzać dane w 8-bitowych porcjach, podobnie jak wyświetlacze cyfrowe. Każda wartość formatu JPEG o 7 lub 9 bpc może zostać usunięta przez dziesięciolecia historycznej bezwładności popychającej nas do pozostania przy wartości 8.

  3. Jeśli twoje oczy mogłyby cały czas korzystać z pełnego zakresu dynamiki, nie będziesz musiał przez chwilę zezować, gdy wychodzisz na zewnątrz z słabo oświetlonego domu w południe lub gdy włączasz lampkę nocną, gdy budzisz się w ciemności.

  4. Nie mam wątpliwości, że próbowano tego kilka razy w laboratoriach badawczych. Nie zdziwiłbym się nawet, gdy dowiedziałem się, że oprogramowanie zostało udostępnione publicznie. Gdybym chciał być dokładnie poprawny, musiałbym przepisać to zdanie na coś mniej uderzającego, na przykład: „Nikt nie odniósł sukcesu komercyjnego w tworzeniu oprogramowania lub sprzętu prezentującego obrazy przy użyciu tej metody”.

  5. Jest to jeden z powodów, dla których trudno jest uzyskać dobry HDR .

  6. A gdybyśmy dysponowali taką technologią, nie byłoby możliwe patrzenie na słońce na reprodukowanym obrazie, tak samo jak podczas robienia zdjęcia.

  7. Lub biały, jeśli wolisz. To naprawdę nie ma znaczenia. Możesz pracować z matematyką w obu kierunkach.

Warren Young
źródło
1
Co więcej, Sony A99 ma czujnik Exmor, który jest zasadniczo pozbawiony ISO. Oznacza to, że pociągnięcie lub przesunięcie ekspozycji o kilka przystanków na słupku ma zasadniczo taki sam wpływ na hałas, jak zmiana ISO w aparacie o tę samą liczbę przystanków.
Chinmay Kanchi
3
Zaktualizowana odpowiedź jest znakomita!
Proszę przeczytać mój profil
Fascynujący. Jeśli sfotografuję RAW, a następnie zaimportuję do Lightroom, czy automatycznie wykorzystam pełne nieprzetworzone dane, kiedy wprowadzę poprawki za pomocą różnych suwaków, czy też muszę bardziej zaangażować się w zaawansowane opcje?
Drew
Czasami producent aparatu wymyśla jakiś dziwny nowy surowy model, który ma w sobie „funkcje”, które nie odpowiadają funkcjom oprogramowania do przetwarzania surowego innego producenta, zmuszając cię do korzystania z autorskiego oprogramowania do korzystania z nowej funkcji. Adobe dodał funkcje do Lightrooma i ACR, aby kilka razy znosić takie błędy w mojej wiedzy i prawdopodobnie zrobiłem wiele więcej, czego nie zauważyłem. Z reguły nie musisz czuć się wykluczony z niczego naprawdę ważnego za pomocą Lightroom.
Warren Young,
@AndrewHeath Tak. Kiedy fotografuję bez lampy błyskowej w pomieszczeniu za pomocą Canona, często mam białe okna na początkowym domyślnym obrazie iw wersji JPEG, ale potem przesuwam „podświetlenia” w dół i nagle widzę wszystkie zielenie w ogrodzie na zewnątrz i błękitne niebo.
Michael Nielsen
5

Histogram wyświetlany przez aparat jest oparty na wewnętrznym podglądzie JPEG wygenerowanym podczas zapisywania pliku RAW. W podglądzie, dane jest zniknął i nieodwracalny. Jednak informacje nadal znajdują się w pliku RAW.

Większość kamer używa w sąsiedztwie od 12 do 14 bitów na kanał koloru, ale standard JPEG dopuszcza tylko 8 bitów na kanał. Gdy wyświetlasz plik RAW na komputerze, wyświetlanie jest również ograniczone do 8 bitów na kanał koloru. To samo dzieje się na komputerze, co dzieje się na ekranie podglądu aparatu i na histogramie. Zmieniając ekspozycję podczas przetwarzania końcowego, zmieniasz, które osiem z 12-14 bitów na kanał koloru są faktycznie wyświetlane na monitorze. Dostosowując krzywe tonalne, możesz nawet wycisnąć więcej tego zakresu dynamicznego do zaledwie 8 bitów.

Michael C.
źródło
3

Zakres dynamiczny to różnica między najciemniejszą i najjaśniejszą częścią obrazu. Pliki JPEG muszą reprezentować każdy kolor za pomocą 8 bitów informacji, przy czym jako surowe można użyć większej liczby bitów (a tym samym więcej możliwych wartości).

Istnieją dwie opcje, w jaki sposób kamera może rozwiązać różnicę w głębokości bitów. Albo może reprezentować mniejszą zmianę dla każdej wartości (mniejsze kroki) lub może reprezentować szerszy zakres dynamiczny. Może także zrobić jakąś kombinację pomiędzy.

W przypadku kamer, które mają szeroki zakres dynamiczny dla czujnika, JPEG będzie zwykle skupiał się tylko na części zakresu dynamicznego, aby zapewnić płynne gradienty z możliwą ograniczoną liczbą wartości. Surowy plik obejmie jednak pełny zakres dynamiczny czujnika, a tym samym może przechowywać informacje, które w innym przypadku byłyby poza zakresem dla JPEG (ponieważ przekracza on maksymalną wartość 8 bitów).

Ten dodatkowy zapas w pliku RAW pozwala przesunąć punkty w dół do zakresu, który może być wyrażony przez JPEG, który ręcznie tworzysz później za pomocą narzędzia RAW.

AJ Henderson
źródło
0

Dolna linia? Pytasz o wykorzystanie pełnego przydziału zakresu dynamicznego aparatu, który w rzeczywistości przekracza sugerowany przez szerokość ramki histogramu A99 dostosowanej do formatu JPEG.

Oto samouczek opublikowany na UglyHedgehog, który rozwiązuje ten konkretny problem.

http://www.uglyhedgehog.com/t-372364-1.html

Dave
źródło