Czy fotografowanie w niższej rozdzielczości RAW przy użyciu aparatu z czujnikiem przycinania naśladuje cechy pełnoklatkowych aparatów?

12

Nie mówię o zmianach ogniskowej.

Czytałem wiele postów, które mówią, że w pełnoklatkowej kamerze gęstość pikseli jest mniejsza w porównaniu do kamer z czujnikiem przycinania, więc przechwytuje więcej światła, a zatem ma lepszą wydajność ISO i większy zakres dynamiczny. Więc jeśli zmienię aparat z czujnikiem przycinania, aby fotografować w niższej rozdzielczości, czy będzie to równoznaczne z lepszą gęstością pikseli i naśladuje wydajność pełnej klatki (lub średniego formatu), czy zawsze będzie strzelać z maksymalną rozdzielczością i zmniejszeniem rozmiaru?

- EDYCJA: 1--
Mam Canon 60D i mam 3 opcje rozmiarów zdjęć RAW (RAW, M-RAW i S-RAW). Jeśli RAW to tylko zrzut z czujników aparatu, to w jaki sposób mogą mieć 3 różne rozmiary? Czy aparat również zmniejsza obrazy RAW?

Viv
źródło
2
Vivek - przeczytaj to pytanie: photo.stackexchange.com/q/3419/1024 . Według @whuber (i artykułu, do którego prowadzi link), mniejsze RAW są rzeczywiście pewnego rodzaju agregacją poszczególnych zmysłów, jak to, co Stan opisuje w swojej odpowiedzi, tylko, że odbywa się to raczej miękko niż sprzętowo.
ysap
(Strona ysap prowadzi do części mraw / sraw pytania.)
Proszę przeczytać mój profil
Prześlę dokument od ysapu i skomentuję go.
Viv

Odpowiedzi:

7

Biorąc pod uwagę, że masz Canona, niższe tryby RAW, mRAW i sRAW, DO INDEED UTILIZE WSZYSTKICH dostępnych pikseli czujnika, aby uzyskać bogatszy wynik bez potrzeby interpolacji Bayera. Rzeczywisty format wyjściowy, mimo że jest nadal zawarty w pliku obrazu RAW Canon .cr2, jest zakodowany w formacie Y'CbCr, podobnym do wielu rozwijanych formatów wideo. Przechowuje informacje o luminancji dla każdego PEŁNEGO piksela (2x2 czterokrotnie 1 czerwony, 1 niebieski i 2 zielone piksele), a każdy kanał chrominancji pochodzi z danych o połowie piksela (1x2 para 1 czerwony + 1 zielony lub 1 niebieski + 1 zielony) .

Nie jestem do końca pewien, jakie specyficzne różnice w poziomie odczytu i kodowania sprzętowego niskiego poziomu między mRAW i sRAW są, jednak ogólnie mówiąc, im mniejszy format wyjściowy, tym więcej informacji wejściowych pikseli czujnika można użyć dla każdego piksela wyjściowego. Niewielka ilość interpolacji w m / sRAW jest dyskusyjna, ponieważ oba formaty interpolują znacznie mniej niż natywny RAW. Należy również zauważyć, że ani mRAW, ani sRAW nie są rzeczywistymi formatami „RAW” w normalnym sensie ... dane czujnika są przetwarzane i konwertowane na coś innego, zanim zostaną zapisane w pliku .cr2.

Aby uzyskać więcej informacji na temat formatów pochodnych YUV i Canon sRAW, zobacz moją odpowiedź tutaj: Dlaczego przestrzeń kolorów xvYCC nie jest wykorzystywana do robienia zdjęć?

Z „Zrozumienia, co jest przechowywane w pliku .CR2 Canon RAW”:

Format sRaw (dla „małego RAW”) został wprowadzony wraz z 1D Mark III w 2007 roku. Jest to mniejsza wersja obrazu RAW.

Dla 1D Mark III, a następnie 1Ds Mark III i 40D (wszystkie z Digic III), rozmiar sRaw wynosi dokładnie 1/4 (jedna czwarta) rozmiaru RAW. Możemy zatem przypuszczać, że każda grupa 4 „pikseli czujnikowych” jest streszczona w 1 „piksel” dla sRaw.

W przypadku 50D i 5D Mark II (z układem Digic IV) RAW w rozmiarze 1/4 jest nadal obecny (sRaw2), a także pojawia się RAW połowy wielkości: sRaw1. W przypadku 7D surowiec o połówkowej wielkości nazywany jest mraw (takie samo kodowanie jak sraw1), 1/4-szy raw nazywany jest sraw (podobnie jak sraw2).

Bezstratny JPEG JREG jest zawsze kodowany za pomocą 3 kolorów (nb_comp) i 15 bitów.

Kod JPEG Dcraw został po raz pierwszy zmodyfikowany (8.79) do obsługi sRaw z powodu wartości h = 2 pierwszego składnika (szare tło w tabeli). Normalne RAW mają zawsze h = 1. Począwszy od 50D, mamy v = 2 zamiast v = 1 (pomarańczowy w tabeli). Dcraw 8.89 jest pierwszą wersją do obsługi tego i sraw1 z 50d i 5D Mark II.

„h” oznacza poziomy współczynnik próbkowania, a „v” pionowy współczynnik próbkowania. Określa, ile jednostek danych poziomych / pionowych jest zakodowanych w każdym MCU (minimalna jednostka kodowana). Patrz T-81, strona 36.

3.2.1 Format sRaw i sRaw2

h = 2 oznacza, że ​​zdekompresowane dane będą zawierać 2 wartości dla pierwszego składnika, 1 dla kolumny n i 1 dla kolumny n + 1. Z 2 innymi składnikami, zdekompresowane sraw i sraw2 (które wszystkie mają h = 2 i v = 1), zawsze mają 4 podstawowe wartości

[y1 y2 xz] [y1 y2 xz] [y1 y2 xz] ...
(y1 i y2 dla pierwszego komponentu)

Każdy „piksel” na obrazach sRAW i mRAW zawiera cztery składniki ... podzielony składnik Y '(y1 i y2), a także x (Chrominance Blue) i z (Chrominance Red). Wszystkie cztery elementy (z perspektywy obrazu 1/2, sRAW1 / mRAW) mają wysokość kolumny 2 (h) i szerokość 1 (v). Wskazuje to, że wartość luminancji (Y ') składa się z PEŁNEGO kwadratu 2x2 pikseli ... lub dwóch kolumn 2x1 pikseli przechowywanych w y1 i y2.

Poniższe odnośniki nie wydają się wyraźnie tego określać, więc spekuluję tutaj nieco, jednak w przypadku sRAW2 (1/4 raw) uważam, że informacje o luminancji uzyskano by z bloku pikseli 4x4, gdzie h = 4 i v = 2. Kodowanie chrominancji stałoby się bardziej skomplikowane na obrazie w rozmiarze 1/4, ponieważ matryca filtrów koloru Bayera na czujniku nie jest ułożona w czyste czerwone i niebieskie kolumny. Nie jestem pewien, czy zmienne kolumny o wysokości 2x1 są przetwarzane dla każdego składnika Cr i Cb, czy też wykonywana jest inna forma interpolacji. Jedno jest pewne ... interpolacja danych źródłowych jest zawsze większa niż danych wyjściowych i, o ile wiem, nie dochodzi do nakładania się (jak w normalnej interpolacji Bayera).

Wreszcie, sRAW1 / mRAW i sRAW / sRAW2 są kompresowane przy użyciu algorytmu kompresji bezstratnej. Jest to krytyczne rozróżnienie między tymi formatami a JPEG, który również wykorzystuje kodowanie typu ycc. JPEG wykonuje kompresję stratną, co uniemożliwia przywrócenie pikseli z powrotem do ich oryginalnej reprezentacji. Formaty s / mRAW firmy Canon można rzeczywiście przywrócić do oryginalnych 15-bitowych danych obrazu z pełną precyzją.

Bibliografia:

jrista
źródło
8

Teoretycznie mogłoby tak być, gdyby kamera zastosowała właściwą strategię zmniejszenia rozmiaru obrazu.

Jak zauważyłeś, w obecnych aparatach z czujnikiem przycięcia surowy obraz pozostaje taki sam bez względu na ustawiony rozmiar JPEG. Obraz JPEG jest po prostu skalowany. Może to nieco zredukować wygląd szumu, ale redukcja wynika z algorytmu skalowania obrazu (nie można dopasować tylu pikseli do mniejszej liczby obrazów, ile można do pełnowymiarowej wersji). Bardziej prawdopodobne jest jednak, że będziesz w stanie zrobić co najmniej tak samo dobre, jeśli nie lepsze, jeśli zredukujesz hałas i skalujesz się po fakcie.

Istnieje strategia, która zapewni rzeczywistą redukcję hałasu. Niektóre tylne nośniki w średnim formacie o wysokiej rozdzielczości (jak seria Phase One SensorPlus) wykorzystują strategię zwaną binowaniem pikseli , w której grupy sąsiednich czujników są traktowane jako jeden znacznie większy sensel, a ich skumulowany ładunek jest odczytywany z czujnika. Różni się to od odczytywania poszczególnych opłat i uśredniania (do czego jesteś ograniczony podczas przetwarzania po odczycie) - występuje na poziomie sprzętowym i zmienia to, co oznacza „surowe”. Szum odczytu ma większą szansę na anulowanie, a skumulowany ładunek sprawia, że ​​konwersja analogowo-cyfrowa jest mniej niejednoznaczna (zakres przekształconych kwantów jest szerszy przy mniejszym wzmocnieniu).

W praktyce oznacza to zwykle zmniejszenie rozdzielczości czterokrotnie (połowa szerokości i połowa wysokości). Z tyłu w średnim formacie 60 lub 80MP, co wciąż pozostawia obraz 15 lub 20MP; z 16-megapikselowym aparatem z czujnikiem przycięcia uzyskasz surowy obraz 4MP. Teraz możesz wiedzieć i mogę wiedzieć, że czysty obraz 4 MP jest lepszy niż hałaśliwy obraz 16 MP, ale nie wszyscy będą się zastanawiać, że wytworzenie mniejszego obrazu kosztuje więcej. Oznacza to, że jest mało prawdopodobne, że w najbliższym czasie zobaczysz binowanie w urządzeniach mniej niż profesjonalnych. Może pojawić się w pełnoklatkowych aparatach, jeśli ich rozdzielczość wciąż rośnie, ale nie szukałbym tego w czujniku kadrowania. (Cóż, może Pentax może pewnego dnia zadać cios nożem, ponieważ nie robią pełnej klatki).


źródło
Przepraszam, myślę, że powinienem wyjaśnić rozmiary zdjęć RAW. Mam Canon 60D i 3 opcje rozmiarów zdjęć RAW (RAW, M-RAW i S-RAW). Jeśli RAW to tylko zrzut z czujników aparatu, to w jaki sposób mogą mieć 3 różne rozmiary? Czy aparat również zmniejsza obrazy RAW?
Viv
@Stan: Canon już robi dokładnie to, co opisałeś w swoich formatach mRAW i sRAW. Nie są to dosłowne formaty RAW, są pochodnymi YUV (a dokładniej Y'CrCb) i rzeczywiście mają zastosowanie do form binningu pikseli. Zobacz moją odpowiedź, aby uzyskać więcej informacji.
jrista
Re przyszłość: prawdziwym ograniczeniem jest obszar czujnika. Jeśli rozmiar czujnika pozostanie taki sam, a rozdzielczość wzrośnie (poprzez zmniejszenie pikseli), nie będzie żadnego zysku netto z binningu pikseli. To tylko kwestia użycia większej liczby czujników do odczytu tego samego obszaru fizycznego czujnika. Możemy oczekiwać lepszej czułości poszczególnych czujników, dzięki czemu więcej światła i mniej szumów jest rejestrowanych w każdej małej części czujnika.
whuber
1
@Jrista: to nie jest binowanie, to uśrednianie po odczytach. Podział na grupy musi skutkować całkowitym zmniejszeniem rozdzielczości liniowej, a pojedyncze dane ze strony zdjęciowej nie są dostępne do przetworzenia, ponieważ skumulowane odczyty (nie oddzielne, a następnie uśrednione, odczyty) są wykonywane na wielu zmiażdżeniach. (W systemie kwadratu Bayera oznacza to 1/4, 1/16, 1/64 itd. Pełnej rozdzielczości wyrażonej jako powierzchnia lub piksele.) Uśrednianie po odczycie nie różni się technicznie od skalowania; po prostu działa w innej przestrzeni danych.
1

Jeśli głównym problemem jest wysoki poziom szumów, jednym z rozwiązań jest zarejestrowanie kilku klatek i posiadanie oprogramowania z dobrymi algorytmami, łączącego jeden dobry obraz z kilku gorszych. Na przykład ALE, Anti-Lamenessing Engine to robi. W przypadku poruszających się obiektów to oczywiście nie działa, ale można strzelać z ręki, powiedzmy, w ISO 1600, a następnie łączyć zdjęcia, aby uzyskać poziom hałasu zbliżony do ISO 400 lub 800.

Zds
źródło