Nie mówię o zmianach ogniskowej.
Czytałem wiele postów, które mówią, że w pełnoklatkowej kamerze gęstość pikseli jest mniejsza w porównaniu do kamer z czujnikiem przycinania, więc przechwytuje więcej światła, a zatem ma lepszą wydajność ISO i większy zakres dynamiczny. Więc jeśli zmienię aparat z czujnikiem przycinania, aby fotografować w niższej rozdzielczości, czy będzie to równoznaczne z lepszą gęstością pikseli i naśladuje wydajność pełnej klatki (lub średniego formatu), czy zawsze będzie strzelać z maksymalną rozdzielczością i zmniejszeniem rozmiaru?
- EDYCJA: 1--
Mam Canon 60D i mam 3 opcje rozmiarów zdjęć RAW (RAW, M-RAW i S-RAW). Jeśli RAW to tylko zrzut z czujników aparatu, to w jaki sposób mogą mieć 3 różne rozmiary? Czy aparat również zmniejsza obrazy RAW?
Odpowiedzi:
Biorąc pod uwagę, że masz Canona, niższe tryby RAW, mRAW i sRAW, DO INDEED UTILIZE WSZYSTKICH dostępnych pikseli czujnika, aby uzyskać bogatszy wynik bez potrzeby interpolacji Bayera. Rzeczywisty format wyjściowy, mimo że jest nadal zawarty w pliku obrazu RAW Canon .cr2, jest zakodowany w formacie Y'CbCr, podobnym do wielu rozwijanych formatów wideo. Przechowuje informacje o luminancji dla każdego PEŁNEGO piksela (2x2 czterokrotnie 1 czerwony, 1 niebieski i 2 zielone piksele), a każdy kanał chrominancji pochodzi z danych o połowie piksela (1x2 para 1 czerwony + 1 zielony lub 1 niebieski + 1 zielony) .
Nie jestem do końca pewien, jakie specyficzne różnice w poziomie odczytu i kodowania sprzętowego niskiego poziomu między mRAW i sRAW są, jednak ogólnie mówiąc, im mniejszy format wyjściowy, tym więcej informacji wejściowych pikseli czujnika można użyć dla każdego piksela wyjściowego. Niewielka ilość interpolacji w m / sRAW jest dyskusyjna, ponieważ oba formaty interpolują znacznie mniej niż natywny RAW. Należy również zauważyć, że ani mRAW, ani sRAW nie są rzeczywistymi formatami „RAW” w normalnym sensie ... dane czujnika są przetwarzane i konwertowane na coś innego, zanim zostaną zapisane w pliku .cr2.
Aby uzyskać więcej informacji na temat formatów pochodnych YUV i Canon sRAW, zobacz moją odpowiedź tutaj: Dlaczego przestrzeń kolorów xvYCC nie jest wykorzystywana do robienia zdjęć?
Z „Zrozumienia, co jest przechowywane w pliku .CR2 Canon RAW”:
Każdy „piksel” na obrazach sRAW i mRAW zawiera cztery składniki ... podzielony składnik Y '(y1 i y2), a także x (Chrominance Blue) i z (Chrominance Red). Wszystkie cztery elementy (z perspektywy obrazu 1/2, sRAW1 / mRAW) mają wysokość kolumny 2 (h) i szerokość 1 (v). Wskazuje to, że wartość luminancji (Y ') składa się z PEŁNEGO kwadratu 2x2 pikseli ... lub dwóch kolumn 2x1 pikseli przechowywanych w y1 i y2.
Poniższe odnośniki nie wydają się wyraźnie tego określać, więc spekuluję tutaj nieco, jednak w przypadku sRAW2 (1/4 raw) uważam, że informacje o luminancji uzyskano by z bloku pikseli 4x4, gdzie h = 4 i v = 2. Kodowanie chrominancji stałoby się bardziej skomplikowane na obrazie w rozmiarze 1/4, ponieważ matryca filtrów koloru Bayera na czujniku nie jest ułożona w czyste czerwone i niebieskie kolumny. Nie jestem pewien, czy zmienne kolumny o wysokości 2x1 są przetwarzane dla każdego składnika Cr i Cb, czy też wykonywana jest inna forma interpolacji. Jedno jest pewne ... interpolacja danych źródłowych jest zawsze większa niż danych wyjściowych i, o ile wiem, nie dochodzi do nakładania się (jak w normalnej interpolacji Bayera).
Wreszcie, sRAW1 / mRAW i sRAW / sRAW2 są kompresowane przy użyciu algorytmu kompresji bezstratnej. Jest to krytyczne rozróżnienie między tymi formatami a JPEG, który również wykorzystuje kodowanie typu ycc. JPEG wykonuje kompresję stratną, co uniemożliwia przywrócenie pikseli z powrotem do ich oryginalnej reprezentacji. Formaty s / mRAW firmy Canon można rzeczywiście przywrócić do oryginalnych 15-bitowych danych obrazu z pełną precyzją.
Bibliografia:
źródło
Teoretycznie mogłoby tak być, gdyby kamera zastosowała właściwą strategię zmniejszenia rozmiaru obrazu.
Jak zauważyłeś, w obecnych aparatach z czujnikiem przycięcia surowy obraz pozostaje taki sam bez względu na ustawiony rozmiar JPEG. Obraz JPEG jest po prostu skalowany. Może to nieco zredukować wygląd szumu, ale redukcja wynika z algorytmu skalowania obrazu (nie można dopasować tylu pikseli do mniejszej liczby obrazów, ile można do pełnowymiarowej wersji). Bardziej prawdopodobne jest jednak, że będziesz w stanie zrobić co najmniej tak samo dobre, jeśli nie lepsze, jeśli zredukujesz hałas i skalujesz się po fakcie.
Istnieje strategia, która zapewni rzeczywistą redukcję hałasu. Niektóre tylne nośniki w średnim formacie o wysokiej rozdzielczości (jak seria Phase One SensorPlus) wykorzystują strategię zwaną binowaniem pikseli , w której grupy sąsiednich czujników są traktowane jako jeden znacznie większy sensel, a ich skumulowany ładunek jest odczytywany z czujnika. Różni się to od odczytywania poszczególnych opłat i uśredniania (do czego jesteś ograniczony podczas przetwarzania po odczycie) - występuje na poziomie sprzętowym i zmienia to, co oznacza „surowe”. Szum odczytu ma większą szansę na anulowanie, a skumulowany ładunek sprawia, że konwersja analogowo-cyfrowa jest mniej niejednoznaczna (zakres przekształconych kwantów jest szerszy przy mniejszym wzmocnieniu).
W praktyce oznacza to zwykle zmniejszenie rozdzielczości czterokrotnie (połowa szerokości i połowa wysokości). Z tyłu w średnim formacie 60 lub 80MP, co wciąż pozostawia obraz 15 lub 20MP; z 16-megapikselowym aparatem z czujnikiem przycięcia uzyskasz surowy obraz 4MP. Teraz możesz wiedzieć i mogę wiedzieć, że czysty obraz 4 MP jest lepszy niż hałaśliwy obraz 16 MP, ale nie wszyscy będą się zastanawiać, że wytworzenie mniejszego obrazu kosztuje więcej. Oznacza to, że jest mało prawdopodobne, że w najbliższym czasie zobaczysz binowanie w urządzeniach mniej niż profesjonalnych. Może pojawić się w pełnoklatkowych aparatach, jeśli ich rozdzielczość wciąż rośnie, ale nie szukałbym tego w czujniku kadrowania. (Cóż, może Pentax może pewnego dnia zadać cios nożem, ponieważ nie robią pełnej klatki).
źródło
Jeśli głównym problemem jest wysoki poziom szumów, jednym z rozwiązań jest zarejestrowanie kilku klatek i posiadanie oprogramowania z dobrymi algorytmami, łączącego jeden dobry obraz z kilku gorszych. Na przykład ALE, Anti-Lamenessing Engine to robi. W przypadku poruszających się obiektów to oczywiście nie działa, ale można strzelać z ręki, powiedzmy, w ISO 1600, a następnie łączyć zdjęcia, aby uzyskać poziom hałasu zbliżony do ISO 400 lub 800.
źródło