W komentarzu do tego pytania ktoś zasugerował, że czujniki kamery zwykle wysyłają tylko 12-14 bitów danych. Byłem zaskoczony, ponieważ oznaczałoby to, że 24 bity koloru przydają się tylko do manipulacji zdjęciami (gdzie dodane bity zmniejszają hałas, który odbiera się od interpolacji średnich wartości wielokrotnie wykonując wiele manipulacji).
Czy ktoś wie wystarczająco dużo o czujniku kamery, aby móc autorytatywnie odpowiedzieć na 12-14-bitowe roszczenie? Jeśli tak, jakie są typowe kodowania?
Odpowiedzi:
Witryny cyfrowe czujnika są w rzeczywistości urządzeniami analogowymi . Tak naprawdę wcale nie mają trochę głębi. Jednak w celu utworzenia obrazu cyfrowego przetwornik analogowo-cyfrowy (przetwornik A / D) próbkuje sygnał analogowy na określonej głębokości bitowej. Jest to zwykle reklamowane w specyfikacjach aparatu - na przykład Nikon D300 ma 14-bitowy przetwornik analogowo-cyfrowy .
Należy jednak pamiętać, że jest to na kanał , podczas gdy 24-bitowy kolor zwykle oznacza 8 bitów na kanał. Niektóre formaty plików - i przestrzenie robocze - używają zamiast tego 16 bitów na kanał (łącznie 48 bitów), a niektóre wykorzystują nawet więcej.
Dzieje się tak częściowo dlatego, że dodatkowa precyzja może zmniejszyć skumulowane błędy zaokrąglania (jak zauważasz w swoim pytaniu), ale dzieje się tak również dlatego, że ludzkie widzenie nie jest liniowe, a więc używane przez nas przestrzenie kolorów również nie są. Przejście z krzywej liniowej na „skompresowaną gamma” jest operacją stratną (patrz jedno z kilku pytań na temat plików surowych ), więc posiadanie większej liczby bitów oznacza po prostu mniejsze straty, co jest lepsze, jeśli zmienisz zdanie na temat ekspozycji / krzywych i nie nie będą już mieć dostępu do pliku RAW.
źródło
Większość układów czujników rejestruje tylko jeden składnik koloru na piksel, więc jeden piksel może zawierać na przykład 14 bitów danych dla intensywności zieleni.
Piksele są ułożone w siatkę, w której 50% pikseli rejestruje dane zielone, 25% czerwone i 25% niebieskie:
Kiedy te dane są konwertowane na RGB, dwa składniki koloru na piksel są interpolowane z informacji w otaczających pikselach. Na przykład piksel z zieloną informacją ma dwa sąsiednie piksele z czerwonymi danymi i dwa z niebieskimi danymi, które służą do tworzenia wartości RGB.
Tak więc 14 bitów na piksel danych RAW daje 42 bity na piksel danych RGB. Oczywiście interpolowane dane są mniej dokładne, ale i tak zwykle przetwarzane są do 24-bitowego RGB.
źródło
Uważaj, aby nie pomylić głębi bitowej na piksel i głębi bitowej na komponent.
Wyjście cyfrowych czujników prawie zawsze wynosi od 10 do 14 bitów na komponent w skali liniowej. Dałoby to od 30-bitowych kolorów (1 miliard) do 42-bitowych (4 tryliony) na piksel.
Witryna DXOMark mierzy to za pomocą znormalizowanej skali (wyjaśnionej w białej księdze) i publikuje głębokość bitów na piksel, która odpowiada za szum, który ma tendencję do niszczenia bitów niższego rzędu. Na podstawie wyników uzyskanych w trybie pełnoklatkowym lustrzanki cyfrowe mogą osiągać 24,7 bitów na piksel, a kamery średniego formatu - 26 bitów. W przypadku kamer z wykadrowanym czujnikiem bieżące maksimum to 23,8 bity.
źródło
Obecne kamery DSLR mają moc 14-bitów. Niektóre aparaty średnioformatowe zgłaszają 16-bitową moc wyjściową, ale różni ludzie ( np. Witryna dpBestflow ASMP ) twierdzą, że wzrost głębi bitów między 14 bitami a 16 bitami faktycznie zapewnia lepszy obraz.
źródło