Dlaczego mówi się, że aparaty cyfrowe cierpią bardziej na aberrację chromatyczną niż kamery filmowe?

15

Co sprawia, że ​​aparaty cyfrowe są bardziej podatne na aberrację chromatyczną niż kamery filmowe?

Czytałem to na wielu stronach internetowych, ale wyjaśnienia różnią się, od tego, co moim zdaniem mniej wiarygodne wyjaśnienia, takie jak „wysoka rozdzielczość aparatów cyfrowych sprawia, że ​​są bardziej widoczne”, do bardziej wiarygodnych dźwięków z filtrami kolorów przed czujnikiem, tworząc kolejne źródło aberracji oprócz tego, co już wyprodukował obiektyw.

Czy w tym stwierdzeniu jest jakaś prawda, a jeśli tak, to dlaczego tak jest?

Hugo
źródło
3
Podaj źródło, w przeciwnym razie brzmi to jak głupiutki mit. To soczewka powoduje aberrację chromatyczną, a nie czujnik. Istnieją pewne problemy związane z matrycą Bayera, ale nie nazwałbym tych „aberracjami chromatycznymi”. Aberracje chromatyczne powstają, gdy soczewka inaczej skupia różne długości fali światła.
Olin Lathrop
2
Nie mogę podać dokładnych źródeł, z których pierwotnie o nim czytałem (To było jakiś czas temu), ale szybkie wyszukiwanie dało mnóstwo podobnych wyników: 1 2 3 4 . Może to być mit, tak jak napisałem w pytaniu, ale jeśli tak, to rozpowszechniony
Hugo
2
być może dlatego, że zdjęcia z kamer filmowych były najczęściej oglądane w odbitym świetle o wymiarach 15x10 cm w przytulnym świetle, gdzie widz miał na uwadze duże zdjęcie, podczas gdy praktycznie wszystkie zdjęcia cyfrowe są dokładnie sprawdzane pod kątem błędów przy 100% „kadrowaniu” przy emitowaniu światła 15-25 cali monitory czy telewizory 30-50 cali?
Michael Nielsen,
Ogólnie rzecz biorąc, technologia cyfrowa jest o wiele ostrzejsza, dlatego widzisz problemy niewidoczne w filmie, również dlatego, że w filmie nie zbliżasz się do „1: 1”, podczas gdy w cyfrowej jest to powszechne. Zrób film, powiększ go o 500x i zobaczmy, czy po nadmiernym rozmyciu nie można znaleźć żadnej aberracji.
FarO,

Odpowiedzi:

10

Oczywiście aberracja chromatyczna jest tworzona przez obiektyw, a ilość CA jest taka sama.

Jednak film jako medium, a czujnik reaguje nieco inaczej. Prawdziwe światło prostopadłe jest obsługiwane w podobny sposób w obu przypadkach, ale światło kątowe napotyka inną powierzchnię podczas używania filmu i czujnika CMOS.

Czujniki CMOS mają małe soczewki nad filtrem kolorów (patrz tutaj ) i dość trudno jest zapewnić jednolitą prędkość grupy w małej soczewce dla wszystkich rodzajów fal świetlnych, więc tworzą one zależną od kąta i zależną od długości fali odpowiedź na przybycie światło. (Rozważ białe światło przechodzące przez pryzmat - ten sam efekt).

Film ma znacznie mniejszą wrażliwość na kąt padania. Więc po prostu sfotografujesz CA.

Z drugiej strony, R, G i B wychodzące z kąta zobaczą różne czułości czujnika (każda jest inna) niż RGB zbliżone prostopadle do czujnika. Będzie to widoczne jako przesunięcie lub zmiana koloru, co pogorszy CA.

To jest wyjaśnienie, które mogę wymyślić dla twojego pytania.

(A dobrym testem byłoby użycie skierowanego białego światła na matrycy CMOS i robienie zdjęć, zaczynając od prostopadłości, a następnie przechylając je coraz bardziej. Spodziewałbym się nieco zmiany koloru. Ale nie próbuj tego w domu :-) ).

TFuto
źródło
2
Jest też dość gruba (około 1 mm) szyba z filtrem antyaliasingowym / UV / IR, która znajduje się bezpośrednio przed czujnikiem. W rogach czujnika przychodzące światło będzie padać pod ostrym kątem (chyba że soczewka jest telecentryczna), co może powodować paskudne kolory. Zwłaszcza powiedzmy, że niektóre szerokokątne obiektywy z mocowaniem M firmy Leica, w których tylna soczewka o małej średnicy jest głęboko wpuszczona w cóż, nie w „dom z lustrem”, ale w odpowiednią wnękę w aparacie, blisko płaszczyzny filmu. Nie dzieje się tak z filmem. Mikrosoczewki mogą tylko tyle zrobić, aby temu zaradzić.
Staale S,
@TFuto - proszę zobaczyć moją odpowiedź. Nie ma tu potrzeby żargonu podobnego do prędkości grupy (wymyślne słowo określające kolor osiowy). Mikrosoczewki również nie są zbyt istotne dla CA, ponieważ nawet jeśli byłby boczny kolor dla przyzwoicie zaprojektowanych mikrosoczewek, niebieskie światło albo byłoby już filtrowane na czerwonym pikselu, albo filtrowane poniżej mikrosoczewek. Zasadniczo, jeśli tak się nie stanie, matryca Bayera ulegnie uszkodzeniu, a aparat uzyska bardzo dziwne obrazy.
Brandon Dube,
1

Aparat cyfrowy kwantyzuje światło z grubsza niż fragment filmu. Zastanów się, czy soczewka ma 3 mikrony aberracji chromatycznej. Na obrazie filmowym otrzymasz coś nieco większego niż 3 mikrony - może 3,1 mikrona - dzięki kryształom halogenku srebra filmu. W aparacie cyfrowym piksele mają, powiedzmy, 6 mikronów z boku. 3 mikrony wystarczą, aby znacząco rozlać się na sąsiedni piksel, więc ilość aberracji chromatycznej wydaje się podwoić w porównaniu do filmu.

Widzą także kolor inaczej. Rozważ ten test ktoś złożył. Rozważmy przykład 6. Niebieski pojazd za prześwietlonym jest prawie czarny na obrazie filmowym i dość jasny na cyfrowym. Czerwone reflektory są również bardzo różnie eksponowane, nawet w stosunku do otaczających ich przedmiotów.

Oznacza to, że film jest mniej wrażliwy na światło czerwone, a także mniej wrażliwy na światło niebieskie. Wszystkie frędzle, które widzisz, to karmazynowy, który nie jest kolorem , ale kombinacją czerwieni i niebieskiego. Jeśli film jest mniej wrażliwy na te kolory, w porównaniu z białymi lub zielonkawymi elementami sceny, aberracja chromatyczna zostanie zmniejszona w intensywności, a tym samym widoczności.

Brandon Dube
źródło
Link, który pod tytułem „nie ma koloru”, nie obsługuje tego twierdzenia.
Proszę przeczytać Profil
@mattdm _ jest fizjologicznie i psychologicznie postrzegany jako mieszanina światła czerwonego i fioletowo-niebieskiego z brakiem zieleni.
Brandon Dube
1
„Magenta jest kolorem dodatkowym”. To wcale nie jest to samo, co „brak koloru”. Mam na myśli, że „kolor” ma wiele różnych definicji technicznych, ale nie sądzę, aby taka granica była szczególnie przydatna. (Według tej definicji różowy i brązowy również nie byłyby kolorami.) W każdym razie podany przez ciebie link definiuje go jako kolor, zdecydowanie tam, w cytacie, który podam .
Proszę przeczytać Profil
1
Myślę, że twoja odpowiedź jest dobra, z wyjątkiem tego, jak powiedziałem, że link do „magenta nie jest kolorem” prowadzi do strony, która dosłownie mówi, że magenta jest kolorem. Jeśli chcesz argumentować, że z jakiegoś powodu nie jest to kolor, myślę, że powinieneś przynajmniej znaleźć lepsze odniesienie.
Proszę przeczytać Profil
1
Kolor widmowy to kolor, który odbieramy w odpowiedzi na bodziec pojedynczej (lub w praktyce bardzo wąsko podobnej) długości fali światła. „Czysty kolor” może mieć ten sens, ale ma także inne zmysły.
Przeczytaj profil
0

Nie sądzę, aby którykolwiek z możliwych powodów, które przeczytałeś, był zły. Z pewnością większość powodów w podanych linkach wydaje się wystarczająco prawdopodobnymi przyczynami niewielkiej aberracji chromatycznej.

Pomijając takie dziwne elementy soczewek i inne problemy z produkcją, sama złożoność nowoczesnych soczewek w porównaniu do tych z czasów filmowania oraz dodanie mikrosoczewek do czujnika, wszystko to przyczyni się do powstawania kolorowych obwódek. Zwiększona rozdzielczość, jakkolwiek głupia, jak się wydaje, uwypukla niedoskonałości wielu obiektywów, i szczerze mówiąc nie sądzę, że można badać wydruk gdziekolwiek tak blisko, jak to możliwe, z dużym ekranem przy 100% powiększeniu.

Jakkolwiek fajnie byłoby powiedzieć, że istnieje konkretny powód, dla którego film jest lepszy niż cyfrowy pod tym względem, wydaje się, że jest to połączenie wielu mniejszych czynników.

Thomas Bisset
źródło
Mylisz się. Oczekiwania nie mają z tym nic wspólnego. Aberracje chromatyczne SĄ bardziej wyraźne na cyfrowym niż na filmie. Można to zmierzyć. Jedną z takich prób podjął genotypewriter: secure.flickr.com/photos/genotypewriter/6147351879 - wynik jest dość oczywisty: Film wygrywa, jeśli chodzi o CA.
MarcinWolny
1
Zmieniono moją odpowiedź, aby usunąć mój ostatni komentarz. Na moim telefonie przeczytam linki później - w międzyczasie uwierzę ci na słowo. :-P
Thomas Bisset
0

wynika to ze sposobu, w jaki kolor jest pobierany z czujnika. Tylko nieliczne aparaty cyfrowe są naprawdę widoczne w kolorze (stary sigma foveon jest jednym z nich w dużej „publicznej” lustrzance). Czujnik widzi tylko intensywność światła, więc „czarno-biały”, a przednia siatka z kolorowym filtrem służy do późniejszego zdefiniowania pierwotnego koloru. (patrz siatka Bayera i ich ewolucja) ( próbka zastosowania Bayera ) Z powodu tej interpretacji niektóre sytuacje dają niewłaściwy kolor jako odliczenie. Zdarza się to często na krawędzi ostrej powierzchni.

NeronLeVelu
źródło
3
Czy możesz opracować i / lub podać źródła, dlaczego powoduje to powstawanie kolorowych obwódek? Jeśli to jest powód, wydaje się, że nie ma to związku z aberracją chromatyczną.
Hugo
2
Zauważ też, że sposób działania czujnika Bayera jest bliższy działaniu ludzkiego oka niż Foveon! Według tego standardu ludzie też nie widzą w kolorze!
Proszę przeczytać Profil
Polecam ten artykuł, który wyjaśnia, w jaki sposób dołącza on fazoneimageprofessor.wordpress.com/tag/bayer-pattern (nie wymyślając na nowo koła). Możesz również spojrzeć na wiki pedia dla foveon, które częściowo wyjaśniają również (przewaga foveon w tej kwestii) en.wikipedia.org/wiki/Foveon_X3_sensor . @mattdm, prawe oko działa bardziej jak Bayer, ale rozproszenie czujnika jednostki oka różni się od „zwykłej” siatki Bayera, również każda jednostka podstawowa przechwytuje inne informacje, w których bayer / czujnik przechwytuje ten sam filtrowany, więc aberacja nie jest obsługiwana w ten sam sposób przez mózg.
NeronLeVelu
1
To wyjaśnia, w jaki sposób czujnik Bayera może powodować pewną klasę błędów kolorystycznych, ale nie nazwałbym tych błędów aberracją chromatyczną, jak zadawano w pytaniu.
Olin Lathrop,
0

Myślę, że Hugo pisze o Blooming, który występuje na czujnikach. Głównie małe czujniki o dużej rozdzielczości mają tendencję do kwitnienia. Jest to spowodowane wysoką intensywnością światła, znacznie wyższą niż może wytrzymać fotodiod. Tak więc ładunek elektryczny przelewa się do sąsiednich fotodiod. W rezultacie tworzy barwione pierścienie na krawędzi prześwietlonych obszarów.

Jeff_Alieffson
źródło