Pytanie jest inspirowane tym pytaniem pokazującym te zdjęcia .
Przyjęta odpowiedź sugeruje, że te zdjęcia zostały zrobione kamerą 8x10, a użycie aparatu 8x10 zostało potwierdzone w komentarzach.
Moje pytanie brzmi: jak możesz to stwierdzić?
Oglądane na stronie obrazy te mają wymiary 496 x 620 = 0,37 megapiksela (lub 720 x 900 = 0,65 megapiksela, jeśli klikniesz „pełny widok”).
Dlatego każdy aparat o rozdzielczości wyższej niż 0,37 Mpx powinien być w stanie robić te zdjęcia, co oznacza prawie każdy smartfon i kamerę internetową na rynku.
Wiem o czujnikach Bayera . Jednak najgorszym skutkiem działania czujnika Bayera powinno być zmniejszenie rozdzielczości o współczynnik cztery: Jeśli zmniejszysz obraz o współczynnik dwa razy w każdym kierunku, każdy piksel wyjściowy będzie zawierał dane z co najmniej jednego czujnika wejściowego dla każdego z kanały R / G / B.
Skalowanie w dół o współczynnik 4 nadal oznacza, że jakikolwiek aparat o rozdzielczości większej niż 1,5 Mpx (zamiast 0,37 Mpx wyjścia) powinien być w stanie uchwycić te zdjęcia. Nadal mówimy o prawie każdym smartfonie i większości kamer na rynku.
Wiem o głębi kolorów . Ale JPG, format, którego używamy do wyświetlania tych zdjęć, to 8x3 = 24 bity. Według wyników DxOMark istnieje kilka aparatów, w tym Sony NEX 7 i Nikon D3200, które są w stanie uchwycić 24 bity koloru.
Więc nawet jeśli kamera internetowa za 10 USD nie jest w stanie uchwycić niuansów na tych zdjęciach, NEX 7 lub D3200 powinny to zrobić.
Wiem, że większość obiektywów ma niższą rozdzielczość niż większość czujników. Na przykład Nikkor 85 mm f / 1.4G jest najostrzejszym obiektywem Nikona według DxOMark i daje najlepszy przypadek odpowiadający rozdzielczości 19 Mpx w aparacie 24 Mpx (pełnoklatkowy Nikon D3X), podczas gdy najmniej ostry obiektyw ma najlepszy przypadek równy 8 Mpx na tym samym aparacie.
Ale najgorsze soczewki w ich bazie danych wciąż dają rząd wielkości o wiele większą rozdzielczość niż format wyjściowy tych przykładów.
Wiem o zakresie dynamicznym. Ale te obrazy kontrolują oświetlenie, aby nie rozjaśniały świateł ani nie gubiły cieni. Dopóki jesteś w stanie to zrobić, zakres dynamiczny nie ma znaczenia; i tak będzie mapowany na zakres wyjściowy JPG 0-255.
W obu przypadkach DxOMark mówi, że kilka kamer z pełnoklatkowymi lub mniejszymi czujnikami ma lepszy zakres dynamiki niż najlepszy z kamer średniego formatu.
Właśnie to wiem i nie ma w tych fragmentach teorii niczego, co mogłoby mi powiedzieć, jak można odróżnić kamerę o rozdzielczości 8 x 10 od Sony NEX 7, gdy widzisz wynik w formacie JPG 0,37 Mpx.
Zasadniczo, o ile rozumiem, nie powinno mieć znaczenia, ile megapikseli i ile głębi kolorów może przechwycić czujnik, o ile jest to co najmniej tyle, ile może reprezentować format wyjściowy.
Mimo to nie wątpię w ocenę odpowiedzi udzieloną przez Stana Rogersa. I nigdy nie widziałem czegoś podobnego pod względem postrzeganej ostrości z kamer z małymi matrycami.
Czy źle zrozumiałem, co oznacza rozdzielczość?
Chyba przede wszystkim pytam o teorię: w jaki sposób różnica między dwiema rozdzielczościami (mierzonymi w pikselach, lp / mm, głębi kolorów itp.) Może być widoczna w formacie wyświetlania, który ma mniejszą rozdzielczość niż którykolwiek z oryginałów?
Albo inaczej: czy jest coś, co może mnie powstrzymać od skopiowania tych zdjęć do piksela za pomocą Sony NEX 7 i oświetlenia o wartości 10 000 USD?
źródło
Odpowiedzi:
Chodzi o mikro kontrast. Spójrz na posty o aps-c w porównaniu do pełnej klatki, a następnie rozszerz tę różnicę na czujniki średniego i dużego formatu.
Kiedy różnice między APS-C i pełnoklatkowymi czujnikami mają znaczenie i dlaczego?
Zgodnie z teoriami na temat nadpróbkowania lepiej jest próbkować z wyższą częstotliwością, a następnie próbkować w dół niż próbkować z limitem NYQUIST od samego początku - tj. jeśli Twoim celem końcowym jest 640 x 480, nadal lepiej jest użyć czujnika 1280 x 960 niż czujnika 640 x 480.
Zresztą nie ma znaczenia, ile MPixeli masz, gdy sąsiednie piksele zależą od siebie, ponieważ krąg pomieszania jest większy niż twoje piksele na płaszczyźnie czujnika. Soczewki mają również ograniczoną zdolność rozdzielczą. Co więcej, należy wziąć pod uwagę „ostrość” obiektywu w stosunku do jego apertury, a większy czujnik pozwala podejść bliżej i uzyskać węższy DOF, co oznacza, że można uchwycić jeszcze więcej szczegółów - Koło pomyłki jest większe, obiektyw współpracuje z mniejsze rozproszenie itp.
A potem „kompresja głębi” wykonywana przez ogniskową obiektywu, która jest dość agresywna w tych ujęciach, wskazując na teleobiektyw. Pole widzenia małego czujnika wymagałoby od ciebie cofnięcia się o wiele i otwarcia apertury, aby uzyskać wąski DOF. Jednak przy użyciu liczb, z pełnoklatkowym aparatem, który możesz to osiągnąć, 210 mm, odległość 2 metry, F8 dałoby 4 cm DOF i pole widzenia, które robi tylko twarz jak te zdjęcia.
Innymi słowy: im większy czujnik względem obiektu, tym mniej soczewka musi działać na promienie świetlne, aby ścisnąć je w ciasne miejsce. Zwiększa to wyrazistość ujęcia i pokazuje bez względu na odległość oglądania (która jest symulowana przez zmianę rozmiaru obrazu do niższej rozdzielczości).
Następujące dyskusje na temat poprawy szczegółów i zachowania przez zmianę rozmiaru są porównanie, jeśli podobne tematy duży format w porównaniu do pełnej klatki i duży format w porównaniu do apsc:
U góry: męskie twarze z karczkami brody. W rozdzielczości witryny, do której linkujesz, broda jest renderowana za pomocą włosów o szerokości pikseli, ale wszystko to jest tracone w tym samym rozmiarze co przykład Matta. Teraz brody są rozproszone. Jeśli zobaczymy obraz Matta w tym samym rozmiarze co 8x10 zdjęć w witrynie, możemy zauważyć dużą różnicę, jeśli głowa nie będzie ostra. Nawet system aps-c i mniejszy czujnik mogą dać ten wynik (jeśli chodzi o szczegóły).
Na dole: czy porównujemy rzęsy twarzy kobiet w podobnym rozmiarze, jak na stronie, którą pokazałeś, z ostrym okiem z aparatu aps-c, a wyostrzenie nie przywróci porów w skórze. Możemy poprawić postrzeganie rzęs kosztem jasnego halo wokół niego.
Widzimy teraz ogromną różnicę rozdzielczości „całego systemu” , a kamera apsc + zastosowany obiektyw + widziany przy danej rozdzielczości niskiej rozdzielczości nie może renderować tych samych szczegółów, co kamera 8x10 + ten obiektyw + oglądana rozdzielczość . Mam nadzieję, że mój punkt widzenia jest teraz wyraźniejszy.
Kolejne porównanie do aps-c, odcinków brody, po ich ostrzeniu. Mimo że zmiana stosu zmienia ich rozmiar, nadal zauważamy różnicę w jasności.
Podsumowując, inne czynniki, o które pytasz, niż rozdzielczość w pikselach to:
Uzyskasz więcej szczegółów w zmniejszonym ujęciu makro niż bez fotografowania makro.
Ostatni dowód na to, że rozdzielczość przed zmniejszeniem rozdzielczości ma znaczenie. Góra: 21 MP FF Dół: 15 MP Aps-c przy tej samej ogniskowej obiektywu / przysłony.
Teraz przeskalowano do równej rozdzielczości:
i zastosowałem trochę wyostrzenia, aby przywrócić trochę szczegółów. Co widzisz? nieco więcej szczegółów z kamery Fmp 21mp oglądanej w tym samym rozmiarze / rozdzielczości, która byłaby równoważna z kamerą 3Mp. nie można policzyć linii na przeskalowanym obrazie, ale przekonanie, że są to linie, jest prawdziwe. Niezależnie od tego, czy chcesz tego, czy nie, to twój twórczy wybór, ale zaczynając od wyższej rozdzielczości (podanej przez cały system), masz wybór. Jeśli nie chcesz ich, możesz rozmazać obraz przed przeskalowaniem.
Ostatni eksperyment pokazujący różnicę między małym rozmiarem, niską rozdzielczością w porównaniu do większego czujnika, wyższą rozdzielczością, ale przeskalowanym i wyostrzonym do tej samej rozdzielczości, pokazanym w SAMYM ROZMIARU na końcu - z WSZYSTKIMI RÓWNYMI. Fajnie, co? Jak to zrobiłem? Mój aparat APS-C symuluję „czujnik przycinania” (mniejszy niż mój apc-c), wycinając zdjęcie z obrazu. Następnie zbliżam się do obiektu, aby wypełnić 4x większy czujnik tym samym przedmiotem. - podobnie jak portrety na matrycy wielkoformatowej to w zasadzie ujęcie makro - zbliżanie się znacznie bardziej niż w przypadku aparatu aps-c. Ta sama jakość elektroniki, ten sam obiektyw, te same ustawienia, to samo światło.
Tak to wygląda na małym czujniku, nazwijmy go „mini aps-cc”:
Tutaj widzimy „duży format” (duże pełne aps-c):
Widzimy tu mnóstwo szczegółów, prawda? Ale to nie ma znaczenia po przeskalowaniu go do obrazu 0,016 MP i wyostrzeniu dla ogólnego tego samego kontrastu, prawda?
Ale rzeczywiście to robimy! Jeśli nadal mi nie wierzysz, poddaję się :)
źródło
Wręcz przeciwnie, podarowanie kamery było niezwykle płytką głębią pola, która nie jest równoległa do płaszczyzny filmu. Ustawienie ostrości warg i oczu na kilku obrazach z postawą obiektu i bardzo płytkim DOF (tak często, jak nie, czoło w linii szczęki bezpośrednio pod oczami jest miękkie) jest niemożliwe bez pochylenia.
Istnieje również natura zakresów nieostrych; jest to bardziej typowe odwzorowanie zbliżone do rzeczywistego niż dalekie skupienie. Rozszerzenie DoF w kierunku kamery jest prawie równe rozszerzeniu w kierunku tła, czego można się spodziewać po zbliżeniu do reprodukcji 1: 1. Przy bardziej normalnych odległościach roboczych można oczekiwać około jednej trzeciej / dwóch trzecich widocznej ostrości wokół płaszczyzny ostrego ogniskowania (jedna trzecia DOF przed płaszczyzną ostrości; dwie trzecie z tyłu). Oznacza to, że „czujnik” jest znacznie większy niż APS-C, pełnoklatkowy, a nawet średni format. Doświadczenie z formatami 4x5 i 8x10 powiedziało mi, że bardziej prawdopodobne jest, że będzie to 8x10 (chociaż nawet jedna z rzadkich kamer o większym formacie nie byłaby wykluczona), i pomyślałem, że obiektyw 210 mm jest bardziej prawdopodobny niż, mówić,
Jak zauważył Michael Nielsen, na zdjęciach widać wiele „mikro kontrastów”, ale do pewnego stopnia można to sfałszować w późniejszym przetwarzaniu, szczególnie jeśli celem jest renderowanie w rozmiarach internetowych. I przypuszczam, że można by nawet sfałszować DoF i płaszczyznę ogniskowania, gdybyś pilnie tworzył mapę głębokości z gradientową płaszczyzną ogniskowania zastosowaną wobec czegoś, co właściwie musiałoby być modelem 3D obiektu i rozumiał dynamikę ogniskowania 8x10 około 50–60% reprodukcji naturalnej wielkości, ale to byłby jeden kawał pracy. Ekonomicznym rozwiązaniem, zarówno dla fotografa, jak i każdego, kto analizuje obraz, byłby prawdziwy aparat fotograficzny o rozdzielczości 8 x 10.
źródło
Nie, aparat o wysokiej rozdzielczości naprawdę nie ma znaczenia, gdy wyjście ma niską rozdzielczość, a przynajmniej nie, gdy przechodzisz z dwucyfrowych megapikseli do ćwierć jednego megapiksela. Zrób następujące zdjęcie:
Przeskalowany do Internetu wygląda dobrze, mimo że twarz fotografowanej osoby nawet nie była ostra! Jest to oczywiste, gdy ogląda się je w 100% i jest widoczne w druku, ale absolutnie nie można stwierdzić, kiedy czas został przeskalowany do 2% oryginalnych pikseli i wyostrzony dla Internetu.
Oto inny przykład, zrób niezwykle miękki oryginalny obraz o wielkości około 8 megapikseli:
Mocno obniżyć próbkę do rozdzielczości przyjaznej dla sieci, wyostrzyć i nagle spojrzeć na cały mikrokontrast!
Podwójne nadpróbkowanie z pewnością pomoże w rozdzielczości i wierności kolorów obrazów Bayera. Ale obraz z oryginalnego Canon Digital Rebel (300D) wydanego w 2003 roku w rozmiarze 600x400 jest 5-krotnym nadpróbkowaniem, w każdym kierunku, co oznacza, że każdy piksel w zmienionym obrazie zajmuje miejsce 25 oryginalnych pikseli. Bardzo niewiele z tych 25 pikseli ma wpływ na obraz o zmienionym rozmiarze.
Zwiększony mikrokontrast zapewniany przez system większego formatu po prostu nie będzie widoczny, makrokontrast, który widzisz, może być nadrobiony przez przetwarzanie końcowe, gdy masz tak dużą rozdzielczość, aby wyrzucić artefakty wyostrzania, nie będzie widoczny.
Jeśli dopasujesz głębię ostrości, niezwykle trudno będzie odróżnić aparat z widokiem 10 x 8 od aparatu kompaktowego po zmianie rozmiaru na mniej niż 1 megapiksel.
źródło
Podczas renderowania sceny z drobnymi szczegółami w obraz o niskiej rozdzielczości konieczne jest zastosowanie filtrowania przestrzennego, aby usunąć zawartość, której częstotliwość przekracza limit Nyquista. Podczas stosowania filtrowania przestrzennego istnieją dwa sprzeczne cele:
Treści, których częstotliwość przestrzenna jest wystarczająco niska, aby je wyświetlić, powinny być tłumione w możliwie najmniejszym stopniu.
Treści, których częstotliwości przestrzenne są podobne, należy tłumić w przybliżeniu równymi ilościami.
Aby zobaczyć, gdzie kolidują cele, wyobraź sobie scenę z wzorem zbieżnych linii. Jeśli odstępy zbliżają się nieco do limitu Nyquista dla rozdzielczości docelowej, ale linie są zawsze wystarczająco oddzielone, aby były wyraźnie widoczne, często lepiej będzie je wyraźnie pokazać niż rozmazać. Jeśli jednak scena zawiera wzór zbieżnych linii, które zbliżają się zbyt blisko, aby można je było rozróżnić, gdy linie stają się stopniowo bardziej rozmyte w miarę zbliżania się odstępów, granica rozdzielczości byłaby mniej rozpraszająca, niż gdyby linie były wyraźnie widoczne aż do punktu, w którym ostro przechodzi w jednolity szary.
W wielu przypadkach optymalny rodzaj filtrowania sceny będzie zależał od jej zawartości i interesujących aspektów. Uchwycenie sceny w rozdzielczości wyższej niż zamierzony format wyjściowy zapewni zachowanie wszystkich informacji, które mogą być potrzebne na ostatecznym obrazie. Informacje będą musiały zostać odfiltrowane, zanim obraz będzie mógł być renderowany w niższej rozdzielczości, ale przechwytywanie w wysokiej rozdzielczości umożliwi dostosowanie dokładnych metod filtrowania w celu optymalnego dopasowania do potrzeb sceny (i ewentualnie użycia różnych metod dla różnych części sceny). Jeśli ktoś chce renderować końcowy obraz w rozdzielczości 640x480, korzyść z przechwytywania go w rozdzielczości 6400x4800 prawdopodobnie nie byłaby znacznie większa niż w przypadku rozdzielczości 1600x1200, ale mogą być pewne korzyści z powiększenia do około 2,5x.
źródło