W jaki sposób kamera wysokiej rozdzielczości może mieć znaczenie, gdy wyjście ma niską rozdzielczość?

17

Pytanie jest inspirowane tym pytaniem pokazującym te zdjęcia .
Przyjęta odpowiedź sugeruje, że te zdjęcia zostały zrobione kamerą 8x10, a użycie aparatu 8x10 zostało potwierdzone w komentarzach.

Moje pytanie brzmi: jak możesz to stwierdzić?


Oglądane na stronie obrazy te mają wymiary 496 x 620 = 0,37 megapiksela (lub 720 x 900 = 0,65 megapiksela, jeśli klikniesz „pełny widok”).
Dlatego każdy aparat o rozdzielczości wyższej niż 0,37 Mpx powinien być w stanie robić te zdjęcia, co oznacza prawie każdy smartfon i kamerę internetową na rynku.

Wiem o czujnikach Bayera . Jednak najgorszym skutkiem działania czujnika Bayera powinno być zmniejszenie rozdzielczości o współczynnik cztery: Jeśli zmniejszysz obraz o współczynnik dwa razy w każdym kierunku, każdy piksel wyjściowy będzie zawierał dane z co najmniej jednego czujnika wejściowego dla każdego z kanały R / G / B.
Skalowanie w dół o współczynnik 4 nadal oznacza, że ​​jakikolwiek aparat o rozdzielczości większej niż 1,5 Mpx (zamiast 0,37 Mpx wyjścia) powinien być w stanie uchwycić te zdjęcia. Nadal mówimy o prawie każdym smartfonie i większości kamer na rynku.

Wiem o głębi kolorów . Ale JPG, format, którego używamy do wyświetlania tych zdjęć, to 8x3 = 24 bity. Według wyników DxOMark istnieje kilka aparatów, w tym Sony NEX 7 i Nikon D3200, które są w stanie uchwycić 24 bity koloru.
Więc nawet jeśli kamera internetowa za 10 USD nie jest w stanie uchwycić niuansów na tych zdjęciach, NEX 7 lub D3200 powinny to zrobić.

Wiem, że większość obiektywów ma niższą rozdzielczość niż większość czujników. Na przykład Nikkor 85 mm f / 1.4G jest najostrzejszym obiektywem Nikona według DxOMark i daje najlepszy przypadek odpowiadający rozdzielczości 19 Mpx w aparacie 24 Mpx (pełnoklatkowy Nikon D3X), podczas gdy najmniej ostry obiektyw ma najlepszy przypadek równy 8 Mpx na tym samym aparacie.
Ale najgorsze soczewki w ich bazie danych wciąż dają rząd wielkości o wiele większą rozdzielczość niż format wyjściowy tych przykładów.

Wiem o zakresie dynamicznym. Ale te obrazy kontrolują oświetlenie, aby nie rozjaśniały świateł ani nie gubiły cieni. Dopóki jesteś w stanie to zrobić, zakres dynamiczny nie ma znaczenia; i tak będzie mapowany na zakres wyjściowy JPG 0-255.
W obu przypadkach DxOMark mówi, że kilka kamer z pełnoklatkowymi lub mniejszymi czujnikami ma lepszy zakres dynamiki niż najlepszy z kamer średniego formatu.


Właśnie to wiem i nie ma w tych fragmentach teorii niczego, co mogłoby mi powiedzieć, jak można odróżnić kamerę o rozdzielczości 8 x 10 od Sony NEX 7, gdy widzisz wynik w formacie JPG 0,37 Mpx.

Zasadniczo, o ile rozumiem, nie powinno mieć znaczenia, ile megapikseli i ile głębi kolorów może przechwycić czujnik, o ile jest to co najmniej tyle, ile może reprezentować format wyjściowy.

Mimo to nie wątpię w ocenę odpowiedzi udzieloną przez Stana Rogersa. I nigdy nie widziałem czegoś podobnego pod względem postrzeganej ostrości z kamer z małymi matrycami.

Czy źle zrozumiałem, co oznacza rozdzielczość?

Chyba przede wszystkim pytam o teorię: w jaki sposób różnica między dwiema rozdzielczościami (mierzonymi w pikselach, lp / mm, głębi kolorów itp.) Może być widoczna w formacie wyświetlania, który ma mniejszą rozdzielczość niż którykolwiek z oryginałów?

Albo inaczej: czy jest coś, co może mnie powstrzymać od skopiowania tych zdjęć do piksela za pomocą Sony NEX 7 i oświetlenia o wartości 10 000 USD?

jg-faustus
źródło
2
Tak długo, jak masz idealne ujęcie w swoim ujęciu, fotografowanie w formacie RAW w stosunku do JPEG również nie ma przewagi. Rozdzielczość, głębia bitowa i dane RAW mają na celu maksymalne wykorzystanie możliwości zdjęcia! Małe zdjęcie internetowe dzisiaj, 4x wyświetlacz siatkówki lub jutro wysokiej jakości wydruk.
Henrik
1
Niestety mogę zaakceptować tylko jedną odpowiedź. Matt Grum przedstawia wiarygodny argument, że mały czujnik plus oświetlenie i odrobina przetwarzania końcowego mogą powielać może 95% tego, co widzimy na zdjęciach Martina Schoellera w rozmiarze sieci (z wyłączeniem efektów DoF). Myślę, że Michael Nielsen przedstawia wiarygodny argument, że możesz potrzebować lepszej niż typowa rozdzielczość systemu APS-C, aby uzyskać 100%. Stan Rogers wyjaśnia, jak rozpoznać aparat wielkoformatowy nawet na zdjęciach o rozmiarze internetowym. Sugeruję przeczytanie ich wszystkich :)
jg-faustus

Odpowiedzi:

10

Chodzi o mikro kontrast. Spójrz na posty o aps-c w porównaniu do pełnej klatki, a następnie rozszerz tę różnicę na czujniki średniego i dużego formatu.

Kiedy różnice między APS-C i pełnoklatkowymi czujnikami mają znaczenie i dlaczego?

Zgodnie z teoriami na temat nadpróbkowania lepiej jest próbkować z wyższą częstotliwością, a następnie próbkować w dół niż próbkować z limitem NYQUIST od samego początku - tj. jeśli Twoim celem końcowym jest 640 x 480, nadal lepiej jest użyć czujnika 1280 x 960 niż czujnika 640 x 480.

Zresztą nie ma znaczenia, ile MPixeli masz, gdy sąsiednie piksele zależą od siebie, ponieważ krąg pomieszania jest większy niż twoje piksele na płaszczyźnie czujnika. Soczewki mają również ograniczoną zdolność rozdzielczą. Co więcej, należy wziąć pod uwagę „ostrość” obiektywu w stosunku do jego apertury, a większy czujnik pozwala podejść bliżej i uzyskać węższy DOF, co oznacza, że ​​można uchwycić jeszcze więcej szczegółów - Koło pomyłki jest większe, obiektyw współpracuje z mniejsze rozproszenie itp.

A potem „kompresja głębi” wykonywana przez ogniskową obiektywu, która jest dość agresywna w tych ujęciach, wskazując na teleobiektyw. Pole widzenia małego czujnika wymagałoby od ciebie cofnięcia się o wiele i otwarcia apertury, aby uzyskać wąski DOF. Jednak przy użyciu liczb, z pełnoklatkowym aparatem, który możesz to osiągnąć, 210 mm, odległość 2 metry, F8 dałoby 4 cm DOF i pole widzenia, które robi tylko twarz jak te zdjęcia.

Innymi słowy: im większy czujnik względem obiektu, tym mniej soczewka musi działać na promienie świetlne, aby ścisnąć je w ciasne miejsce. Zwiększa to wyrazistość ujęcia i pokazuje bez względu na odległość oglądania (która jest symulowana przez zmianę rozmiaru obrazu do niższej rozdzielczości).

Następujące dyskusje na temat poprawy szczegółów i zachowania przez zmianę rozmiaru są porównanie, jeśli podobne tematy duży format w porównaniu do pełnej klatki i duży format w porównaniu do apsc:

U góry: męskie twarze z karczkami brody. W rozdzielczości witryny, do której linkujesz, broda jest renderowana za pomocą włosów o szerokości pikseli, ale wszystko to jest tracone w tym samym rozmiarze co przykład Matta. Teraz brody są rozproszone. Jeśli zobaczymy obraz Matta w tym samym rozmiarze co 8x10 zdjęć w witrynie, możemy zauważyć dużą różnicę, jeśli głowa nie będzie ostra. Nawet system aps-c i mniejszy czujnik mogą dać ten wynik (jeśli chodzi o szczegóły).

Na dole: czy porównujemy rzęsy twarzy kobiet w podobnym rozmiarze, jak na stronie, którą pokazałeś, z ostrym okiem z aparatu aps-c, a wyostrzenie nie przywróci porów w skórze. Możemy poprawić postrzeganie rzęs kosztem jasnego halo wokół niego.

Widzimy teraz ogromną różnicę rozdzielczości „całego systemu” , a kamera apsc + zastosowany obiektyw + widziany przy danej rozdzielczości niskiej rozdzielczości nie może renderować tych samych szczegółów, co kamera 8x10 + ten obiektyw + oglądana rozdzielczość . Mam nadzieję, że mój punkt widzenia jest teraz wyraźniejszy.

Detale

Kolejne porównanie do aps-c, odcinków brody, po ich ostrzeniu. Mimo że zmiana stosu zmienia ich rozmiar, nadal zauważamy różnicę w jasności.

apsc

Podsumowując, inne czynniki, o które pytasz, niż rozdzielczość w pikselach to:

  • Całkowita rozdzielczość systemu lp / mm
  • SNR
  • Powiększenie od osoby do czujnika na ekranie, na którym go oglądasz, z odległości, na którą patrzysz, z rzutu oka na rozdzielczość siatkówki - im mniejsze (poniżej 1: 1) powiększenie dowolnej części układu, tym wyższe wymagania dla powyższych dwóch czynników, na które z kolei negatywny wpływ ma mniejszy obszar projekcji.

Uzyskasz więcej szczegółów w zmniejszonym ujęciu makro niż bez fotografowania makro.

Ostatni dowód na to, że rozdzielczość przed zmniejszeniem rozdzielczości ma znaczenie. Góra: 21 MP FF Dół: 15 MP Aps-c przy tej samej ogniskowej obiektywu / przysłony.

Rozmiar / rozmiar czujnika różnicowego dwóch

Teraz przeskalowano do równej rozdzielczości:

Mały

Mniejszy

Najmniejszy

Malutki

i zastosowałem trochę wyostrzenia, aby przywrócić trochę szczegółów. Co widzisz? nieco więcej szczegółów z kamery Fmp 21mp oglądanej w tym samym rozmiarze / rozdzielczości, która byłaby równoważna z kamerą 3Mp. nie można policzyć linii na przeskalowanym obrazie, ale przekonanie, że są to linie, jest prawdziwe. Niezależnie od tego, czy chcesz tego, czy nie, to twój twórczy wybór, ale zaczynając od wyższej rozdzielczości (podanej przez cały system), masz wybór. Jeśli nie chcesz ich, możesz rozmazać obraz przed przeskalowaniem.

Ostatni eksperyment pokazujący różnicę między małym rozmiarem, niską rozdzielczością w porównaniu do większego czujnika, wyższą rozdzielczością, ale przeskalowanym i wyostrzonym do tej samej rozdzielczości, pokazanym w SAMYM ROZMIARU na końcu - z WSZYSTKIMI RÓWNYMI. Fajnie, co? Jak to zrobiłem? Mój aparat APS-C symuluję „czujnik przycinania” (mniejszy niż mój apc-c), wycinając zdjęcie z obrazu. Następnie zbliżam się do obiektu, aby wypełnić 4x większy czujnik tym samym przedmiotem. - podobnie jak portrety na matrycy wielkoformatowej to w zasadzie ujęcie makro - zbliżanie się znacznie bardziej niż w przypadku aparatu aps-c. Ta sama jakość elektroniki, ten sam obiektyw, te same ustawienia, to samo światło.

Tak to wygląda na małym czujniku, nazwijmy go „mini aps-cc”:

Mały czujnik

Tutaj widzimy „duży format” (duże pełne aps-c):

aps-c

Widzimy tu mnóstwo szczegółów, prawda? Ale to nie ma znaczenia po przeskalowaniu go do obrazu 0,016 MP i wyostrzeniu dla ogólnego tego samego kontrastu, prawda?

Porównanie równej wielkości

Ale rzeczywiście to robimy! Jeśli nadal mi nie wierzysz, poddaję się :)

Michael Nielsen
źródło
Uwaga na temat wzoru labiryntu wyświetlanego przez te rośliny: jest to artefakt interpolacji Bayera wspólny dla demaskowania bayer AHD.
Michael Nielsen
Jednak wrażenie, że jest to tablica linii, jest bardziej zgodne z oryginałem niż widzenie szarego pola. To samo, co oglądanie porów w skórze, może nie taka dokładna ilość jak w prawdziwym życiu, ale one tam będą.
Michael Nielsen
Dzięki, ciekawe porównania. Wygląda na to, że ostrość / szczegółowość (lub przynajmniej iluzja szczegółów) przetrwa bardziej niższą skalę niż myślałem. Dałeś mi coś do rozważenia.
jg-faustus
pamiętaj, że zbieżne linie to koszmar dla algorytmów interpolacji i WIEMY, jak POWINIEN wyglądać, nie mamy takich samych założeń co do szczegółów w ładnej fakturze skóry, więc nawet punkt porusza się o pół piksela w twarz, którą wciąż wygląda niesamowite. W najmniejszym przykładzie powyżej nadal widzimy, że ma linie w dół do drugiego pionu.
Michael Nielsen,
Michael, powiązane pytanie - co jeśli rozmiar czujnika jest taki sam? Czy zamierzam uzyskać lepsze wyniki z matrycy APS-C z natywną rozdzielczością 16 MP, ale powiedzmy, że próbkowanie zostało obniżone do 8 MP, w przeciwieństwie do zakupu (hipotetycznego) aparatu z matrycą ASP-C 8 MP?
Vaddadi Kartick,
7

Wręcz przeciwnie, podarowanie kamery było niezwykle płytką głębią pola, która nie jest równoległa do płaszczyzny filmu. Ustawienie ostrości warg i oczu na kilku obrazach z postawą obiektu i bardzo płytkim DOF (tak często, jak nie, czoło w linii szczęki bezpośrednio pod oczami jest miękkie) jest niemożliwe bez pochylenia.

Istnieje również natura zakresów nieostrych; jest to bardziej typowe odwzorowanie zbliżone do rzeczywistego niż dalekie skupienie. Rozszerzenie DoF w kierunku kamery jest prawie równe rozszerzeniu w kierunku tła, czego można się spodziewać po zbliżeniu do reprodukcji 1: 1. Przy bardziej normalnych odległościach roboczych można oczekiwać około jednej trzeciej / dwóch trzecich widocznej ostrości wokół płaszczyzny ostrego ogniskowania (jedna trzecia DOF przed płaszczyzną ostrości; dwie trzecie z tyłu). Oznacza to, że „czujnik” jest znacznie większy niż APS-C, pełnoklatkowy, a nawet średni format. Doświadczenie z formatami 4x5 i 8x10 powiedziało mi, że bardziej prawdopodobne jest, że będzie to 8x10 (chociaż nawet jedna z rzadkich kamer o większym formacie nie byłaby wykluczona), i pomyślałem, że obiektyw 210 mm jest bardziej prawdopodobny niż, mówić,

Jak zauważył Michael Nielsen, na zdjęciach widać wiele „mikro kontrastów”, ale do pewnego stopnia można to sfałszować w późniejszym przetwarzaniu, szczególnie jeśli celem jest renderowanie w rozmiarach internetowych. I przypuszczam, że można by nawet sfałszować DoF i płaszczyznę ogniskowania, gdybyś pilnie tworzył mapę głębokości z gradientową płaszczyzną ogniskowania zastosowaną wobec czegoś, co właściwie musiałoby być modelem 3D obiektu i rozumiał dynamikę ogniskowania 8x10 około 50–60% reprodukcji naturalnej wielkości, ale to byłby jeden kawał pracy. Ekonomicznym rozwiązaniem, zarówno dla fotografa, jak i każdego, kto analizuje obraz, byłby prawdziwy aparat fotograficzny o rozdzielczości 8 x 10.


źródło
Zwiększenie mikrokontrastu w poście wprowadza jednak artefakty, a także algorytmy „odgadują” szczegóły, więc nie byłby to ten sam obraz.
Michael Nielsen,
@Michael, ale w reprodukcji o zmienionym rozmiarze mogą one być dla wszystkich celów nieoczywiste? Albo nie?
Francesco,
Czy „do pewnego stopnia” było niejednoznaczne?
Czy masz na myśli, jeśli najpierw wyostrzysz, a następnie zmienisz rozmiar w miejscu, w którym wymazane jest ulepszenie, chyba że okno filtra górnoprzepustowego jest tak ogromne, że wprowadza dzwonienie w ramce? Szczegóły tych portretów są tak niesamowite, że jeśli przyjrzysz się skórze o wymiarach 1x50 pikseli, wygląda to jak obraz binarny, który z łatwością może wytworzyć pierścienie halo z filtrami wyostrzającymi.
Michael Nielsen
3
@MichaelNielsen podczas robienia ogromnego próbkowania możesz wprowadzić aliasing w całkowicie miękkim obrazie (bez mikrokontrastu) i uzyskać wyjątkowo ostry obraz bez halo i innych artefaktów wyostrzania. Gdyby nie pochylona płaszczyzna ostrości, nie można by powiedzieć, że te obrazy są wielkoformatowe, patrząc na pozorne „szczegóły”
Matt Grum
4

Nie, aparat o wysokiej rozdzielczości naprawdę nie ma znaczenia, gdy wyjście ma niską rozdzielczość, a przynajmniej nie, gdy przechodzisz z dwucyfrowych megapikseli do ćwierć jednego megapiksela. Zrób następujące zdjęcie:

Przeskalowany do Internetu wygląda dobrze, mimo że twarz fotografowanej osoby nawet nie była ostra! Jest to oczywiste, gdy ogląda się je w 100% i jest widoczne w druku, ale absolutnie nie można stwierdzić, kiedy czas został przeskalowany do 2% oryginalnych pikseli i wyostrzony dla Internetu.

Oto inny przykład, zrób niezwykle miękki oryginalny obraz o wielkości około 8 megapikseli:

Mocno obniżyć próbkę do rozdzielczości przyjaznej dla sieci, wyostrzyć i nagle spojrzeć na cały mikrokontrast!

Podwójne nadpróbkowanie z pewnością pomoże w rozdzielczości i wierności kolorów obrazów Bayera. Ale obraz z oryginalnego Canon Digital Rebel (300D) wydanego w 2003 roku w rozmiarze 600x400 jest 5-krotnym nadpróbkowaniem, w każdym kierunku, co oznacza, że ​​każdy piksel w zmienionym obrazie zajmuje miejsce 25 oryginalnych pikseli. Bardzo niewiele z tych 25 pikseli ma wpływ na obraz o zmienionym rozmiarze.

Zwiększony mikrokontrast zapewniany przez system większego formatu po prostu nie będzie widoczny, makrokontrast, który widzisz, może być nadrobiony przez przetwarzanie końcowe, gdy masz tak dużą rozdzielczość, aby wyrzucić artefakty wyostrzania, nie będzie widoczny.

Jeśli dopasujesz głębię ostrości, niezwykle trudno będzie odróżnić aparat z widokiem 10 x 8 od aparatu kompaktowego po zmianie rozmiaru na mniej niż 1 megapiksel.

Matt Grum
źródło
czy mogę zobaczyć jego twarz w tym samym rozmiarze co portrety?
Michael Nielsen
tak, kiedy wrócę do domu i wykopię oryginały!
Matt Grum,
Muszę się nie zgodzić z tępym stwierdzeniem „kamera o wysokiej rozdzielczości naprawdę nie ma znaczenia, gdy wyjście ma niską rozdzielczość”. Nadmierne próbkowanie i współczynniki powiększenia mają znaczenie w końcowych wynikach (do pewnego limitu).
Michael Nielsen
1
dostajesz ładne szczegóły na małym obrazie właśnie dlatego, że tyle razy próbkowałeś. Gdybyś użył tylko 2x nadpróbkowania z tą samą ilością rozmycia, nie uzyskałby żadnych szczegółów skóry. I przesadziłeś z ostrzeniem, jego włosy wyglądają dziwnie. Co więcej, to ujęcie wygląda jak typowy obraz niskiej jakości. nic podobnego do tych obrazów, o których mówimy, które zachowują więcej szczegółów niż system APS-C z przyzwoitym obiektywem.
Michael Nielsen,
Dzięki za najnowszy przykład, wydaje się wiarygodne, że coś takiego jak zdjęcia połączone w pytaniu można stworzyć za pomocą czujnika APS-C. @MichaelNielsen Ale to jest ten rodzaj nadpróbkowania, o jaki chodzi w pytaniu, np. Zmniejszanie skali mówi, że strzał APS-C 16 Mpx do rozmiaru strony <1 Mpx. Więc jeśli chodzi o nadpróbkowanie, czy np. Nadpróbkowanie 7x (49 pikseli na wyjściu 1px) może być wyraźnie lepsze niż nadpróbkowanie 5x? Skłaniam się ku „prawdopodobnie nie”, w twoim przykładzie z liniami nie widzę dużej / żadnej różnicy poza 4x oversamplingiem.
jg-faustus
1

Podczas renderowania sceny z drobnymi szczegółami w obraz o niskiej rozdzielczości konieczne jest zastosowanie filtrowania przestrzennego, aby usunąć zawartość, której częstotliwość przekracza limit Nyquista. Podczas stosowania filtrowania przestrzennego istnieją dwa sprzeczne cele:

  1. Treści, których częstotliwość przestrzenna jest wystarczająco niska, aby je wyświetlić, powinny być tłumione w możliwie najmniejszym stopniu.

  2. Treści, których częstotliwości przestrzenne są podobne, należy tłumić w przybliżeniu równymi ilościami.

Aby zobaczyć, gdzie kolidują cele, wyobraź sobie scenę z wzorem zbieżnych linii. Jeśli odstępy zbliżają się nieco do limitu Nyquista dla rozdzielczości docelowej, ale linie są zawsze wystarczająco oddzielone, aby były wyraźnie widoczne, często lepiej będzie je wyraźnie pokazać niż rozmazać. Jeśli jednak scena zawiera wzór zbieżnych linii, które zbliżają się zbyt blisko, aby można je było rozróżnić, gdy linie stają się stopniowo bardziej rozmyte w miarę zbliżania się odstępów, granica rozdzielczości byłaby mniej rozpraszająca, niż gdyby linie były wyraźnie widoczne aż do punktu, w którym ostro przechodzi w jednolity szary.

W wielu przypadkach optymalny rodzaj filtrowania sceny będzie zależał od jej zawartości i interesujących aspektów. Uchwycenie sceny w rozdzielczości wyższej niż zamierzony format wyjściowy zapewni zachowanie wszystkich informacji, które mogą być potrzebne na ostatecznym obrazie. Informacje będą musiały zostać odfiltrowane, zanim obraz będzie mógł być renderowany w niższej rozdzielczości, ale przechwytywanie w wysokiej rozdzielczości umożliwi dostosowanie dokładnych metod filtrowania w celu optymalnego dopasowania do potrzeb sceny (i ewentualnie użycia różnych metod dla różnych części sceny). Jeśli ktoś chce renderować końcowy obraz w rozdzielczości 640x480, korzyść z przechwytywania go w rozdzielczości 6400x4800 prawdopodobnie nie byłaby znacznie większa niż w przypadku rozdzielczości 1600x1200, ale mogą być pewne korzyści z powiększenia do około 2,5x.

supercat
źródło