Czy 2 megapiksele wystarczą na zdjęcia w rozdzielczości HD?

12

Zdjęcia HD mają 1920 x 1080 = 2073600 pikseli = 2025 kilopikseli = 1,98 megapiksela.

Czy to oznacza, że ​​możemy robić zdjęcia HD aparatem 2 MP? Jeśli nie, dlaczego nie?

user2080105
źródło
2
Nie chcę być pedantyczny, ale myślę, że przyjęta definicja megapikseli to 1 milion pikseli, a nie 1 048 576. Tak więc HD miałoby 2,07 MP
MikeW
10
Myślę, że ogólnie z powodu zaokrąglania, tak naprawdę nie ma znaczenia, czy „megapiksele” są binarne czy dziesiętne. Megapiksel jest przydatnym terminem, ponieważ zdarza się, że znajduje się w zakresie, w którym uzyskujemy użyteczne dla ludzi małe liczby z aparatów cyfrowych (do tej pory). Rzadko używa się go w celu określenia dokładnej wartości - jeden aparat 16 megapikseli prawdopodobnie wygeneruje zdjęcia o nieco innym rozmiarze niż jeden od innej marki. Z tego samego podstawowego powodu „kilopiksel” nie jest prawdziwym słowem, ponieważ nie ma konkretnego przypadku, w którym byłby użyteczny.
Proszę przeczytać mój profil
2
Zasadniczo tak. W praktyce większość ludzi nie używa terminu HD w fotografii, chyba że używa go w celach marketingowych, ponieważ firmy wydają się chętnie obrzucać termin HD wszystkim wszystkim. Jeśli wyświetlasz obrazy na telewizorze 1080p, tak 2MP będzie wyglądać świetnie.
dpollitt,
Moim zdaniem wysoka rozdzielczość jest prawie zawsze dobra, ponieważ możesz wykadrować niepotrzebne części, których nie potrzebujesz i wyodrębnić dobre części zdjęcia. Jeśli musisz oszczędzać na rozdzielczości, trudniej jest swobodnie robić zdjęcia.
mtahmed

Odpowiedzi:

17

Jeśli rozdzielczość długa oś wynosi co najmniej 1920, a krótka krawędź co najmniej 1080, to tak, możesz robić zdjęcia HD bez konieczności zwiększania skali.

Jednak ze względu na zalety oversamplingu, uzyskasz lepszy obraz HD, chwytając obraz 16MP, a następnie zmieniając rozmiar za pomocą najlepszej dostępnej metody zmiany rozmiaru, np. Interpolacja lanczos, jeśli jest dostępna.

Innym problemem, który możesz napotkać, jest to, że aparat 2 MP nie został zaprojektowany z myślą o wysokiej jakości obrazowaniu (* chyba że mówisz coś w rodzaju Canona EOS D2000 z 1998 r., Który ma niewłaściwy współczynnik proporcji), więc oszczędzają koszty tylko czujnik, ale także reszta systemu obrazowania - optyka niskiej jakości, ADC, przetwarzanie itp., co daje niższą całkowitą rozdzielczość systemu i IQ.

Michael Nielsen
źródło
3
Byłbym skłonny postawić 90% populacji fotografującej, która mogłaby skorzystać z tego pytania, nie wiedziałaby, czym jest „interpolacja lanczos”. ; PI użyłoby wyrażenia „niektóre podstawowe skalowanie w dół w Photoshopie”, które jest więcej niż wystarczająco dobre do uśrednienia pikseli, zmniejszenia szumów i poprawy ostrości obrazu wyjściowego 1920x1080.
jrista
Pamiętasz moje oversamplingowe testy obrazu w innym pytaniu, w którym pokazałem, że drobna tekstura będzie się utrzymywać w wersji zmniejszonej, podczas gdy fotografowanie bezpośrednio do tej rozdzielczości nie uchwyciło tekstury? Zauważyłem, że efekt końcowy polegał na użyciu najlepszej dostępnej metody zmiany rozmiaru. Chyba mogę to napisać :)
Michael Nielsen
1
@jrista Nie wiem, jaka jest sytuacja w USA, ale tutaj w Europie Lanczos i inne filtry oparte na jądrach są częścią programu przedszkolnego;)
Matt Grum
1
@jrista Dlaczego nie podać więcej informacji? Nie wiem co to jest, ale ponieważ Michael o tym wspomniał, jestem w stanie przeprowadzić badania metod interpolacji, aby dowiedzieć się więcej.
Myridium
13

Nie, z powodu filtra Bayera. W rzeczywistości potrzebujesz około 11 megapikseli.

Co to jest filtr Bayera

Czujniki kolorowej kamery używają filtrów Bayera do przechwytywania różnych kolorów. Filtr Bayera skutecznie zmniejsza rozdzielczość czujnika o połowę dla każdego koloru (choć zielony pozostawia nieco więcej w strukturze szachownicy).

Każdy piksel na matrycy może tylko wychwycić albo czerwone, zielone lub niebieskie światło, ale nie wszystkie trzy kolory. Algorytm programowy musi później interpolować dane, aby odtworzyć zdjęcie w pełnej rozdzielczości w pełnym kolorze.

Demosaicing

Ten proces interpolacji (zwany odkażaniem ) przywróci wizualnie wiele efektywnych utraconych rozdzielczości, dzięki czemu będzie wyglądał dość ostro, ale może to zrobić tylko poprzez inteligentne domysły. To nie to samo, co gdybyś był w stanie uchwycić obraz w pełnej rozdzielczości.

Na przykład, podczas gdy usuwanie szumów jest dość dobre w odzyskiwaniu utraconej ostrości z filtru Bayera, wszelkie drobne szczegóły, takie jak włosy, grzebieniowe wzory lub cienkie paski, mogą cierpieć z powodu aliasingu , który może być wyświetlany jako kolorowe wzory interferencyjne:

( źródło )

(Te obrazy przedstawiają bardzo słabe algorytmy demozaikacyjne dla ilustracji. Nowoczesne aparaty - nawet telefony komórkowe - używają znacznie inteligentniejszych).

Nowoczesne algorytmy demaskowania są dość inteligentne i mogą zminimalizować efekt aliasingu, ale nadal nie mogą zachować drobnych szczegółów. Odległy płot pikietowy zarejestrowany na czujniku koloru 1920x1080 zachowa mniej efektywną rozdzielczość niż obraz RGB 1920x1080 wygenerowany komputerowo lub przeskalowany z większego czujnika lub zeskanowany na skanerze.

Jak wpływa to na rozdzielczość

(i jak wymyśliłem liczbę „11 megapikseli”)

Efektywna rozdzielczość uzyskanego obrazu po demozaikacji nie wygląda na połowę rozdzielczości deklarowanej przez czujnik, ze względu na korzyści uzyskane dzięki inteligentnym procedurom demaskowania i fakt, że zielony kanał, który dobrze koreluje z luminancją, ma więcej rozdzielczość niż inne kolory.

Ale nadal musiałby zostać zmniejszony o 50%, aby usunąć wszelkie straty spowodowane interpolacją. Jeśli naprawdę chcesz mieć pewność, że obraz ma „pełną rozdzielczość”, bez utraty szczegółów z powodu interpolacji, musisz mieć czujnik koloru o dwukrotnie większej rozdzielczości, zarówno w poziomie, jak i w pionie, a następnie ponownie próbkować uzyskany obraz do 50%.

Aby uchwycić pełną efektywną rozdzielczość 1920 x 1080, czujnik kamery kolorowej (z filtrem Bayera, który obejmuje 99% czujników kamery kolorowej) musiałby mieć dwukrotnie większą rozdzielczość: 3840 x 2160. To ponad 8,2 megapiksela. Ze względu na kadrowanie czujnika (ponownie ze względu na metodę demaskowania aparatu), aby mieć pewność, potrzebujesz efektywnie około 8,8 megapiksela.

I to tak, jeśli Twój czujnik miał idealny współczynnik proporcji 16: 9. Jeśli czujnik ma proporcje 3: 2, potrzebujesz około 10,7 megapiksela, aby uchwycić obraz o rozdzielczości 3840 x 2160, w tym odrzucone obszary na górze i na dole, aby nadrobić proporcje, oraz małe obramowanie, aby uwzględnić każdą kadrowanie przy zmniejszaniu rozmiaru .

Czujniki bez filtrów Bayera

Podczas gdy 99% czujników kamer kolorowych używa filtrów Bayera, niektóre wykorzystują alternatywny układ pikseli, ale zasada jest taka sama.

Istnieją również czujniki kolorów, które w ogóle nie potrzebują filtra kolorów, takie jak czujnik Fovean X3 , ale nadal są one wyjątkowo rzadkie i mają swoje własne problemy. Producenci również kłamią na temat liczby pikseli (aby konkurować z czujnikami wykorzystującymi filtr Bayera, gdzie liczba pikseli zawsze brzmi o wiele bardziej imponująco niż to wynika z wyżej opisanego filtra).

Inną alternatywą stosowaną przez niektóre drogie profesjonalne kamery wideo jest posiadanie trzech całkowicie oddzielnych czujników, po jednym dla każdego z czerwonego, zielonego i niebieskiego, i użycie rozdzielacza światła do rzucania tego samego obrazu na wszystkie trzy z nich. Oczywiście nie może to istnieć w lustrzance cyfrowej, aparacie kompaktowym ani w żadnym innym zwykłym aparacie do robienia zdjęć. Ale może to wyjaśnić, dlaczego liczby pikseli na czujnikach profesjonalnych kamer wideo nie mogą być porównywane z tymi na lustrzankach cyfrowych.

Ale i tak wideo korzysta z podpróbkowania chrominancji!

(Tylko dla umysłów technicznych)

Mimo że wideo (a czasem JPEG) wykorzystuje podpróbkowanie barwy, nadal potrzebuje kanału luminancji, aby zachować pełną rozdzielczość. Na obrazie z czujnika Bayera kanał luminancji nadal musi być obliczony przy użyciu procesu interpolacji, nawet jeśli przy dobrym algorytmie demozaikowania, może wydawać się, że zbliża się do pełnej rozdzielczości ze względu na wysoką korelację między luminancją a zielonym kanałem w większości zawartość.

thomasrutter
źródło
3
Twoja matematyka o rozdzielczości 11 megapikseli zakłada, że ​​formatowanie Bayera nie ma żadnej wartości. Rozsądni ludzie mogą nie zgodzić się z dokładną liczbą, ale z pewnością jest to coś mniej dramatycznego.
Proszę przeczytać mój profil
W jaki sposób wzięcie ramki 3840X1216, która została już interpolowana przed zmniejszeniem, może być bardziej dokładne niż ramka 1920X1080, która została interpolowana z tablicy Bayer 1920X1080? Wydaje mi się, że musielibyśmy nie interpolować kanałów RGB z większego obrazu. To musi być 2x w szerokości i umożliwić jeden R, jeden B i 2 g pikseli są połączone zamiast interpolowane , do każdego piksela 1920x1080 ramy.
Michael C
1
Jest późno i jestem trochę zmęczony, ale czy twoja matematyka nie zakłada, że ​​układ Bayera 4x4 to dyskretny piksel bez nakładania się?
John Cavan,
1
Tak, powiedziałem, że było późno ... :) 2x2 miałem na myśli. Jednak, o ile pamiętam, algorytm demosykowania matrycy nakłada się na siebie tak, że tablica 4x4 dałaby dane o wartości 9 pikseli. Mogę się jednak bardzo mylić.
John Cavan
1
Głosuję za odrzuceniem tej odpowiedzi, mimo że jest dobrze napisana, i oto dlaczego: prawie każda kamera, dzięki interpolacji Bayera, daje zdjęcia o tej samej liczbie pikseli co czujnik. Jest to powszechnie akceptowane. Jeśli mówimy o zdjęciu cyfrowym 12MP, możemy bezpiecznie założyć, że pochodzi on z aparatu 12MP, który technicznie ma czujnik 12MP. Z drugiej strony mówimy o rozdzielczości, ale musimy zająć się proporcjami obrazu i jakością obrazu jako całości. Interpolacja wiąże się z utratą jakości, ale oznacza to inny problem.
MattiaG
12

Masz rację, że obraz HD 1080p ma niecałe 2 megapiksele .

Teraz należy zachować ostrożność przy rozważaniu proporcji aparatu. Jeśli nagrywa natywnie obrazy 16: 9 i ma 2 MP, to masz wystarczającą rozdzielczość. Jeśli aparat ma czujnik 4: 3, który jest najbardziej powszechny w przypadku małych aparatów, aparat 2 MP najprawdopodobniej zarejestruje obraz 1680 x 1260. To niestety nie zapewnia wystarczającej rozdzielczości poziomej.

Z drugiej strony aparat 3 MP z matrycą 4: 3 generuje obrazy o wymiarach 2048 x 1536, co zwykle wystarcza do zmniejszenia skali i przycięcia do obrazu 1080p.

Itai
źródło
0

Istnieją trzy popularne tryby wideo w wysokiej rozdzielczości: Tryb wideo: Rozmiar klatki (szer. X wys.): Piksele w obrazie (rozdzielczość) Typ skanowania

  1. 720p 1.280x720 921,600 (prawie 1 MP) Progresywny
  2. 1080i 1.920 x 1.080 2.073.600 (> 2MP) z przeplotem
  3. 1080p 1.920x1,080 2.073.600 (> 2MP) Progresywne

zależy to od tego, jakie wykorzystanie planujesz. jeśli chcesz wyświetlać wideo na dużym ekranie (np. projektor), użyj wyższego trybu wideo, co najmniej 1080p, co oczywiście wymaga wyższej rozdzielczości (oznacza więcej megapikseli), aby płynnie wyświetlać obraz. Zwróć też uwagę, że użycie wyższej rozdzielczości oznacza większe zużycie miejsca na karcie pamięci i wymagałoby wyższej specyfikacji komputera do edycji wideo. Ale jeśli planujesz małą projekcję ekranu (Laptop, PC), zrobi to 720p.

Uwaga specjalna na temat typu skanowania progresywnego - to sposób wyświetlania, przechowywania lub przesyłania ruchomych obrazów, w którym wszystkie linie każdej klatki są rysowane w sekwencji. Główną zaletą skanowania progresywnego jest to, że ruch wydaje się płynniejszy i bardziej realistyczny.

Z przeplotem - powszechnie stosowana w analogowym wieku TV i CRT, to technika podwajania odbieranej częstotliwości klatek wprowadzanej wraz z sygnałem bez zużywania dodatkowej przepustowości. Głównym problemem jest twitter interline. Na przykład osoba telewizyjna ubrana w koszulę z delikatnymi ciemnymi i jasnymi paskami może pojawić się na monitorze wideo, jakby paski na koszuli „świeciły się”. Ten efekt aliasingu pojawia się, gdy obiekt zawiera szczegóły pionowe zbliżające się do poziomej rozdzielczości formatu wideo.

Jez'r 570
źródło