Z czysto teoretycznego punktu widzenia: więcej megapikseli jest dobrych .
Ludzie często mówią o tym, jak wysokie czujniki megapikselowe radzą sobie teraz z większością obiektywów, dlatego nie było sensu sięgać wyżej, chyba że zastosowano najlepsze szkło. To nie zawsze jest prawdą. Rozdzielczość systemu jest iloczynem rozdzielczości obiektywu i rozdzielczości czujnika. Zatem jeśli poprawisz jedną, rozdzielczość twojego systemu poprawi się niezależnie od drugiej. W końcu osiągasz coraz mniejsze zyski, ale z teoretycznego punktu widzenia czujnik nie może rozwiązać obiektywu, dopóki nie przejdą efekty dyfrakcyjne.
Teoretycznie dla stałej wielkości wyjściowej szum jest niezależny od rozdzielczości czujnika. Tak, mniejsze piksele przechwytują mniej światła, dlatego poziom szumów na piksel jest wyższy. Ale jeśli zmienisz rozmiar obrazu o wysokiej megapikselach, aby dopasować go do niższego, uśredniasz wartości pikseli, dzięki czemu szum jest wyrównany. Ludzie regularnie narzekają na hałaśliwe aparaty kompaktowe o wysokiej rozdzielczości megapikselowej podczas oglądania obrazów w 100%. Ale to całkowicie niesprawiedliwe porównanie.
Z praktycznego punktu widzenia: więcej megapikseli nie jest złe
Z praktycznego punktu widzenia hałas jest bardziej skomplikowany, ale dowody, które widziałem, sugerują, że czujniki o wysokim MP nie są znacznie głośniejsze w porównaniu z tym samym rozmiarem obrazu (patrz wyżej). Poszukam linków.
Sytuację w zakresie rozdzielczości komplikuje fakt, że [większość] czujników nie widzi kolorów, a zatem ma siatkę Bayera, która wymaga filtra antyaliasingowego. Aliasing jest najgorszy, gdy częstotliwość próbkowania odpowiada częstotliwości sygnału (tj. Szczegółów obrazu). Zwiększenie liczby megapikseli szybciej niż wzrost częstotliwości sygnału powinno poprawić aliasing do tego stopnia, że tradycyjny filtr aliasingu może zostać usunięty.
Istnieją inne praktyczne problemy związane z umiejętnością wydobywania dodatkowych szczegółów z czujnika:
Reguła 1 / ogniskowa nie ma już zastosowania, gdy zwiększasz liczbę megapikseli, potrzebujesz coraz większej stabilizacji, a także dłuższych czasów otwarcia migawki, gdy ruch obiektu staje się bardziej widoczny.
Dyfrakcja staje się większym problemem, gdy zwiększasz liczbę megapikseli, ponieważ piksele stają się mniejsze niż dysk Airy .
Wymagania dotyczące przetwarzania i przechowywania danych są wyższe.
Warto podkreślić, że nie są to wady wyższych liczby megapikseli, ponieważ zawsze można zmniejszyć rozmiar zdjęć i nic nie stracisz w porównaniu do aparatu o niższej liczbie megapikseli. Wyjątkiem jest przetwarzanie danych w aparacie, ponieważ podczas robienia zdjęć aparat musi odczytać cały czujnik i jakoś przetworzyć te informacje.
Jak wysoko możesz iść? Widziałem obliczenia przysłony ograniczającej dyfrakcję dla światła czerwonego z 350 megapikselowym pełnoklatkowym czujnikiem o wartości f / 2.8 (światło zielone i niebieskie wymagające jeszcze większych przysłon), co daje pomysł. Osobiście uważam, że twoje zwroty byłyby mniejsze niż 50-megapikselowy czujnik 35 mm, maksymalnie do 75-100. Gdy dostrzeżesz zauważalną dyfrakcję na f / 5.6, ludzie będą bezinteresowni, a kiedy będziesz musiał otworzyć się na f / 2.8 z obiektywem, który jest ostry jak brzytwa na f / 2.8, wyścig megapikseli jest skończony.
Większe formaty pozwalają na zastosowanie większej liczby megapikseli przed ustawieniem dyfrakcji (przy danym przysłonie f / stop), jednak głębia ostrości jest mniejsza przy tym samym przysłonie f / stop, co wymaga większego zatrzymania w celu uzyskania głębi ostrości, więc wydaje się, że nie ma istotnej przewagi, gdy chodzi o dyfrakcję (chociaż łatwiej jest robić soczewki, które są ostre przy ograniczeniu dyfrakcji dla większego formatu).
Istnienie 80-megapikselowych aparatów średnioformatowych wskazuje na to, że byłoby to możliwe, jeśli chodzi o dyfrakcję, przy wystarczająco dobrym szkle. Chociaż użytkownicy takich kamer wskazują, jak trudno jest wykorzystać 80 MP, wskazuje to na dobry praktyczny limit, jeśli nie teoretyczny.
Inne pytanie w przypadku większej liczby megapikseli nie brzmi: „Czy klarowność obrazu od krawędzi do krawędzi jest lepsza”, ale „Czy jest coś, co mogę zrobić z dodatkowymi bitami”? Jedną rzeczą, którą widzę coraz bardziej, jest elastyczność zmiany przeznaczenia zdjęć przez przycinanie po prostu dlatego, że przycięty obraz nadal ma wystarczającą rozdzielczość do wielu, jeśli nie większości, celów.
I ... jeśli / kiedy obiektywy będą pasować do rozdzielczości czujników wyższej klasy (nie jestem przekonany, że wszystkie obiektywy są wyprzedzane przez najlepsze czujniki DSLR), to prawdopodobnie będziesz zadowolony z dodatkowej rozdzielczości.
Powtarzanie nastroju „więcej pikseli oznacza wolniejsze zapisywanie na nośniku” może być problemem podczas kręcenia akcji oraz w co najmniej jednym innym (krawędziowym) przypadku: HDR z ręki.
źródło
Od dawna uważam, że dla zwykłych użytkowników więcej megapikseli nie daje korzyści w świecie rzeczywistym.
Zalety większej liczby megapikseli:
Wady więcej megapikseli:
Jeśli więc nie robisz zdjęcia z zamiarem powiększenia go do rozmiaru A1 lub większego (tablice reklamowe itp.), Po prostu nie potrzebujesz megapikseli. Do regularnego przeglądania na ekranie lub drukowania albumu rodzinnego niższa megapiksel (8-12) będzie wystarczająca i zapewni ostrzejsze rezultaty.
Zauważ, że te sentymenty oparte są wyłącznie na moich własnych obserwacjach w rzeczywistym użyciu. Nie są w żaden sposób naukowi ...
źródło
Ogólnie więcej megapikseli jest lepszych. Jednak ostrość zdjęć aparatu ma więcej niż jeden czynnik. Na przykład, jeśli masz obrazy o rozdzielczości 500 megapikseli, obiektyw nadal ograniczy ostrość obrazów do czegoś znacznie niższej rozdzielczości. Wiele aparatów punktowych i fotografujących ma wystarczającą liczbę megapikseli i wystarczająco tanie obiektywy, więc ograniczonym czynnikiem jest wyraźnie obiektyw, a nie liczba pikseli.
Niewielkimi wadami dużej liczby megapikseli jest wolniejszy transfer z aparatu do komputera oraz większe pliki na komputerze i karcie pamięci. Ogólnie można ustawić mniejszy rozmiar obrazu w aparacie, ale nie może to wpływać na obrazy RAW.
Poza niedogodnościami i dodatkowymi kosztami obrazu zbyt wiele megapikseli nic nie zaszkodzi.
źródło
Wydaje się, że nikt nie poruszył kwestii obszaru wrażliwego na światło. Czujniki mogą być podświetlane z przodu lub z tyłu, co spowoduje różne efekty przy zwiększaniu liczby pikseli.
Czujnik podświetlany z przodu
Czujnik oświetlony z przodu będzie miał tranzystory i ścieżki elektryczne po wrażliwej na światło stronie czujnika. Elementy te pokryją części czujnika i zmniejszą obszar wrażliwy na światło. Dodanie większej liczby pikseli oznacza więcej tranzystorów i zmniejszenie obszaru wrażliwego na światło.
Mniejszy obszar wrażliwy na światło powoduje niższą wydajność.
Można to nieco złagodzić za pomocą mikrosoczewek.
Podświetlany czujnik
Ponieważ tranzystory dla każdego piksela i ścieżki elektryczne nie są po tej samej stronie co obszar wrażliwy na światło, czujniki podświetlane będą miały ten sam obszar wrażliwy na światło, nawet jeśli liczba pikseli wzrośnie.
źródło
Czasami więcej pikseli jest zła.
Chcesz lepszych pikseli, a nie więcej, w zależności od rozmiaru czujnika. Potrzebujesz wystarczająco dużych czujników, aby móc przechwycić wystarczającą liczbę fotonów.
Podczas gdy czujniki stają się coraz mniejsze, prawo Moore'a i tak dalej, fotony nie są.
źródło
Więcej megapikseli jest zawsze dobre praktycznie i teoretycznie.
Po pierwsze megapiksele to po prostu milion pikseli. Im więcej z nich musisz pracować, tym lepiej. Zawsze.
Omawiane ograniczenia są złym sposobem myślenia. Aby spróbować stworzyć analogię dla fotografów:
Założę się, że poszedłeś z 42mp. Założę się, że wszyscy to zrobili. Dyskredytowanie pytania z powodu innych elementów, takich jak soczewki, miejsce na dysku lub moc obliczeniowa, jest rodzajem problemu stycznego do rzeczywistego pytania.
Inną ważną rzeczą, na którą należy zwrócić uwagę, jest to, że za pomocą przyzwoitego obiektywu makro można połączyć ze sobą setki pojedynczych klatek o rozdzielczości N megapikseli w jedną ogromną. Oto około 80 gigapikselowych zdjęć, z których każdy może się cieszyć.
Chodzi mi o to, ponieważ większość problemów, które ludzie mówią, ponieważ potencjalne wady nie są wadami megapikseli, ale wadami innych urządzeń. Obiektyw, który nie może uzyskać ostrości od krawędzi do krawędzi, nie powinien mieć żadnego związku z tym pytaniem.
Kiedy więc powinieneś szukać więcej megapikseli? Zawsze. Im więcej megapikseli na ramkę, tym lepiej. Im więcej masz opcji przycinania, tym mniej musisz zszyć, tym łatwiej jest wybierać rzeczy do celów przetwarzania końcowego itp.
I zanim ktoś powie, ale co z większymi pikselami - znowu to wszystko jest równe. Istnieje wiele innych czynników określających kamerę, ale pytanie dotyczy tylko liczby megapikseli. Apple, Sony i inni, którzy chcą tworzyć większe piksele, są mile widzianym dodatkiem, a jeśli możesz mieć dwa razy więcej tych większych pikseli, a wszystko jest równe, w tym koszty. Za każdym razem.
źródło
W pełni zgadzam się z odpowiedziami Matta i Steve'a, ale myślę, że należy również wziąć pod uwagę ogromne zalety posiadania wyższej rozdzielczości podczas przetwarzania końcowego obrazów. Ogólnie rzecz biorąc, więcej megapikseli da znacznie lepsze obrazy, jeśli spróbujesz jak najlepiej wykorzystać przetwarzanie końcowe (pod warunkiem, oczywiście, że nie porównujesz złego, hałaśliwego aparatu z dużą liczbą megapikseli z dobrym, cichym aparatem z mniejsza liczba megapikseli, zwróć uwagę, że pytanie wyraźnie wspomina o nowoczesnej technologii czujników).
Zdjęcia wykonane najlepszym aparatem przez dobrych fotografów często mają nieco większą rozdzielczość niż jest to uzasadnione jakością obrazu. Ponadto, jak zauważa Matt, nawet idealne ujęcie z idealnym obiektywem miałoby nieostrość z powodu dyfrakcji, jeśli rozdzielczość jest wystarczająco wysoka. Można więc zadać pytanie, czy zwiększenie rozdzielczości o, powiedzmy, współczynnik dziesięciu byłoby przydatne, jeśli typowe zdjęcia wykazują już nieostry podziałek długości dłuższy niż rozmiar w pikselach.
Rozważmy punkt Mike'a dotyczący nieostrości w obszarach kontrastu. Załóżmy, że jasność zmienia się gwałtownie z jednej wartości na drugą na ponad 4 pikselach, a przy dziesięciokrotnej rozdzielczości zmiana ta następowałaby bardziej stopniowo na 40 pikselach. Biorąc pod uwagę ten drugi obraz, mogę znacznie dokładniej obliczyć funkcję rozproszenia punktów, ponieważ mam dziesięć razy więcej punktów danych. Pozwoliłoby mi to na wyostrzenie obrazu za pomocą dekonwolucji znacznie dokładniej. Dekonwolucja wygeneruje artefakty. Im dokładniejsze są obliczenia, tym lepsza jest równowaga między odzyskanymi szczegółami a fałszywymi artefaktami.
Inną aplikacją jest poprawienie prześwietlenia, gdy wartość jasności małych części obrazu jest maksymalnie przycięta (również na surowym obrazie). Bez korzyści płynących z wielu zdjęć o różnej ekspozycji nie można utworzyć obrazu HDR. Ale możesz wziąć pod uwagę krawędzie prześwietlonego obszaru na obrazie, a następnie za pomocą funkcji lokalnego rozproszenia punktów (którą można spróbować obliczyć z pobliskich obszarów o wysokim kontraście), możesz obliczyć prawidłową jasność (również gradienty i wyższego rzędu instrumenty pochodne) tylko w obszarach prześwietlonych.
Oczywiście będzie to działać znacznie lepiej, im więcej pikseli będziesz musiał pracować, a obraz nie będzie idealnie ostry. Podczas gdy wyniki takiego ćwiczenia będą dość ograniczone (nie będziesz w stanie przywrócić szczegółów wewnątrz prześwietlonego obszaru), myślę, że po prostu poprawienie koloru brzydkiego białego prześwietlonego obszaru może być tego warte.
źródło