Ta strona porównuje aparaty Canon EOS 550D i Canon EOS 500D oraz wzmianki
18,7 miliona efektywnych pikseli
dla 550D. Jednak najlepsza możliwa rozdzielczość przy użyciu tego aparatu to
5184 * 3456 = 17915904 ~ 17.9 million pixels
Co to są efektywne piksele i dlaczego ta liczba jest większa niż 17,9 miliona w tym przypadku?
Odpowiedzi:
Częścią tego, co tutaj widzimy, jest (jestem dość pewny) niczym więcej niż zwykłą literówką (lub czymś w tej kolejności) ze strony DPReview.com. Według Canona [PDF, strona 225] liczba dołków czujnika wynosi „około 18,00 megapikseli”.
Są one następnie zmniejszane do około 17,9 megapiksela, gdy wejścia wzorca Bayera są przekształcane w coś, co większość z nas uważa za piksele. Różnica jest dość prosta: każda studzienka czujnika wykrywa tylko jeden kolor światła, ale piksel, jak zwykle oczekuje się na wyjściu (np. Plik JPEG lub TIFF), ma trzy kolory dla każdego piksela. Na pierwszy rzut oka mogłoby się wydawać, że oznaczałoby to, że plik miałby tylko około jedną trzecią tylu pikseli, ile jest wejść do czujników. Oczywiście tak nie jest. Oto (uproszczony widok), jak to działa:
Każda litera reprezentuje jedną studzienkę na czujniku. Każde pole reprezentuje jeden trójkolorowy piksel, który trafi do pliku wyjściowego.
W „wewnętrznej” części czujnika każdy piksel wyjściowy zależy od sygnału wejściowego z czterech dołków czujnikowych, ale każdy dołek czujnikowy jest wykorzystywany jako sygnał wejściowy do czterech różnych pikseli wyjściowych, więc liczba sygnałów wejściowych i liczba sygnałów wyjściowych pozostaje taka sama.
Jednak wokół krawędzi mamy dołki czujnikowe, które przyczyniają się tylko do dwóch pikseli zamiast czterech. W rogach każda studzienka czujnika przyczynia się tylko do jednego piksela wyjściowego.
Oznacza to, że całkowita liczba pikseli wyjściowych jest mniejsza niż liczba dołków czujnika. W szczególności wynik jest mniejszy o jeden wiersz i jedną kolumnę w porównaniu do danych wejściowych (np. W tym przykładzie mamy czujnik 8x3, ale piksele wyjściowe 7x2).
źródło
Nie wiem, dlaczego DPReview używa terminu „efektywny”, ale istnieje kilka powodów rozbieżności między liczbą stron (pikseli) na chipie a rozmiarem uzyskanych obrazów w pikselach.
Niektóre czujniki kamery mają pasek zamaskowanych pikseli po każdej stronie. Te piksele są identyczne z większością pikseli na czujniku, z tym wyjątkiem, że nie otrzymują światła. Służą do wykrywania zakłóceń i odejmowania ich od sygnału wytwarzanego przez czułe na światło piksele.
Po drugie [dobre] algorytmy demozaikacji używają wielu „operacji sąsiedzkich”, co oznacza, że wartość piksela zależy w pewnym stopniu od wartości sąsiednich pikseli. Piksele na skrajnej krawędzi obrazu nie mają sąsiadów, więc przyczyniają się do innych pikseli, ale nie dodają do wymiarów obrazu.
Możliwe jest również, że kamera przycina czujnik z innych powodów (np. Koło obrazu obiektywu nie do końca zakrywa czujnik), chociaż wątpię, aby tak było w przypadku 550D.
źródło
Są dwa powody, dla których efektywne piksele są mniejsze niż rzeczywista liczba pikseli czujnika (elementy wykrywające lub czujniki). Po pierwsze, czujniki Bayera składają się z „pikseli”, które wykrywają pojedynczy kolor światła. Zwykle są to czerwone, zielone i niebieskie seledele, ułożone w pary rzędów w postaci:
Pojedynczy „piksel”, jak większość z nas go zna, piksel w stylu RGB ekranu komputera, jest generowany z czujnika Bayera poprzez połączenie czterech sensorów, kwartetu RGBG:
Ponieważ siatka 2x2 z czterema panelami RGBG jest używana do wygenerowania pojedynczego piksela komputerowego RGB, nie zawsze jest wystarczająca ilość pikseli wzdłuż krawędzi czujnika, aby utworzyć pełny piksel. „Dodatkowe” obramowanie pikseli jest zwykle obecne na czujnikach Bayera, aby to uwzględnić. Dodatkowa ramka pikseli może również występować po prostu w celu skompensowania pełnego projektu czujnika, służyć jako piksele kalibracyjne i pomieścić dodatkowe elementy czujnikowe, które zwykle obejmują filtry IR i UV, filtry antyaliasingowe itp., Które mogą blokować pełna ilość światła docierającego do zewnętrznego obwodu czujnika.
Na koniec czujniki Bayera muszą zostać „odkażone”, aby uzyskać normalny obraz RGB pikseli komputerowych. Istnieje wiele różnych sposobów demozaikacji czujnika Bayera, jednak większość algorytmów stara się zmaksymalizować liczbę pikseli RGB, które można uzyskać, mieszając piksele RGB z każdego możliwego nakładającego się zestawu 2x2 kwartetów RGBG:
W przypadku czujnika z 36 jednokolorowymi wzorami można wyodrębnić łącznie 24 piksele RGB. Zwróć uwagę na nakładający się charakter algorytmu demozaikacji, oglądając animowany plik GIF powyżej. Zwróć także uwagę, jak podczas trzeciego i czwartego przejścia nie użyto górnego i dolnego rzędu. To pokazuje, w jaki sposób piksele graniczne czujnika nie zawsze mogą być wykorzystywane podczas demosykacji matrycy Bayera.
Jeśli chodzi o stronę DPReview, uważam, że mogą mieć błędne informacje. Uważam, że całkowita liczba czujników (pikseli) w czujniku Canon 550D Bayer wynosi 18,0mp, podczas gdy efektywna liczba pikseli lub liczba pikseli komputerowych RGB, które można wygenerować z tej podstawowej 18mp, to 5184x3456 lub 17 915 904 (17,9mp). Różnica sprowadzałaby się do pikseli granicznych, które nie mogą w pełni skompletować pełnego kwartetu, i ewentualnie dodatkowych pikseli granicznych, aby zrekompensować konstrukcję filtrów i sprzętu montażowego przed czujnikiem.
źródło
Przepraszam za rozczarowanie, ale żadne z tych wyjaśnień nie jest prawdziwe. Na każdym czujniku znajduje się obszar poza obszarem obrazowania, który również zawiera miejsca na zdjęcia. Niektóre z nich są wyłączone, niektóre są całkowicie włączone, a niektóre są wykorzystywane do innych celów monitorowania. Służą do ustawiania poziomów wzmacniacza i balansu bieli, jako „zestaw kontrolny” w stosunku do osób wykonujących rzeczywiste obrazowanie.
Jeśli pobierzesz dane czujnika RAW z dowolnego aparatu Powershot kompatybilnego z CHDK i użyjesz programu dcraw do ich konwersji, możesz uzyskać pełny obraz czujnika, w tym te 100% czarne i 100% białe obszary.
Co ciekawe, rozdzielczość obrazu RAW w aparacie jest zawsze większa niż w przypadku JPG w aparacie. Powodem jest to, że prostsze i szybsze metody interpolacji stosowane w aparacie do przejścia z RAW na JPG wymagają otaczających stron RGB do określenia ostatecznego koloru każdego piksela. Strony zdjęciowe na krawędziach i narożnikach nie mają tych otaczających odniesień kolorów ze wszystkich stron, aby to zrobić. Wykonanie tego procesu później na komputerze z lepszym oprogramowaniem do interpolacji RAW pozwoli ci odzyskać nieco większą rozdzielczość obrazu niż to, co można uzyskać z JPG w aparacie.
ps Recenzenci DPReview i autorzy artykułów nigdy nie powinni być traktowani jako ewangelia przez nikogo. Znalazłem tak wiele dziur w ich testach i rażących przykładach, w których testerzy nawet nie wiedzieli, jak korzystać z kamer, że wiele lat temu zlekceważyłem ich porady.
źródło