Dlaczego efektywne piksele są większe niż rzeczywista rozdzielczość?

16

Ta strona porównuje aparaty Canon EOS 550D i Canon EOS 500D oraz wzmianki

18,7 miliona efektywnych pikseli

dla 550D. Jednak najlepsza możliwa rozdzielczość przy użyciu tego aparatu to

5184 * 3456 = 17915904 ~ 17.9 million pixels

Co to są efektywne piksele i dlaczego ta liczba jest większa niż 17,9 miliona w tym przypadku?

Lazer
źródło
1
Pamiętaj również, że „rozdzielczość” ma dwa znaczenia. W komputerach używamy go w odniesieniu do wymiarów w pikselach ekranu lub obrazu. A na rysunku komputerowym lub generowanym obrazie zwykle odpowiada to „rzeczywistej” rozdzielczości - ilości szczegółów faktycznie rozwiązanych na obrazie. Ale na zdjęciu niekoniecznie tak jest.
Proszę przeczytać Profil
1
Nie o to tu chodzi - tylko dodatkowe źródło zamieszania.
Proszę przeczytać Profil

Odpowiedzi:

9

Częścią tego, co tutaj widzimy, jest (jestem dość pewny) niczym więcej niż zwykłą literówką (lub czymś w tej kolejności) ze strony DPReview.com. Według Canona [PDF, strona 225] liczba dołków czujnika wynosi „około 18,00 megapikseli”.

Są one następnie zmniejszane do około 17,9 megapiksela, gdy wejścia wzorca Bayera są przekształcane w coś, co większość z nas uważa za piksele. Różnica jest dość prosta: każda studzienka czujnika wykrywa tylko jeden kolor światła, ale piksel, jak zwykle oczekuje się na wyjściu (np. Plik JPEG lub TIFF), ma trzy kolory dla każdego piksela. Na pierwszy rzut oka mogłoby się wydawać, że oznaczałoby to, że plik miałby tylko około jedną trzecią tylu pikseli, ile jest wejść do czujników. Oczywiście tak nie jest. Oto (uproszczony widok), jak to działa:

uproszczony wzór Bayera

Każda litera reprezentuje jedną studzienkę na czujniku. Każde pole reprezentuje jeden trójkolorowy piksel, który trafi do pliku wyjściowego.

W „wewnętrznej” części czujnika każdy piksel wyjściowy zależy od sygnału wejściowego z czterech dołków czujnikowych, ale każdy dołek czujnikowy jest wykorzystywany jako sygnał wejściowy do czterech różnych pikseli wyjściowych, więc liczba sygnałów wejściowych i liczba sygnałów wyjściowych pozostaje taka sama.

Jednak wokół krawędzi mamy dołki czujnikowe, które przyczyniają się tylko do dwóch pikseli zamiast czterech. W rogach każda studzienka czujnika przyczynia się tylko do jednego piksela wyjściowego.

Oznacza to, że całkowita liczba pikseli wyjściowych jest mniejsza niż liczba dołków czujnika. W szczególności wynik jest mniejszy o jeden wiersz i jedną kolumnę w porównaniu do danych wejściowych (np. W tym przykładzie mamy czujnik 8x3, ale piksele wyjściowe 7x2).

Jerry Coffin
źródło
+1 szczególnie dla schematu. Ale nadal jestem zdziwiony, ponieważ tłumaczyłoby to brak 2 (5184-1 + 3456-1) = około 17 tysięcy pikseli, które zostałyby utracone w zaokrągleniu przy obliczaniu 18,0 - 17,9 = 0,1 mln pikseli. Wydawałoby się, że z granicy należy usunąć co najmniej trzykrotnie więcej pikseli (ponieważ wszystko poniżej 50K powinno zaokrąglić w dół do 0,0M). Być może podczas demozaikacji używana jest większa dzielnica niż pokazane tutaj 2 x 2: może używa ona okolic 7 x 7?
whuber
1
@whuber: Offhand, nie jestem pewien, czy mogę bezpośrednio rozliczać się z resztą. Z pewnością możliwe jest użycie większej liczby czujników do wytworzenia pojedynczego piksela wyjściowego, ale nie mam realnego sposobu, aby wiedzieć, że to właśnie robi Canon w tym przypadku. Surowy plik z kamery dałby dokładną liczbę dołków czujnika, ale nadal nie powiedziałby dokładnie, w jaki sposób Canon przechodzi od wejścia X do wyjścia Y.
Jerry Coffin
3
W dobrych algorytmach demaskowania (np. Adaptacyjnych, ukierunkowanych na homogeniczność) każdy czujnik dobrze przyczynia się do więcej niż czterech pikseli wyjściowych, więc gubi się więcej niż jeden wiersz lub kolumna. Łatwo jest pobrać niewidoczną moc wyjściową z dcraw i porównać wymiary obrazu z mocą wyjściową DPP firmy Canon, aby uzyskać ostateczną odpowiedź, dam mu szansę, kiedy będę miał czas.
Matt Grum,
@Matt Grum: Patrząc wstecz, mój poprzedni komentarz jest raczej źle sformułowany. Próbowałem uzyskać, że istnieje kilka algorytmów, które mogą (i będą) tracić / odrzucać ~ 3 wiersze / kolumny pikseli, ale sama liczba pikseli nie powie ci, którego z nich używa. Jednak zastosowanie bardziej zaawansowanego algorytmu, który wykorzystuje więcej czujników na piksel wyjściowy, jest praktycznie pewne.
Jerry Coffin
5

Nie wiem, dlaczego DPReview używa terminu „efektywny”, ale istnieje kilka powodów rozbieżności między liczbą stron (pikseli) na chipie a rozmiarem uzyskanych obrazów w pikselach.

Niektóre czujniki kamery mają pasek zamaskowanych pikseli po każdej stronie. Te piksele są identyczne z większością pikseli na czujniku, z tym wyjątkiem, że nie otrzymują światła. Służą do wykrywania zakłóceń i odejmowania ich od sygnału wytwarzanego przez czułe na światło piksele.

Po drugie [dobre] algorytmy demozaikacji używają wielu „operacji sąsiedzkich”, co oznacza, że ​​wartość piksela zależy w pewnym stopniu od wartości sąsiednich pikseli. Piksele na skrajnej krawędzi obrazu nie mają sąsiadów, więc przyczyniają się do innych pikseli, ale nie dodają do wymiarów obrazu.

Możliwe jest również, że kamera przycina czujnik z innych powodów (np. Koło obrazu obiektywu nie do końca zakrywa czujnik), chociaż wątpię, aby tak było w przypadku 550D.

Matt Grum
źródło
Czy piksele graniczne służą do usuwania zakłóceń, czy po prostu do ustawiania czarnego punktu?
Proszę przeczytać Profil
1
Oba, jak sądzę, gdyby nie było żadnych zakłóceń (w tym reakcji termicznej), czarny punkt wynosiłby 0
Matt Grum
Opis DPReview . Wydaje mi się, że chodzi między dwiema przeciwnymi pojęciami i nie widzę, aby faktycznie definiowało to pojęcie, chyba że domyślnie. Wydaje mi się, że twoja odpowiedź trochę pomaga, ale wciąż zastanawiam się, dlaczego „efektywne” piksele byłyby czymś więcej niż prawdziwymi witrynami ze zdjęciami, chociaż strona dpreview daje pewne możliwości. Efektywny: używany do uzyskiwania danych obrazu? Czy data zdjęcia ostatecznie tak się wydarzyła? (uwaga: czasownik efektowy z e: tworzenie istnienia). Nadal zastanawiam się, co one oznaczają.
Lindes
5

Są dwa powody, dla których efektywne piksele są mniejsze niż rzeczywista liczba pikseli czujnika (elementy wykrywające lub czujniki). Po pierwsze, czujniki Bayera składają się z „pikseli”, które wykrywają pojedynczy kolor światła. Zwykle są to czerwone, zielone i niebieskie seledele, ułożone w pary rzędów w postaci:

RGRGRGRG
GBGBGBGB

Pojedynczy „piksel”, jak większość z nas go zna, piksel w stylu RGB ekranu komputera, jest generowany z czujnika Bayera poprzez połączenie czterech sensorów, kwartetu RGBG:

          R G 
(sensor)       -->  RGB (computer)
          G B

Ponieważ siatka 2x2 z czterema panelami RGBG jest używana do wygenerowania pojedynczego piksela komputerowego RGB, nie zawsze jest wystarczająca ilość pikseli wzdłuż krawędzi czujnika, aby utworzyć pełny piksel. „Dodatkowe” obramowanie pikseli jest zwykle obecne na czujnikach Bayera, aby to uwzględnić. Dodatkowa ramka pikseli może również występować po prostu w celu skompensowania pełnego projektu czujnika, służyć jako piksele kalibracyjne i pomieścić dodatkowe elementy czujnikowe, które zwykle obejmują filtry IR i UV, filtry antyaliasingowe itp., Które mogą blokować pełna ilość światła docierającego do zewnętrznego obwodu czujnika.

Na koniec czujniki Bayera muszą zostać „odkażone”, aby uzyskać normalny obraz RGB pikseli komputerowych. Istnieje wiele różnych sposobów demozaikacji czujnika Bayera, jednak większość algorytmów stara się zmaksymalizować liczbę pikseli RGB, które można uzyskać, mieszając piksele RGB z każdego możliwego nakładającego się zestawu 2x2 kwartetów RGBG:

Bayer Demosaicing

W przypadku czujnika z 36 jednokolorowymi wzorami można wyodrębnić łącznie 24 piksele RGB. Zwróć uwagę na nakładający się charakter algorytmu demozaikacji, oglądając animowany plik GIF powyżej. Zwróć także uwagę, jak podczas trzeciego i czwartego przejścia nie użyto górnego i dolnego rzędu. To pokazuje, w jaki sposób piksele graniczne czujnika nie zawsze mogą być wykorzystywane podczas demosykacji matrycy Bayera.

Jeśli chodzi o stronę DPReview, uważam, że mogą mieć błędne informacje. Uważam, że całkowita liczba czujników (pikseli) w czujniku Canon 550D Bayer wynosi 18,0mp, podczas gdy efektywna liczba pikseli lub liczba pikseli komputerowych RGB, które można wygenerować z tej podstawowej 18mp, to 5184x3456 lub 17 915 904 (17,9mp). Różnica sprowadzałaby się do pikseli granicznych, które nie mogą w pełni skompletować pełnego kwartetu, i ewentualnie dodatkowych pikseli granicznych, aby zrekompensować konstrukcję filtrów i sprzętu montażowego przed czujnikiem.

jrista
źródło
Właśnie zauważyłem, że na moim animowanym obrazie źle policzyłem zmysły. W pierwszych dwóch krokach nie łączy 8 bajtów ... łączy 28 bajtów w 8 pikseli. W dwóch ostatnich krokach łączy 14 bajtów w 4 piksele. Przepraszam za rozbieżności. Spróbuję to naprawić wkrótce.
jrista
-3

Przepraszam za rozczarowanie, ale żadne z tych wyjaśnień nie jest prawdziwe. Na każdym czujniku znajduje się obszar poza obszarem obrazowania, który również zawiera miejsca na zdjęcia. Niektóre z nich są wyłączone, niektóre są całkowicie włączone, a niektóre są wykorzystywane do innych celów monitorowania. Służą do ustawiania poziomów wzmacniacza i balansu bieli, jako „zestaw kontrolny” w stosunku do osób wykonujących rzeczywiste obrazowanie.

Jeśli pobierzesz dane czujnika RAW z dowolnego aparatu Powershot kompatybilnego z CHDK i użyjesz programu dcraw do ich konwersji, możesz uzyskać pełny obraz czujnika, w tym te 100% czarne i 100% białe obszary.

Co ciekawe, rozdzielczość obrazu RAW w aparacie jest zawsze większa niż w przypadku JPG w aparacie. Powodem jest to, że prostsze i szybsze metody interpolacji stosowane w aparacie do przejścia z RAW na JPG wymagają otaczających stron RGB do określenia ostatecznego koloru każdego piksela. Strony zdjęciowe na krawędziach i narożnikach nie mają tych otaczających odniesień kolorów ze wszystkich stron, aby to zrobić. Wykonanie tego procesu później na komputerze z lepszym oprogramowaniem do interpolacji RAW pozwoli ci odzyskać nieco większą rozdzielczość obrazu niż to, co można uzyskać z JPG w aparacie.

ps Recenzenci DPReview i autorzy artykułów nigdy nie powinni być traktowani jako ewangelia przez nikogo. Znalazłem tak wiele dziur w ich testach i rażących przykładach, w których testerzy nawet nie wiedzieli, jak korzystać z kamer, że wiele lat temu zlekceważyłem ich porady.

Przydatny Andy
źródło
5
Pomimo twojego komentarza, że ​​„żadne z tych wyjaśnień nie jest prawdziwe”, inne odpowiedzi już to obejmują.
Proszę przeczytać Profil