Dlaczego główny czujnik nie jest używany zamiast osobnego czujnika AF do ustawiania ostrości lustrzanki cyfrowej?

9

Z tej odpowiedzi rozumiem, że lustro lustrzanki DSLR faktycznie nie odbija całego światła, ale przekazuje pewną ilość do czujnika AF.

Więc jeśli lustro refleksyjne może przepuszczać światło, dlaczego nie użyć głównego czujnika (znajdującego się bezpośrednio za lustrem) do ogniskowania?

Uwaga :
W komentarzu pod połączoną odpowiedzią zauważono, że czujnik AF wymaga obiektywu, aby skupić wiązki światła w odpowiednim miejscu czujnika, ponieważ jest on mniejszy niż czujnik główny (kursywa to moje własne założenie). Gdyby zastosowano główny czujnik, czy ta dodatkowa soczewka byłaby nadal konieczna?

Saaru Lindestøkke
źródło
W trybie podglądu na żywo lustrzanki cyfrowe używają głównego czujnika do ustawiania ostrości. Jest to na ogół dość powolny proces.
James Snell
1
Jestem tego świadomy, ale odnoszę się do szybkiego AF z detekcją fazy, dla którego zwykle stosuje się osobny czujnik. Może powinienem to wyjaśnić w tytule.
Saaru Lindestøkke
1
Co ciekawe, właśnie go zmanipulowałem, a Sony A99 ma DWA czujniki wykrywające fazę, a jeden jest częścią głównej matrycy czujników. Nie widziałem żadnych szczegółów dlaczego, ale może dać ci punkt wyjścia.
James Snell
Mówiąc wprost, Sony A99 nie ma „Refleksu”, który uczyniłby go DLS R , ponieważ jest to konstrukcja SLT. Powodem tego są dwa systemy detekcji fazy: 1) Niezależny czujnik jest szybszy i może stale ustawiać ostrość podczas nagrywania wideo 2) Czujnik AF wbudowany w czujnik obrazowania zapewnia pokrycie ruchomych celów, gdy znajdują się one między punktami ostrości na niezależnym ogniskowaniu szyk. Mimo to, przegląd DP i większość innych twierdzi, że Sony nie jest w stanie dotrzymać kroku bramkarzowi 5DIII w strzelaniu do akcji / sportu, a tym bardziej do D4 lub 1D X.
Michael C

Odpowiedzi:

16

Autofokus z wykrywaniem fazy działa poprzez pomiar przesunięcia w poziomie między wzorami jasności rzutowanymi na czujnik AF. Aby zmierzyć przemieszczenie, stosuje się pary jednowymiarowych układów monochromatycznych pikseli. Tak wygląda czujnik AF w Canonie 5D mkIII:

Możesz zobaczyć wiele różnych linii pikseli używanych przez różne punkty AF wybierane przez użytkownika. Zasadniczo można użyć linii pikseli na głównym czujniku obrazu, aby wykonać dokładnie to samo zadanie.

To podejście ma kilka zalet:

  • Nie napotkasz żadnych problemów, jeśli główny czujnik obrazu i czujnik AF są źle ustawione, ponieważ są one takie same.

  • Unikasz złożoności luster wtórnych i kosztu samego układu AF.

Korzystanie z głównego czujnika ma wady.

W komentarzu poniżej połączonej odpowiedzi zauważono, że czujnik AF wymaga obiektywu, aby skupić wiązki światła w odpowiednim miejscu czujnika, ponieważ jest on mniejszy niż czujnik główny (kursywa to moje własne założenie)

Twoje założenie nie jest do końca słuszne. Nie ma to nic wspólnego z mniejszym czujnikiem AF, „soczewki” AF to tak naprawdę jeden obiektyw o falistym profilu w kształcie litery „B”. Ten obiektyw skupia światło pochodzące z obu stron obiektywu na różne części czujnika AF.

Nadal będziesz potrzebować jakiegoś obiektywu, aby wykonać tę pracę, gdy używasz głównego czujnika obrazu, i musiałby się odsunąć podczas robienia zdjęcia wraz z lustrem lustrzanym, co wymagałoby skomplikowanego mechanicznego ustawienia w aparacie. Jest to główna wada tego podejścia, choć istnieją inne przeszkody:

  • Piksele matrycy znajdują się za matrycami filtrów kolorów, które zmniejszają ilość docierającego do nich światła nawet o dwie trzecie. Może to potencjalnie obniżyć wydajność w słabym świetle, jednak umożliwiłoby wykonanie pomiaru fazy dopasowującego kolor, aby uzyskać mniej fałszywych wyników (mniej prawdopodobne jest pomylenie jednego detalu z pierwszego planu z fragmentem szczegółów na przykład z tła Można również użyć koloru, aby ułatwić śledzenie).

  • Rozmiar, odstępy i czułość pikseli będą różne dla obu czujników, więc robienie obu z jednym czujnikiem oznacza kompromisy.

  • Główny czujnik musiałby być włączony przez znacznie dłuższy czas, powodując zużycie energii z akumulatorów. Jak podkreśla Stan, migawka musiałaby być również otwarta podczas AF, więc zamknięcie jej przed wykonaniem ekspozycji spowodowałoby opóźnienie.

  • Wreszcie cyfrowe czujniki obrazu z detekcją fazy wcześniej ustalają AF, więc cała technologia i oprzyrządowanie do wykonywania AF za pomocą oddzielnego czujnika już istnieje i jest dobrze rozwinięta.

Jednak producenci opracowali nieco inny sposób wykrywania fazy AF, który robi użyciu czujnika głównego. Został opracowany dla aparatów bezlusterkowych, które nie mają opcji dedykowanego czujnika AF i które tradycyjnie polegały na wolniejszym wykrywaniu kontrastu za pomocą głównego czujnika.

Zamiast pary soczewek AF na ścieżce światła do kierowania światła z dowolnej strony obiektywu na różne części czujnika AF, można użyć par zwykłych mikrosoczewek z naprzemiennymi czarnymi połówkami, aby uzyskać podobny efekt (piksele z lewej strony w połowie wygaszony będzie głównie odbierał światło z prawej strony soczewki i odwrotnie).

Umożliwia to hybrydowe podejście AF z wykorzystaniem kombinacji fazy (aby zbliżyć się do właściwego ogniskowania) i wykrywania kontrastu (w celu uzyskania dokładniejszego wyniku).

Matt Grum
źródło
bardzo ładna odpowiedź!
Michael Nielsen,
Nie jestem do końca pewien, ale uważam, że maskowanie wykonywane na poziomie pikseli jest kłopotliwe i dlatego występują problemy z precyzją z takim wykrywaniem fazowym na czujniku. Za pomocą standardowego czujnika wykrywania fazy można zmierzyć różnicę faz z większą różnicą. Być może dlatego niektóre czujniki są czułe na inną maksymalną wartość przysłony.
Itai,
Świetna odpowiedź. Dla pewności, soczewki w kształcie litery B są w stanie „podzielić” obraz na dwie części, aby dwie fazy mogły być analizowane, prawda? (zgodnie z opisem w tej odpowiedzi )
Saaru Lindestøkke
Myślę, że kolejną zaletą, szczególnie historyczną (przy nowoczesnych projektach obsługujących wideo HD jest to mniej istotny czynnik), jest to, że kilkadziesiąt pikseli na czujniku AF można odczytać znacznie szybciej niż miliony na głównym czujniku, co pozwala na szybszą pętlę sprzężenia zwrotnego .
Dan Is Fiddling By Firelight
1
W mechanice jest też drobna sprawa z migawką. Użycie czujnika obrazu do ustawiania ostrości podczas korzystania z mechanicznej migawki w płaszczyźnie ogniskowej na czas ekspozycji oznacza, że ​​migawka musi być zamknięta / przechylona między uzyskaniem ostrości a rozpoczęciem nagrywania obrazu (jak większość lustrzanek w trybie podglądu na żywo). Oznacza to podwójną aktywację migawki nawet wtedy, gdy można zamaskować czas potrzebny na wychylenie lustra, co oznacza albo spowolnienie migawki, albo utratę niezawodności.
2

Prędkość

Szybkość jest prawdopodobnie głównym powodem, dla którego czujnik obrazowania nie jest używany do ustawiania ostrości w większości lustrzanek cyfrowych. AF opracowano pod koniec ery filmu, więc użycie „czujnika” (filmu) do ustawiania ostrości nie było opcją. Większość systemów AF z detekcją fazową zbudowano w „otwartej pętli” dla prędkości większej niż dokładność. Dopiero niedawno najwięksi producenci aparatów rozpoczęli projektowanie systemów obiektywów / korpusów, które wykorzystują komunikację „zamkniętej pętli” między korpusem a obiektywem podczas AF z detekcją fazową. Pozwoliło to zbliżyć się do systemów detekcji fazowej, aw niektórych przypadkach równych, dokładności AF z detekcją kontrastu. Chociaż AF z detekcją kontrastu za pomocą głównego czujnika poprawia prędkość, ponieważ jest to proces wieloetapowy, który wymaga kilku cykli „przesuwania i mierzenia”, jest nadal wolniejszy, ale zazwyczaj jest również bardziej dokładny.

Chociaż mogą istnieć rzadkie wyjątki, wszystkie lustrzanki, o których wiem, że nadal używają mechanicznych migawek. Oznacza to, że główny czujnik obrazu jest zasłonięty podczas ustawiania ostrości i pomiaru. Istnieje kilka modeli bezlusterkowych, które mają tylko drugą zasłonę, ale technicznie rzecz biorąc nie są to lustrzanki cyfrowe.

Aby użyć głównego czujnika do detekcji fazy AF wymagałby otwarcia migawki w celu ustawienia ostrości, pierwsza kurtyna zamykałaby się przed ponownym otwarciem, aby odsłonić obraz, po którym druga kurtyna byłaby zamknięta. Nawet podczas rejestrowania ponad 8 klatek na sekundę najbardziej zaawansowane lustrzanki cyfrowe ustawiają ostrość między każdym ujęciem (o ile ustawienia tego wybrał użytkownik). Obecnie lustrzanki cyfrowe resetują obie zasłony w tym samym czasie, gdy lustro się zmienia, a AF ustawia ostrość. Aby użyć czujnika obrazu do ustawiania ostrości, pierwsza kurtyna musiałaby pozostać otwarta, dopóki lustro nie opadnie z powrotem i kamera nie osiągnie blokady ostrości, a następnie reszta aparatu będzie musiała poczekać na zamknięcie pierwszej kurtyny i pochłonięcie energii przez czujnik podczas ustawiania ostrości wyczyszczony, zanim pierwsza kurtyna mogła zostać ponownie otwarta, aby rozpocząć naświetlanie obrazu. Spowolniłoby to cały proces, gdy cały punkt AF z detekcją fazową ma prędkość. Z drugiej strony autofokus z detekcją kontrastu używany podczas podglądu na żywo, który wykorzystuje główny czujnik obrazowania do ogniskowania, jest z reguły bardziej dokładny, ale wolniejszy.

Michael C.
źródło
1

Główny czujnik w lustrzance cyfrowej ma tylko jedną funkcję i tylko jedną funkcję, a mianowicie rejestrowanie obrazu i robienie tego bardzo dobrze.
Kompromis w tym zakresie dzięki wbudowaniu dodatkowej elektroniki obniżyłby jakość i wydajność, więc po co to robić, skoro dostępne są idealnie dobre dedykowane czujniki?
Ponadto lustrzanki cyfrowe wyewoluowały z lustrzanek filmowych, w których oczywiście nie było wbudowanego elektronicznego gadżetu, który mógłby zostać wypaczony w tym celu.

jwenting
źródło
1

Wyspecjalizowane urządzenia działają lepiej i wydajniej w tym, co robią.

Czujniki autofokusa stosowane w lustrzankach cyfrowych są precyzyjnie dostrojone do szybkiego i automatycznego ustawiania ostrości do bardzo niskiego poziomu oświetlenia.

Jeśli użyłeś głównego czujnika do autofokusa, masz dwie opcje:

  • Zastosuj autofokus z detekcją kontrastu, który jest ogromnym zużyciem energii, ale w rzeczywistości bardziej precyzyjnym niż wykrywanie fazy. Wykrywanie kontrastu wymaga jednak ruchu elementów ustawiania ostrości bardzo precyzyjnie, co nie jest optymalne dla nowoczesnych obiektywów DSLR.
  • Zastosuj czujnik fazowy z wykrywaniem, który jest możliwy, ale o wiele mniej precyzyjny niż przy użyciu dedykowanego czujnika, ponieważ jego część obrazująca ogranicza to, co możesz zrobić.

Rzeczywistość jest taka, że ​​lustro przepuszcza światło tylko w niektórych obszarach i że większość z nich jest w pełni odbijająca, co zapewnia jasny widok.

Sony ma kamery SLT, które mają prawdziwie półodblaskowe lustro (30% / 70%), co jest ich rozwiązaniem zapewniającym jednocześnie podgląd na żywo i autofokus z detekcją fazową. Dzięki temu mogą używać dedykowanego czujnika Phase-Detect, aby przyspieszyć autofokus i uniknąć poruszania się obiektywu w przód iw tył, co jest straszne dla wideo. Czujnik traci trochę światła docierającego do niego, więc musi być bardziej czuły, aby uzyskać ten sam efektywny ISO, co jest wadą, jeśli chodzi o jakość obrazu. Światło odbite w górę jest zbyt słabe, aby stworzyć ładny optyczny wizjer, więc musiały zmieścić się w wizjerze EVF.

Itai
źródło
0

Mówiąc wprost, ten sam powód, dla którego nie jeździsz ciężarówką rano do pracy (chyba że jesteś kierowcą ciężarówki). Czujnik AF może wykonać swoją pracę lepiej, gdy nie musi konkurować z czujnikiem obrazu o powierzchnię. Czujniki mają różny charakter i chociaż istnieją pewne konstrukcje, które zawierają czujniki AF w czujniku obrazowania, oznacza to, że obszary czujnika obrazowania nie wychwytują światła widzialnego uderzającego w te obszary tak dobrze, jak to możliwe.

Istnieją czujniki hybrydowe, które mogą wykonywać zarówno AF, jak i wykrywanie światła dla obrazu, ale zwykle nie wykonują żadnej pracy, a także dedykowany czujnik dla obu. To może nie być dużo, ale wystarczy, że jeśli próbujesz uzyskać najlepszy AF i najlepszą możliwą wydajność obrazu, oddzielne czujniki nadal wykonują lepszą pracę.

AJ Henderson
źródło
1
Nie rozumiem, dlaczego czujnik AF musiałby konkurować z czujnikiem obrazu o obszar, gdy dokładnie te same zdjęcia można wykorzystać do obu celów. Piksele AF z detekcją fazy na głównym czujniku (używane w niektórych aparatach bezlusterkowych) przechwytują światło widzialne podczas robienia zdjęcia i przyczyniają się do powstania obrazu. Zmniejszona czułość tych pikseli nie jest zauważalna, ponieważ liczba pikseli AF wynosi kilka tysięcy w porównaniu z dziesiątkami milionów zwykłych pikseli.
Matt Grum,
1
@MattGrum - Nigdy nie mówiłem, że to poważne pogorszenie, tylko pogorszenie. Kiedy Twoim celem jest uchwycenie absolutnie najlepszego możliwego obrazu, bez konieczności kompromisu daje nieco lepszą jakość. Jak rozumiem, hybrydowe piksele również nie działają tak dobrze, jak dedykowany AF. Są walorem wszystkich transakcji, ale jest to kompromis.
AJ Henderson
Powiedziałeś, że „obszary czujnika obrazowania nie wychwytują światła widzialnego padającego na te obszary”, co jest nieprawdą, piksele otrzymują światło, przekształcają je w ładunek i przyczyniają się do obrazu. W każdym razie to tylko 0,1% pikseli, więc byłbym zaskoczony, gdybyś zobaczył różnicę. Tak, nie są tak dobre dla AF, ale nie ma opcji dedykowanego czujnika AF w aparacie bezlusterkowym, więc jest to lepsze niż nic. Bardziej prawdopodobne byłoby kupienie bezlusterkowca z PDAF na czujniku niż takiego, który tego nie zrobił.
Matt Grum,
@MattGrum - tak. Przyznaję, że nie wiedziałem, że piksele hybrydowe przechwytują przydatne informacje. Zakładam, że filtracja kolorów jest przyczyną tego, że kończą się one zmniejszoną skutecznością, czy też są z tym inne problemy? Czy rozumiem, że dedykowany czujnik PD nie przechwytuje użytecznych informacji, ponieważ podejrzewam, że brakuje w nim filtrowania kolorów niezbędnego do celów innych niż pomiar?
AJ Henderson
0

Jednym z możliwych powodów, który nie ma nic wspólnego z autofokusem, jest to, że czujnik obrazu musi zostać całkowicie rozładowany przed zrobieniem zdjęcia. Użycie głównego czujnika obrazu do AF / kompozycji, tak jak w przypadku wszystkich kamer z podglądem na żywo (większość bezlusterkowców), wymaga, aby czujnik był wyłączony i wyczyszczony przed zrobieniem zdjęcia, w przeciwnym razie pojawiłby się duch obraz na żywo na zrobionym zdjęciu.

Jest to jeden z powodów opóźnień migawki w aparatach z podglądem na żywo. DSLR nie zależą od podglądu na żywo.

I nie, jeśli użyjesz głównego czujnika AF, nie musisz mieć osobnej ścieżki światła / obiektywu dla oddzielnej matrycy AF. Aparaty bezlusterkowe są znacznie prostsze niż lustrzanki cyfrowe, ponieważ nie ma zestawu lustrzanego i nie ma potrzeby stosowania oddzielnych matryc AF i czujników ekspozycji i ścieżek świetlnych.

W swoim blogu „Demise of the dSLR” Ming Thein ocenia na podstawie własnego doświadczenia z demontażem, że aparaty bezlusterkowe mają o 60-70% mniej części niż dSLR.

inkista
źródło