Popraw mnie, jeśli się mylę:
Kiedy robię zdjęcie, czujnik zbiera informacje o świetle „jako całość” w czasie ekspozycji, a następnie zapisuje je na karcie. Kiedy robię film, czujnik skanuje linia po linii, a następnie zapisuje ramkę na karcie.
Więc jeśli jest to poprawne, dlaczego podczas filmowania kamera przełącza się z globalnej migawki (jak w trybie zdjęć) na migawkę (tryb filmu)?
Oczywiście musi istnieć powód techniczny, ale po co zawracać sobie głowę roletą zamiast żaluzji globalnej, co jest znacznie wygodniejsze?
dslr
rolling-shutter
Andres
źródło
źródło
Odpowiedzi:
W obu przypadkach rzeczywisty odczyt z czujnika odbywa się linia po linii. Robi się to w ten sposób (w dużej mierze), ponieważ w przeciwnym razie byłoby to zbyt kosztowne - aby odczytać wszystkie piksele równolegle, dla każdego piksela potrzebujesz osobnego połączenia czujnika z pamięcią. 12 milionów połączeń (na przykład) między czujnikiem a pamięcią byłoby ogromnie drogie - i prawie nigdy nie przyniosłoby żadnych rzeczywistych korzyści.
To, dlaczego wydaje się, że istnieje różnica między trybem filmu a trybem nieruchomym, jest dość proste: w trybie nieruchomym używasz fizycznej migawki, a odczyt z czujnika do pamięci następuje po zamknięciu migawki. Jak zauważył @Matt Grum, nadal uzyskujesz taki sam efekt powyżej prędkości synchronizacji X, z powodu fizycznych ograniczeń migawki.
Powodem, dla którego nie używasz fizycznej migawki w trybie filmu, jest więcej tych samych fizycznych ograniczeń. Podczas gdy migawka może mieć bardzo krótki czas ekspozycji, między aktywacjami jest czas odpoczynku, więc trudno jest uzyskać więcej niż około 10 klatek na sekundę. Dotarcie do 24 klatek na sekundę lub mniej więcej potrzebnych do nagrania wideo ponownie zwiększyłoby koszty bez większych korzyści. Dlatego w trybie filmu fizyczna migawka pozostaje otwarta, a zamiast niej aparat używa elektronicznej migawki - a gdy to zrobi, widoczne mogą być artefakty odczytu liniowego z czujnika do pamięci.
źródło
Podczas robienia zdjęcia masz fizyczną migawkę, która kontroluje światło padające na czujnik. Podczas robienia zdjęć obraz jest nadal odczytywany linia po linii, ale z powodu fizycznego zamknięcia migawki podczas odczytu nie jest rejestrowane dodatkowe światło.
Odczyt wiersz po wierszu jest konsekwencją projektu CMOS znalezionego w kamerach z dużymi matrycami, a zatem jest nieunikniony (dopóki nie znajdą sposobu na tańsze / większe matryce CCD).
Warto zauważyć, że przy czasach otwarcia migawki większych niż czas synchronizacji x kamery (zwykle 1 / 250s) migawka zaczyna się zamykać u dołu, zanim zostanie całkowicie otwarta u góry. Wynikiem tego jest to, że dla naprawdę dużych prędkości, takich jak 1 / 4000s, dostajesz szczelinę, która przechodzi przez ramę i daje podobny efekt rolowanej migawki dla zdjęć. Ponieważ jednak czas przejścia klatki przez migawkę (1 / 250s) jest dziesięć razy krótszy niż czas odczytu czujnika podczas wideo (1 / 25s), potrzebujesz naprawdę szybko poruszającego się obiektu, aby to zauważyć.
Oto bardzo stara fotografia, która dobrze pokazuje efekt:
Efekt jest również bardziej widoczny w filmach, jeśli przesuwasz się tam iz powrotem, co nie zdarza się w przypadku zdjęć.
źródło
Ten link może ci się przydać:
http://www.dvxuser.com/jason/CMOS-CCD/ (autor: Barry Green / via @ SFGPhoto)
To kompromis CMOS: ciepło, moc, wolniejsza częstotliwość odświeżania, tańsze niż CCD. CCD są szybsze, ale wymagają więcej energii i kosztują więcej ...
Z mojej podstawowej wiedzy na temat produkcji układów, czujniki obrazu i procesory są tworzone przy użyciu podobnych technologii. Produkcja procesora sprzyja kurczeniu się: mniejsza = tańsza. Ale fotografowie chcą WIELKICH czujników. Nie da się tego zrobić w obie strony bez kosztu znacznie większego. Plus upakowanie wielu pikseli w czujniku może być zbyt „dobrą” rzeczą (mniej światła itp.)
@mogwailun
źródło