Oczekiwanie na zrobienie zdjęcia może być bardzo trudne, szczególnie podczas pracy z dziećmi lub zwierzętami. Czytałem gdzieś (nie mogę znaleźć źródła), że każda klatka z filmu HD jest zasadniczo zdjęciem w wysokiej rozdzielczości (czy to w ogóle prawda?).
Jakie są wyzwania, zalety i wady wyboru najlepszej klatki z filmu jako sposobu robienia zdjęć, w których kluczowe znaczenie ma czas?
Odpowiedzi:
Dużą zaletą tego jest, jak mówisz, możliwość robienia wielu zdjęć w krótkim czasie, co pozwala wybrać najlepszą ramkę.
Istnieje jednak kilka wad tego podejścia:
źródło
Nie, wcale nie prawda :( Oto dlaczego:
Po pierwsze, nie jest to wysoka rozdzielczość. Nawet wideo 1080P („Full HD”), które nie wszystkie kamery potrafią, ma tylko 2 megapiksele. To ułamek rozdzielczości czujnika. Wideo 720P ma 1 megapiksel.
Po drugie, wideo używa znacznie wyższego współczynnika kompresji niż obrazy JPEG, ponieważ wideo wymaga dużej przepustowości. Oznacza to, że powstałe klatki wideo są (ogólnie) bardziej skompresowane niż byłby równoważny nieruchomy obraz. Ponadto w większości formatów wideo (w tym AVCHD, H.264 / AVC, różne formaty MPEG / DivX, ale nie „Motion JPEG”), większość ramek wideo używa „kompresji między klatkami”, co oznacza, że nie są one przechowywane jako obrazy własne prawo, ale jako dane transformacji do zastosowania do innych ostatnich lub pobliskich ramek.
Na wideo pożądana jest pewna ilość rozmycia w ruchu, ale w przypadku zdjęć nie chciałbyś prawie tyle. 1/48 do 1/60 sekundy jest normalne dla 24P i 30P w celu uzyskania naturalnego rozmycia ruchu (efekt nazywa się „kątem migawki” w przypadku starych kamer filmowych). W przeciwnym razie ruch może wyglądać nienaturalnie. Na zdjęciach zatrzymanie ruchu przy czasie otwarcia migawki 1 / 250s lub większym wygląda dobrze i jest często pożądane.
Cyfrowe czujniki często nie są w stanie zapewnić tak dobrej jakości obrazu, gdy znajdują się w trybie „Podgląd na żywo”, w którym nie ma fizycznej migawki, ale zamiast tego stale pobierają ramki z czujnika. W matrycach CCD przejawia się to jako pionowe smugi; w CMOS występują inne problemy (jednym z nich jest falowanie podczas ruchu kamery, znane jako „efekt migawki”). Migawka, która działa podczas robienia zdjęć, pozwala czujnikowi użyć innego trybu, w którym nie musi być resetowany tak szybko i może zrobić zdjęcie wysokiej jakości przy mniejszym szumie.
W filmie często stosuje się dodatkowe filtrowanie niż w przypadku aparatu, co powoduje utratę szczegółów. Jednym z głównych jest przeplot, który skutecznie odrzuca wiele rozdzielczości pionowych. Jednak niewiele aparatów fotograficznych z funkcją wideo obsługuje przeplot. Wiele filmów nadal będzie miało zastosowany filtr antyaliasingu, który zmiękcza obraz, ale może pomóc w kompresji i redukcji mory. W zależności od aparatu wideo może być również stosowane bardziej wyostrzanie, chociaż obecnie w przypadku HD ta praktyka nie jest tak powszechna / szkodliwa.
Jeśli nie masz innej metody, nie poleciłbym jej. W rzeczywistości prawdopodobnie nadal nie poleciłbym tego, nawet jeśli byłaby to Twoja jedyna opcja. Ale jeśli już to zrobiłeś, upewnij się, że możesz zrobić 1080P, ustaw czas otwarcia migawki na wystarczająco szybki, jakbyś robił zdjęcia, i użyj formatu Motion JPEG (nie AVC ani żadnego z innych formatów, o których wspomniałem powyżej). I zdaj sobie sprawę, że otrzymujesz w zasadzie 2 megapiksele.
Edycja: Od czasu, gdy napisałem tę odpowiedź jakiś czas temu, nie jestem już przekonany, że tryb Motion JPEG (jeśli twoja kamera go obsługuje) jest dobrym pomysłem. Twój aparat wymagałby znacznie większej przepływności dla tej samej jakości. Jeśli możesz użyć zwykłego wideo HD (np. H.264 lub AVCHD, itp.) I znaleźć sposób na znalezienie klatek I, może to być lepsze. Jednak nadal nie uważam, że to dobry pomysł. Nowoczesne lustrzanki cyfrowe obsługują znacznie szybsze tryby robienia zdjęć seryjnych, w tym takie, które mogą blokować lustro lub zmniejszać rozdzielczość i robić zdjęcia szybciej itp.
źródło
Jako przykład użyję własnego aparatu (Pentax K-5) (szerokość x wysokość):
Nie sądzę więc, aby było to zdjęcie w wysokiej rozdzielczości. Powiedziawszy to, lepiej jest strzelać w dowolnej rozdzielczości niż wcale. :)
źródło
Spójrz na czerwone kamery, jeśli to jest coś, co naprawdę chcesz wypróbować. Ich cała racja bytu polega na kręceniu czegoś w rodzaju HD 5x, a każdy z nich byłby jeszcze 10-megapikselowym ujęciem.
Oczywiście nie są tanie, więc lepszym pomysłem może być uzyskanie aparatu zdolnego do wykonywania, powiedzmy, 8 fps przez kilka sekund i przeczesywania tych zdjęć w tym idealnym momencie. Przekonałem się, że 5-6 klatek na sekundę przez 3 sekundy to zwykle więcej niż wystarczająco dużo czasu, aby zrobić dobry strzał, lub przynajmniej zapewnia maksymalną liczbę klatek, którą chcę przeglądać na serię. Jeśli wybierzesz pełną szybkość wideo, jest to bardzo dużo danych, które można przeszukać tylko przez jedno zdjęcie.
źródło
Powinien to być komentarz do posta @thomasrutter, ale nie mogę jeszcze komentować (brak reputacji).
Twój punktor na temat MJPEG kontra AVC nie jest całkowicie poprawny. Prawdą jest, że MPEG-4 część 10 (AVC / H.264) zwykle nie rejestruje każdej klatki jako I-klatki (klucz / pełna klatka). W specyfikacji nie ma nic, co by tego zabraniało, a niektóre kamery rejestrują tylko klatki I.
To, w czym się mylisz, to zalety MJPEG w stosunku do H.264 i twoja argumentacja na temat tego, dlaczego. Zacznę od krótkiego wyjaśnienia, w jaki sposób klatki są odtwarzane z H.264 (lub innych formatów kodeków wideo). Wideo zostanie zakodowane w trzech różnych typach ramek, ramkach kodowanych wewnątrz (ramki I), ramkach kodowanych predykcyjnie (ramki P) i ramkach kodowanych dwukierunkowo (ramki B). I-frame to kompresyjna wersja pełnej „surowej” ramki. Można go zrekonstruować jako JPEG (lub pojedynczą klatkę w strumieniu MJPEG). Z drugiej strony ramka P odwołuje się do ramek I i P i będzie wymagać ich rekonstrukcji. Ramka B może również odnosić się do następujących ramek I i P. Jest o wiele więcej informacji na ten temat na Wikipedii.
Różnica między H.264 i MJPEG polega na tym, jak działa kompresja, a nie na tym, jak dobra. Każdą klatkę w cyfrowym wideo można całkowicie zrekonstruować, korzystając z informacji znajdujących się w pliku / strumieniu wideo. H.264 da lepsze wyniki niż MJPEG, nawet jeśli eksportujesz jedną klatkę przy tej samej szybkości transmisji. Dotyczy to większości bitrate'ów (nie jestem pewien co do bardzo niskich bitrate'ów). Jest więcej informacji i kilka testów on-line, a dobrym miejscem do rozpoczęcia jest kompresja .ru .
Jedyną wadą H.264 jest złożoność obliczeniowa przy odtwarzaniu pojedynczej klatki. H.264 wymaga o wiele większej mocy obliczeniowej niż MJPEG. Nie jest to jednak problem na nowoczesnych komputerach.
źródło