Czy mogę uzyskać zdjęcie w wysokiej rozdzielczości z wideo?

11

Oczekiwanie na zrobienie zdjęcia może być bardzo trudne, szczególnie podczas pracy z dziećmi lub zwierzętami. Czytałem gdzieś (nie mogę znaleźć źródła), że każda klatka z filmu HD jest zasadniczo zdjęciem w wysokiej rozdzielczości (czy to w ogóle prawda?).

Jakie są wyzwania, zalety i wady wyboru najlepszej klatki z filmu jako sposobu robienia zdjęć, w których kluczowe znaczenie ma czas?

dsg
źródło
2
Powinno być prawdą, ale nie wiem. Jeśli zależy Ci na szybkim fotografowaniu, spójrz na Casio Exilim z serii F. Są przeznaczone do tego rodzaju seryjnych zdjęć: 30 zdjęć / s w normalnej rozdzielczości z buforem pierścieniowym do robienia zdjęć, zanim nawet wciśniesz spust migawki.
Leonidas,
Nowo ogłoszony Nikon V1 i J1 ma możliwość robienia wielu zdjęć w bardzo szybkich odstępach czasu, do 60 na sekundę, a następnie wybierania tylko tych najlepszych. Jest to wyraźnie stworzone dla problemu z dziećmi i zwierzętami, o których mówisz. Może będą pasować do twoich potrzeb?
bengtb
Nie, chyba że strzelasz z CZERWONEGO aparatu.
Nick Bedford,

Odpowiedzi:

15

Dużą zaletą tego jest, jak mówisz, możliwość robienia wielu zdjęć w krótkim czasie, co pozwala wybrać najlepszą ramkę.

Istnieje jednak kilka wad tego podejścia:

  • Niższa rozdzielczość. Nawet „Full High Def”, 1080p, ma tylko 2 megapiksele (1920 * 1080 = 2 073 600). To daje akceptowalny rozmiar wydruku 6,4 x 3,6 cala, przy 300 DPI. To może być dla Ciebie w porządku, ale jeśli chcesz większy wydruk, zaczniesz zauważać piksel.
  • Często mniejsza kontrola ustawień takich jak czas otwarcia migawki, ISO i przysłona. Wideo może również ogólnie radzić sobie z nieco większym rozmyciem ruchu niż zdjęcia, a aparat może pozwolić, aby czas otwarcia migawki przeciągał się dłużej, niż możesz.
  • Artefakty kompresji wideo. Oprócz klatek kluczowych większość klatek w skompresowanym wideo jest renderowana przez modyfikację poprzedniej klatki. Powoduje to powstanie artefaktów, które mogą nie być widoczne na filmie, ale obniżą jakość zdjęcia. Zależy to bardzo od kodeka i szybkości transmisji wideo.
Evan Krall
źródło
1
+1 na artefaktach wideo. Jeden możliwy eksperyment (wyniki zależą w dużej mierze od kodeka i poziomu kompresji): czy masz odtwarzacz Blu-Ray? Jeśli tak, zatrzymaj wideo i zbadaj scenę z takiej odległości, aby ekran zajmował tę samą część pola widzenia, co zdjęcie o pożądanym rozmiarze. Widzisz jakieś artefakty? Nie mam odtwarzacza Blu-Ray, ale różnica między wideo (wygląda dobrze) i wstrzymanym wideo (ogromne problemy z artefaktami) na moim odtwarzaczu DVD jest bardzo dramatyczna.
Reid
Jakich specyfikacji szukam pod względem kodeka i przepływności w celu kompensacji artefaktów?
dsg
@dsg Ogólnie rzecz biorąc, bardziej nowoczesne kodeki, takie jak H264, będą cierpieć z powodu mniejszej liczby artefaktów przy tej samej przepływności niż starszy kodek. Jeśli kamera ma opcje szybkości transmisji, wybierz najwyższe ustawienie.
Evan Krall,
1
@dsg Jak wspomina Thomas Thomas, idealnym kodekiem tutaj byłby MJPEG, który po prostu kompresuje JPEG każdą klatkę osobno i nie używa kompresji ramek. Wszystkie ramki powinny mieć zasadniczo tę samą jakość obrazu. Jednak z powodu braku kompresji między ramkami, MJPEG będzie musiał kompresować mocniej, aby uzyskać taki sam przepływność, jak w przypadku innych kodeków wideo.
Evan Krall
+1 za notatkę o klatkach kluczowych; nastąpi poważna degradacja, chyba że wiesz, jak i masz oprogramowanie do wyciągania odpowiednich migawek z twojego filmu. Jest to na dodatek fakt, że w przypadku wideo „rozmycie” jest dobre dla ludzkiego oka. Widzimy tylko ogólny ruch, a nie pojedyncze klatki z wideo, więc nie będzie to przycinać rogów zdjęć. Zdjęcie będzie prawie zawsze wyraźniejsze w każdej sytuacji.
Jane Panda,
8

Czytałem gdzieś (nie mogę znaleźć źródła), że każda klatka z filmu HD jest zasadniczo zdjęciem w wysokiej rozdzielczości (czy to w ogóle prawda?).

Nie, wcale nie prawda :( Oto dlaczego:

  • Po pierwsze, nie jest to wysoka rozdzielczość. Nawet wideo 1080P („Full HD”), które nie wszystkie kamery potrafią, ma tylko 2 megapiksele. To ułamek rozdzielczości czujnika. Wideo 720P ma 1 megapiksel.

  • Po drugie, wideo używa znacznie wyższego współczynnika kompresji niż obrazy JPEG, ponieważ wideo wymaga dużej przepustowości. Oznacza to, że powstałe klatki wideo są (ogólnie) bardziej skompresowane niż byłby równoważny nieruchomy obraz. Ponadto w większości formatów wideo (w tym AVCHD, H.264 / AVC, różne formaty MPEG / DivX, ale nie „Motion JPEG”), większość ramek wideo używa „kompresji między klatkami”, co oznacza, że ​​nie są one przechowywane jako obrazy własne prawo, ale jako dane transformacji do zastosowania do innych ostatnich lub pobliskich ramek.

  • Na wideo pożądana jest pewna ilość rozmycia w ruchu, ale w przypadku zdjęć nie chciałbyś prawie tyle. 1/48 do 1/60 sekundy jest normalne dla 24P i 30P w celu uzyskania naturalnego rozmycia ruchu (efekt nazywa się „kątem migawki” w przypadku starych kamer filmowych). W przeciwnym razie ruch może wyglądać nienaturalnie. Na zdjęciach zatrzymanie ruchu przy czasie otwarcia migawki 1 / 250s lub większym wygląda dobrze i jest często pożądane.

  • Cyfrowe czujniki często nie są w stanie zapewnić tak dobrej jakości obrazu, gdy znajdują się w trybie „Podgląd na żywo”, w którym nie ma fizycznej migawki, ale zamiast tego stale pobierają ramki z czujnika. W matrycach CCD przejawia się to jako pionowe smugi; w CMOS występują inne problemy (jednym z nich jest falowanie podczas ruchu kamery, znane jako „efekt migawki”). Migawka, która działa podczas robienia zdjęć, pozwala czujnikowi użyć innego trybu, w którym nie musi być resetowany tak szybko i może zrobić zdjęcie wysokiej jakości przy mniejszym szumie.

  • W filmie często stosuje się dodatkowe filtrowanie niż w przypadku aparatu, co powoduje utratę szczegółów. Jednym z głównych jest przeplot, który skutecznie odrzuca wiele rozdzielczości pionowych. Jednak niewiele aparatów fotograficznych z funkcją wideo obsługuje przeplot. Wiele filmów nadal będzie miało zastosowany filtr antyaliasingu, który zmiękcza obraz, ale może pomóc w kompresji i redukcji mory. W zależności od aparatu wideo może być również stosowane bardziej wyostrzanie, chociaż obecnie w przypadku HD ta praktyka nie jest tak powszechna / szkodliwa.

Jakie są wyzwania, zalety i wady wyboru najlepszej klatki z filmu jako sposobu robienia zdjęć, w których kluczowe znaczenie ma czas?

Jeśli nie masz innej metody, nie poleciłbym jej. W rzeczywistości prawdopodobnie nadal nie poleciłbym tego, nawet jeśli byłaby to Twoja jedyna opcja. Ale jeśli już to zrobiłeś, upewnij się, że możesz zrobić 1080P, ustaw czas otwarcia migawki na wystarczająco szybki, jakbyś robił zdjęcia, i użyj formatu Motion JPEG (nie AVC ani żadnego z innych formatów, o których wspomniałem powyżej). I zdaj sobie sprawę, że otrzymujesz w zasadzie 2 megapiksele.

Edycja: Od czasu, gdy napisałem tę odpowiedź jakiś czas temu, nie jestem już przekonany, że tryb Motion JPEG (jeśli twoja kamera go obsługuje) jest dobrym pomysłem. Twój aparat wymagałby znacznie większej przepływności dla tej samej jakości. Jeśli możesz użyć zwykłego wideo HD (np. H.264 lub AVCHD, itp.) I znaleźć sposób na znalezienie klatek I, może to być lepsze. Jednak nadal nie uważam, że to dobry pomysł. Nowoczesne lustrzanki cyfrowe obsługują znacznie szybsze tryby robienia zdjęć seryjnych, w tym takie, które mogą blokować lustro lub zmniejszać rozdzielczość i robić zdjęcia szybciej itp.

thomasrutter
źródło
+1 dla MJPEG; Nawet o tym nie myślałem, ale na pewno byłoby to najlepsze.
Evan Krall
1

Jako przykład użyję własnego aparatu (Pentax K-5) (szerokość x wysokość):

  • Rozdzielczość obrazu dla zdjęcia: 4928 x 3264
  • 1080p (maksimum wideo HD): 1920 x 1080

Nie sądzę więc, aby było to zdjęcie w wysokiej rozdzielczości. Powiedziawszy to, lepiej jest strzelać w dowolnej rozdzielczości niż wcale. :)

John Cavan
źródło
1

Spójrz na czerwone kamery, jeśli to jest coś, co naprawdę chcesz wypróbować. Ich cała racja bytu polega na kręceniu czegoś w rodzaju HD 5x, a każdy z nich byłby jeszcze 10-megapikselowym ujęciem.

Oczywiście nie są tanie, więc lepszym pomysłem może być uzyskanie aparatu zdolnego do wykonywania, powiedzmy, 8 fps przez kilka sekund i przeczesywania tych zdjęć w tym idealnym momencie. Przekonałem się, że 5-6 klatek na sekundę przez 3 sekundy to zwykle więcej niż wystarczająco dużo czasu, aby zrobić dobry strzał, lub przynajmniej zapewnia maksymalną liczbę klatek, którą chcę przeglądać na serię. Jeśli wybierzesz pełną szybkość wideo, jest to bardzo dużo danych, które można przeszukać tylko przez jedno zdjęcie.

mmr
źródło
2
Uważam, że próba pomiaru czasu twoich ujęć bardziej prawdopodobne jest, że zdobędziesz bramkarza, niż tylko przytrzymanie spustu migawki w trybie zdjęć seryjnych. Oczywiście, wyższa szybkość serii i dłuższy bufor nadal będą tu pomocne.
Evan Krall
Lustrzanki są pod tym względem nieco problematyczne ze względu na zaciemnienie lustra - szczególnie w przypadku nierównego ruchu (jak, powiedzmy, dzieci, powiedzmy), w którym gładka miska prawdopodobnie nie skieruje aparatu w stronę fotografowanego obiektu już nie. W tym celu powstają lustrzane aparaty Pellicle (jak stary aparat filmowy Canon EOS RT i nowszy aparat cyfrowy Sony α55); rezygnujesz z około jednej trzeciej przysłony, aby uzyskać stały obraz w wizjerze, wysoką szybkość serii i krótsze opóźnienie migawki.
Prawdziwe mięso tego posta dotyczyło czerwonego aparatu. Jeśli OP jest naprawdę zainteresowany robieniem zdjęć z filmu, powinien wydać 17 000 $ lub cokolwiek to kosztuje dla Czerwonego i pójść tą drogą. Nie to, co ja osobiście bym zrobił, ale to jeden ze sposobów na uzyskanie wysokiej rozdzielczości zdjęć z wideo.
mmr 30.01.11
1

Powinien to być komentarz do posta @thomasrutter, ale nie mogę jeszcze komentować (brak reputacji).

Twój punktor na temat MJPEG kontra AVC nie jest całkowicie poprawny. Prawdą jest, że MPEG-4 część 10 (AVC / H.264) zwykle nie rejestruje każdej klatki jako I-klatki (klucz / pełna klatka). W specyfikacji nie ma nic, co by tego zabraniało, a niektóre kamery rejestrują tylko klatki I.

To, w czym się mylisz, to zalety MJPEG w stosunku do H.264 i twoja argumentacja na temat tego, dlaczego. Zacznę od krótkiego wyjaśnienia, w jaki sposób klatki są odtwarzane z H.264 (lub innych formatów kodeków wideo). Wideo zostanie zakodowane w trzech różnych typach ramek, ramkach kodowanych wewnątrz (ramki I), ramkach kodowanych predykcyjnie (ramki P) i ramkach kodowanych dwukierunkowo (ramki B). I-frame to kompresyjna wersja pełnej „surowej” ramki. Można go zrekonstruować jako JPEG (lub pojedynczą klatkę w strumieniu MJPEG). Z drugiej strony ramka P odwołuje się do ramek I i P i będzie wymagać ich rekonstrukcji. Ramka B może również odnosić się do następujących ramek I i P. Jest o wiele więcej informacji na ten temat na Wikipedii.

Różnica między H.264 i MJPEG polega na tym, jak działa kompresja, a nie na tym, jak dobra. Każdą klatkę w cyfrowym wideo można całkowicie zrekonstruować, korzystając z informacji znajdujących się w pliku / strumieniu wideo. H.264 da lepsze wyniki niż MJPEG, nawet jeśli eksportujesz jedną klatkę przy tej samej szybkości transmisji. Dotyczy to większości bitrate'ów (nie jestem pewien co do bardzo niskich bitrate'ów). Jest więcej informacji i kilka testów on-line, a dobrym miejscem do rozpoczęcia jest kompresja .ru .

Jedyną wadą H.264 jest złożoność obliczeniowa przy odtwarzaniu pojedynczej klatki. H.264 wymaga o wiele większej mocy obliczeniowej niż MJPEG. Nie jest to jednak problem na nowoczesnych komputerach.

Håkon K. Olafsen
źródło