Nigdy nie zrozumiałem, dlaczego aparaty potrzebują migawki o określonej prędkości i dlaczego nie można tego zmienić w postprocessingu. Myślę, że obecny czujnik działa w sposób integralny: oszczędzają ilość światła docierającego do nich przez cały czas otwarcia migawki. Ale dlaczego nie mogą działać różnicowo?
Mam na myśli ten pomysł: ustaw czas otwarcia migawki na długi czas, bardziej niż ten, którego potrzebujesz ... na przykład w świetle dziennym ustaw go na 1 sekundę, naciśnij przycisk, migawka otworzy się i czujnik się uruchomi nagrywać, ale w sposób różnicowy: oszczędzałoby to ilość światła docierającego do niego co 0,001 sekundy przez 1 sekundę. W ten sposób mam więcej informacji, właściwie mam 1000 klatek nagranych w ciągu 1 sekundy, a w postprocessingu mogę zdecydować się na zintegrowanie tylko pierwszej dziesiątki, aby zasymulować strzał z 0,01 sekundy, lub pierwszą setkę, aby zasymulować strzał z 0.1 druga ekspozycja
Korzystając z zaawansowanego przetwarzania lub ręcznie wybierając obszary, mogłem nawet zdecydować o zastosowaniu innej ekspozycji dla różnych części końcowego obrazu, na przykład ekspozycji 0,1 sekundy dla ziemi i 0,03 dla nieba, używając 100 klatek dla nieba i 30 klatek na niebo.
Czy jest sens? Dlaczego kamery nie działają w ten sposób?
źródło
Odpowiedzi:
Problemem jest szybkość odczytu. Nie można odczytać całego czujnika wystarczająco szybko, aby działało to w ogólnym przypadku. Nawet gdybyś mógł. miałby to również szkodliwy wpływ na jakość obrazu, ponieważ wielokrotnie nakładałbyś szum odczytu.
Przynajmniej dzięki czujnikom CMOS możesz odczytywać w losowych lokalizacjach, ale dzięki czujnikom CCD każdy wiersz jest przesuwany do następnego, aby wykonać odczyt. Dlatego gdy światła są zbyt jasne, na podglądzie kamer używających matryc CCD pojawiają się pionowe smugi.
Są też powody, dla których fotografowie wybierają czas otwarcia migawki : aby zatrzymać trochę czasu. Ludzie prawie zawsze byliby rozmazani, gdybyś nie zatrzymał migawki wystarczająco szybko.
źródło
Myślę, że mogą tak działać, ale są dwa duże problemy:
W swoim pierwotnym pytaniu wykorzystałeś jako przykład jedną czwartą sekundy. W rzeczywistości nie jest to wcale bardzo długi czas otwarcia migawki i jest już 10 razy większy niż w obecnych aparatach. Aby było to naprawdę znaczące, potrzebowalibyśmy technologii do punktu, w którym czujnik jest odczytywany 10 do 100 razy szybciej niż ten - co znacznie komplikuje problemy.
Drugi problem zostanie rozwiązany przez prawo Moore'a za dekadę lub dwie, a pierwszy może być również, ponieważ elektronika staje się mniejsza i bardziej precyzyjna. Na razie nie jest to praktyczne.
Olympus OM-D E-M5 faktycznie ma funkcję, która pokazuje ekspozycję „rozwijającą się” przy długich ekspozycjach, ale pozwala to uniknąć powyższych problemów, wymagając minimum pół sekundy między odczytami: jest to przydatne tylko przy długich ekspozycjach.
Ale w przyszłości, przy lepszej elektronice, wszystkie aparaty prawdopodobnie będą działały w ten sposób, a przy znacznie większej dostępnej przestrzeni dyskowej równie dobrze mogłyby nagrywać w sposób ciągły. Przycisk „migawki” służyłby po prostu do oznaczenia części strumienia jako interesującej do późniejszego opracowania. A kiedy już to robimy, porzuć obiektyw i zrób z niego 360 ° aparat światła; kadrowanie, przysłonę i ostrość można również wybrać po fakcie, wyrzucając konwencjonalną wiedzę na temat podstaw aparatu całkowicie za okno
źródło
Jak wspomniało wiele osób, jest to aspekt prędkości odczytu. Zespół obwodów obrazujących nie może po prostu „natychmiastowo” pobrać wartości pikseli czujnika, należy je odczytywać linia po linii.
Następnie musisz również pomyśleć o tym, dokąd zmierzają te wartości aktualizacji pikseli. Nawet z pewną kompresją, zakładając niską entropię późniejszych klatek w porównaniu do wcześniejszych klatek, zajmą znaczną ilość miejsca. Ponadto dane, które nie są zbyt ściśliwe, spowolnią cały proces - ponieważ nie można zagwarantować ściśliwości nowej ramki względem starej, system nadal musiałby mieć wystarczającą przepustowość, aby pokryć najgorszy scenariusz bez degradacji.
Wreszcie (i jest to trochę banalne) należy wziąć pod uwagę efekt nierówności Heisenberga lub zasady nieoznaczoności. Przy każdej próbce mamy pewien poziom niepewności dotyczący pomiaru. Biorąc bardzo wiele próbek (z których każda najwyraźniej mamy niską pewność, w przeciwnym razie moglibyśmy wybrać pojedynczą klatkę z około tysiąca), uzyskujemy niepewność dla każdej z tych klatek, a nie tylko raz. Byłoby to spotęgowane podczas łączenia wielu ramek, a teraz maksymalna niepewność jest mnożona przez liczbę ramek, z których tworzysz ostateczny obraz. W najgorszym przypadku może to znacznie pogorszyć jakość zdjęć.
źródło
Chociaż twój pomysł jest intrygujący, istnieje kilka powodów, dla których nie zadziałałby.
Rozmiar pliku: Pomyśl o tym, jak duży byłby wynikowy plik obrazu. Moja lustrzanka 8mp daje pliki o wielkości około 3 MB. Gdybym robił 100 zdjęć za każdym razem, gdy naciskałem migawkę, zapisałbym 300 MB na mojej karcie. Karta zapełni się zbyt szybko. Są to również liczby dla mojego aparatu, który ma stosunkowo niską rozdzielczość. W przypadku profesjonalnych aparatów rozmiar może łatwo podwoić lub potroić to. W trybie Raw rozmiar może wzrosnąć o kolejne trzy razy. Ostatecznie, profesjonalnie strzelając do Raw, mogę uzyskać ponad 3 GB na strzał.
Ekspozycja: Czasami aparat wymaga ekspozycji przez czas dłuższy niż 1/100 sek. aby uzyskać odpowiednią ilość światła. Jeśli wykonasz zdjęcie w zbyt słabym świetle, powstałe zdjęcia byłyby niedoświetlone i potencjalnie nie nadawałyby się do użytku. Nie można po prostu łączyć obrazów, aby to nadrobić, ponieważ nie można znaleźć danych, których nie ma.
Hałas: Gdy czujniki się nagrzewają, wyświetlają zjawisko zwane hałasem. Jest to plamka przypadkowo kolorowych pikseli widocznych na niektórych zdjęciach. Gdyby czujnik cały czas działał przez sekundę, poziomy szumów szybko wzrosłyby, potencjalnie prowadząc do nieużytecznych obrazów.
Szybkość zapisu na karcie: karty pamięci mają ograniczony czas dodawania informacji. Jest to znane jako prędkość zapisu. Aby obsługiwać pliki tego rozmiaru, karty wymagałyby dużej prędkości zapisu. Te karty mogą być bardzo drogie.
Podsumowując, jest to ciekawy pomysł, ale jest na nim kilka przeszkód.
Mam nadzieję, że to pomogło.
źródło
Można zauważyć, że skoro zadano to pytanie, pomysł ten został nieco zaimplementowany w (przynajmniej niektórych) smartfonach.
Ponieważ limity technologiczne nie poprawiły się tak bardzo, ogranicza się to oczywiście do bardzo długich ekspozycji w bardzo słabym świetle (np. Astrofotografii). Fakt, że oprogramowanie układa wiele n-sekundowych ekspozycji, jest widoczny, jeśli występuje ruch w ramce (będą miały niewielkie nieciągłości podczas odczytu).
Układanie w stos może być nawet wyświetlane w czasie rzeczywistym na ekranie, ponieważ obraz „wynikowy” wydaje się coraz jaśniejszy.
źródło
Istnieją kamery, które zasadniczo działają w ten sposób. Wyszukaj kamery High Dynamic Range (HDR). Najtańsze z nich działają poprzez braketing ekspozycji, zasadniczo biorąc dwie lub cztery różne ekspozycje, a następnie łącząc je w swoim wewnętrznym oprogramowaniu w jednolity obraz. Możesz to zrobić za pomocą dowolnego aparatu, korzystając z zewnętrznego oprogramowania .
Rozumiem, jak działają zaawansowane kamery HDR, ponieważ w zasadzie dynamicznie obliczają osobny czas automatycznej ekspozycji dla każdego pojedynczego piksela i używają go do ustalenia rzeczywistej jasności sceny. To rozwiązuje problem posiadania ton danych dla każdego piksela, po prostu przechowujesz czas ekspozycji i wartości kolorów, gdy przekroczy on określony próg jasności. Oczywiście wymaga to znacznie bardziej złożonego sprzętu i oprogramowania.
źródło
Istnieje kilka różnych rodzajów żaluzji, ale główne to żaluzje mechaniczne i elektroniczne (czujnik jest włączony / wyłączony).
Większość lustrzanek cyfrowych wykorzystuje migawkę płaszczyzny ogniskowej, podczas gdy kamery wideo używają migawek elektronicznych. Chociaż wydaje się, że chcesz to zintegrować, istnieją inne sposoby na osiągnięcie tego.
Głównym powodem migawki jest ekspozycja, podstawowa zasada fotografii.
Prawdopodobnie możesz ustawić coś dla swojego przykładu. Możesz spojrzeć na braketing lub, jeśli to nie wystarczy, tethering.
0,01 = 1/100 i jest to dobry czas otwarcia migawki. Większość kamer obsługuje prędkości do 1/8000 sekund.
Tylko na ostatniej części:
Nadal będziesz musiał pomyśleć o ekspozycji dla tego zdjęcia, co 0,01 sekundy.
źródło
Oprócz punktów, które wszyscy podnieśli - co się stanie z narażeniem?
np. w przypadku mojego konwencjonalnego aparatu potrzebuję 1 sekundy ekspozycji dla danego zdjęcia. Zasadniczo oznacza to 1 sekundę światła zarejestrowanego przez czujnik za jednym razem.
Ok, przejdźmy do twojej sugestii, kamera rejestruje światło o wartości 0,001 sekundy 1000 razy. Wszystkie te obrazy są niedoświetlone i dlatego są bezużyteczne. Jeśli ustawię je w stos, nie otrzymam tego samego obrazu co mój konwencjonalny aparat, ponieważ układanie nie naprawia niedoświetlenia. Aby uzyskać cokolwiek w pobliżu prawidłowej ekspozycji, potrzebowałbym bardzo szerokiej apertury, która (nawet gdybyś mógł znaleźć odpowiedni obiektyw) miałaby inne problemy - głębię ostrości itp. Jeśli masz na myśli, że czujnik byłby wystarczająco czuły, aby uchwycić wystarczająco dużo światło w 0,001 sekundy, aby obraz nie był niedoświetlony, mielibyśmy poważny problem z szumem. Pomysł, o którym wspominasz o włączaniu / wyłączaniu ramek w celu uzyskania innej ekspozycji, jest już obsługiwany w PP za pomocą suwaka ekspozycji.
Możesz wypróbować swój pomysł, wykonując zdjęcia z krótką migawką (jak sugerujesz), a następnie układając je w oprogramowanie HDR lub oprogramowanie startrail.
Wspomniane elementy przetwarzania końcowego, o których wspominasz o zrobieniu ziemi i nieba przy różnych ekspozycjach w celu zrównoważenia obrazu, można już skorygować w PP za pomocą kontroli cienia / podświetlenia i / lub podzielonego tonowania.
Pomyśl też o fotografii akcji, takiej jak sporty motorowe, w których potrzebuję długiej migawki podczas panoramowania, aby dać poczucie szybkości i ruchu. Jeśli powiem 200 zdjęć z bardzo krótkim czasem otwarcia migawki, nie uchwycę rozmycia, a efekt ujęcia nie działa.
źródło