Czytałem, że dłuższe czasy ekspozycji prowadzą do zwiększenia / poprawy nasycenia i że zdjęcia krajobrazowe wykorzystują filtry ND, aby umożliwić dłuższe ekspozycje, aby uzyskać lepsze nasycenie.
Czy to prawda i czy ta technika dotyczy zarówno filmu, jak i techniki cyfrowej. Jeśli to prawda dla cyfrowej, to dlaczego? Z pewnością zmysły otrzymują tę samą liczbę fotonów dla określonej EV niezależnie od czasu.
Ponadto, czy jakość zwiększonego nasycenia różni się znacznie od tego, co można uzyskać po zwiększeniu nasycenia w PS?
exposure
filters
digital-vs-film
Rozpoznać
źródło
źródło
Odpowiedzi:
Być może słyszałeś, że powinieneś nieco przesłonić swoje cyfrowe ujęcia nowoczesnymi lustrzankami cyfrowymi, gdy chcesz uzyskać lepsze nasycenie. Podobnie jak w przypadku filmu, w którym ekspozycja jest niedostateczna, aby nie „stracić danych”, jeśli nadmiernie eksponujesz cyfrowe ujęcie, bez obcinania rozjaśnienia, wówczas uzyskasz lepsze nasycenie bez szumu, gdy dostosujesz go w poście -przetwarzanie.
Powodem tej myśli jest to, że redukuje hałas w cieniach, ponieważ cyfrowe czujniki lepiej zbierają informacje w światłach niż w cieniach. Ze względu na ciepło i zakłócenia elektryczne wewnątrz czujnika słabe światła i cienie będą pobierać losowe dane z powodu błędów własnych czujników. Zwiększa się to wraz z ustawieniem ISO.
Jeśli niedoświetlone ujęcie cyfrowe zostanie zmniejszone o 1/3 lub 2/3 stopnia, tak jak w przypadku filmu, zwiększysz szansę radzenia sobie z hałasem w świetle i cieniach podczas przetwarzania końcowego. Jest to wynikiem konieczności zwiększenia wartości, a zatem błędów już obecnych w hałasie, w ciemnych obszarach kompozycji.
Z tego powodu wielu specjalistów cyfrowych powie Ci, aby przeeksponować o 1/3 lub 2/3 przystanków, abyś mógł obniżyć zatrzymania w postprodukcji, ponieważ czujnik zbiera więcej informacji w najważniejszych miejscach niż w przypadku nocne światła i cienie. To naprawdę działa tylko z nowszymi aparatami z 14-bitowymi plikami RAW, w przeciwnym razie ryzykowałeś przycięcie najciekawszych zdjęć i utratę takiej ilości informacji, jak w przypadku niedoświetlenia zdjęcia. Działa to, ponieważ podświetlenie i rzeczywiste podobne są wystarczająco silne, a wartości są wystarczająco wysokie, aby zastąpić czujnik oraz zakłócenia elektryczne i cieplne. Ale znowu wyniki będą się różnić w zależności od ISO i zastosowanej długości ekspozycji.
źródło
Po pierwsze, nie mogę wymyślić żadnego powodu, dla którego dłuższa ekspozycja (światło słoneczne) wpłynęłaby na nasycenie, ani też nie słyszałem o tym pomyśle wcześniej.
Jest kilka rzeczy, które mogą powodować zamieszanie:
Dłuższe naświetlanie może powodować nasycenie poszczególnych pikseli, co oznacza, że nie mogą one przechowywać żadnych dodatkowych opłat. Jest to jednak zupełnie inne użycie tego słowa.
W sztucznym świetle dłuższa ekspozycja może dać lepsze kolory, ponieważ widmo emitowane przez żarówki i świetlówki zmienia się w cyklu 50 Hz lub 100 Hz, dlatego chcesz uchwycić kilka pełnych cykli. Jednak normalnie nie potrzebujesz filtra ND w pomieszczeniu!
Fotografowie krajobrazu regularnie używają filtrów ND, aby uzyskać długie ekspozycje w celu rozmycia wody lub innych ruchomych obiektów.
Jeśli chcesz naprawdę nasyconych kolorów, musisz nieco niedoświetlić. Jest tak, ponieważ w modelu RGB, gdy kolory stają się bardziej nasycone, jeden kanał może osiągnąć maksymalną możliwą wartość (i rozpocząć przycinanie) przed innymi, mimo że ogólny ton jest tak jasny. Także gama kolorów (zakres możliwych kolorów) jest najwyższa w półcieniach (środkowej jasności), gdy rozjaśnia się liczba kolorów, a ich nasycenie zmniejsza się, aż osiągniesz szczytową jasność, gdzie jest tylko jeden kolor (biały), który ma zerowe nasycenie!
Są więc przypadki, w których można użyć ND, aby zapobiec prześwietleniu (a tym samym nasyceniu kolorów), ale nie ma to nic wspólnego z czasem ekspozycji ( czasem otwarcia migawki).
źródło
Nic o tym nie wiem, używam filtrów ND do ujęć Wodospadu i na słońcu, aby uzyskać przysłonę do f / 8, f / 11, gdzie obiektyw jest bardziej ostry.
Nie zauważyłem żadnej poprawy nasycenia. Być może ta plotka zaczęła się od fotografów, którzy używają tanich filtrów, które nieco zmienią kolor. Wiem to, ponieważ w przeszłości te filtry ND były moją jedyną opcją :)
źródło
Zawsze rozumiałem, że chodziło o dokładność w czasie mechanicznej migawki: jeśli weźmiesz pod uwagę, że w większości współczesnych aparatów migawka składa się z dwóch ruchomych zasłon, to będzie czas (choć naprawdę dość krótki, ale nie za każdym razem idealnie to samo), ile czasu zajmuje zwolnienie migawki i uruchomienie każdej zasłony. Dla celów argumentu powiedzmy, że błąd losowy wprowadzony przez ten błąd mechaniczny wynosi +/- 10 mikrosekund; Jeśli weźmiesz pod uwagę, że przy naprawdę krótkim czasie otwarcia migawki wynoszącym 1/8000 sek. (Czyli 1/8 ms lub 125 mikrosekund), twój przypadkowy błąd może być przyczyną 8%. Jeśli wprowadzisz filtr neutralnej gęstości, który obniża ekspozycję o 4 stopnie, aby uzyskać ekspozycję wynoszącą 1/500 s, wówczas ten błąd 10 mikrosekund jest nagle tylko 0,5% czasu ekspozycji. Dokładniejszy czas ekspozycji,
źródło
Jeśli chodzi o aparaty cyfrowe, jedynym wytłumaczeniem tej tezy, którą mogłem odgadnąć, jest fotografowanie w warunkach słabego oświetlenia. Zwykle istnieją dwie opcje: zwiększenie czasu ekspozycji lub zwiększenie czułości aparatu (powiedzmy, zgodnie z ISO 1600).
Chociaż wyższa czułość często pozwala uzyskać ostry obraz podczas fotografowania z ręki, kolory i zakres dynamiczny zdjęcia nieuchronnie ulegają pogorszeniu. Zdjęcie o długiej ekspozycji wykonane przy ISO 200 w tych samych warunkach zazwyczaj okazuje się znacznie ładniejsze - z bardziej realistycznymi kolorami, gładszymi tonami i mniejszym szumem. Jednak wymaga statywu. :)
źródło