Czy istnieją powody, aby używać filtrów kolorów w aparatach cyfrowych?

62

Zdjęcia cyfrowe mogą mieć filtry kolorów zastosowane po fakcie przez oprogramowanie, więc czy są jakieś dobre powody, aby używać filtrów kolorów w aparacie cyfrowym? Jak rozumiem, głównym powodem były pierwotnie efekty z czarno-białym filmem, ale teraz nawet czarno-biały jest efektem przetwarzania końcowego.

Wiem, że filtry UV są dobre do ochrony soczewek i że filtry ND pozwalają na dłuższe naświetlanie, ale do czego służą filtry kolorowe?

Hamish Downer
źródło
1
+1 za dobre pytanie. Znam kilku bardzo dobrych facetów z krajobrazu, którzy używają filtrów do rzucania kolorów zamiast post-processingu, mimo że mają dostęp do Photoshopa.
reuscam
Osobiście rozważam też kolory w podczerwieni i ultrafioletu ...
SF.

Odpowiedzi:

39

Istnieje różnica między kolorami a filtrami korekcji kolorów, chociaż oba są kolorowe.

Filtry korekcji kolorów są przydatne w fotografii cyfrowej, aby uzyskać bardziej równomierną ekspozycję we wszystkich kanałach przy niektórych specjalnych rodzajach oświetlenia.

Na przykład prawdopodobnie uzyskasz większą ekspozycję, a tym samym mniej szumów w kanale niebieskim, jeśli użyjesz filtra korekcji koloru niebieskiego (82A / B / C) pod piorunem. Należy zauważyć, że filtry te mają współczynnik filtrowania , co oznacza, że ​​wzrost szumu o jeden stopień może oznaczać utratę stopnia pod względem czasu ekspozycji.

Fotografia podwodna to kolejna dziedzina, w której światło jest trudne i sugerowane są filtry fizyczne, głównie ocieplające, ale mogą również obowiązywać filtry z korekcją fluorescencji .

W tym przykładzie wykonano dwa zdjęcia w tych samych warunkach przy oświetleniu wolframowym (latarnia uliczna zimą), pierwszy pokazuje niebieski kanał z obrazu bez żadnej filtracji, a drugi niebieski kanał z obrazu z dość słabym filtrem 80D. Zwróć uwagę na różnice w poziomie hałasu. Należy wspomnieć, że odniesienie do balansu bieli dla obu zdjęć zostało pobrane z szarej karty, a niebieski kanał pokazuje więcej szumów w niefiltrowanej obudowie, ponieważ niebieski kanał został w tym przypadku wzmocniony.

Niefiltrowany obraz

Niebieski filtr

Zwykłe filtry kolorów dla filmu BW nie są zbyt przydatne w świecie cyfrowym, ponieważ mogą łatwo doprowadzić do prześwietlenia jednego kanału i pozostawienia pozostałych kanałów niedoświetlonych i hałaśliwych. Umieszczenie mocnego filtra kolorów przed obiektywem oznacza, że ​​nieefektywnie korzystasz z aparatu cyfrowego, ponieważ na przykład w przypadku filtra czerwonego / niebieskiego używasz tylko 25% dostępnych pikseli i 50% w przypadku zieleni.

Listę filtrów wraz z ich numerem i opisem można znaleźć w artykule na Wikipedii .

Karel
źródło
Nie mogłem wymyślić, jak utworzyć link do zdjęć, więc przeciągnij je do osobnej karty, aby wyświetlić 100%.
Karel
dwa sposoby: jeśli używasz nowej wersji beta strony ze zdjęciami, w menu „udostępnij to” na stronie ze zdjęciami powinno być „chwycenie HTML”, bardzo szybko. Bardziej ogólny sposób poprzez markdown byłby następujący :!
ex-ms
1
Dzięki. Czekam na dobrą pogodę, aby powtórzyć moje przykłady za pomocą filtrów kolorów (takich jak 25A), aby udowodnić mój drugi punkt, ale nie jestem pewien, czy ktoś jest zainteresowany :)
Karel
2
Należy zauważyć, że filtr może tylko przyciemnić obraz, a nie rozjaśnić. Stosując niebieski filtr, uzyskujesz więcej ekspozycji w kanale niebieskim, ponieważ przyciemniłeś kanały czerwony i zielony, powodując, że Ty (lub miernik aparatu) zwiększysz ekspozycję poprzez czas otwarcia migawki, przysłonę lub ISO.
Evan Krall,
1
Zmniejszenie ekspozycji w jednym kanale pozwala również zwiększyć ekspozycję w innych kanałach bez zdmuchiwania zmniejszonego kanału, więc działa to w obie strony. Jeśli masz zbyt dużo czerwieni w scenie, umieszczenie zielonego filtra przed obiektywem pozwala zwiększyć ekspozycję (Tv, Av) bez zdmuchiwania czerwonego kanału.
Michael C
23

Przejdźmy do skrajnego przypadku, abyśmy mogli pomyśleć o tym, co robi filtr.

Zróbmy dowolny obraz, a następnie spróbujmy zrekonstruować, jaki byłby obraz, gdyby w aparacie był filtr R72 .

skrzynia biegów dla R70 i R72

Są to filtry górnoprzepustowe IR .

Naprawdę nie możesz wziąć tego, co czujnik zarejestrował i stamtąd stamtąd, aby spróbować zrekonstruować rzeczywiste długości fali (lub polaryzację) światła przechodzącego przez soczewkę.

Gdybyś mógł , wszyscy robiliby zdjęcia IR i UV bez filtrów. Chodzi o to, że po naciśnięciu czujnika straciłeś część informacji o świetle.

Samo światło nie RGBjest całym zakresem różnych długości fal, dla których suma tego jest postrzegana przez nasze oko jako kolor. Dzięki kolorowemu filtrowi możesz zmniejszyć znaczenie niektórych części tego widma, aby albo zrównoważyć światło (jak w przypadku korekcji światła UV), albo usunąć określone jego części, aby osiągnąć określony cel.

Usuwa określone części, które często można zobaczyć. Moim ulubionym jest filtr didymowy (aka Red Enhancer), który ma widma transmisyjne, które wyglądają jak:

Didymowy

Ta kropla przy 580 nm znajduje się wokół linii sodowej (pomyśl te żółte lampy uliczne) i jest używana do okularów ochronnych dmuchawy do szkła, aby mogli usunąć żółty kolor sodu z płomienia i lepiej widzieć rzeczy, z którymi pracują.

Na fotografii brązowe liście koloru jesiennego nie są brązowe , są czerwone i pomarańczowe oraz żółte i kilka innych długości fali. Po usunięciu niektórych długości fali w pobliżu czerwieni, czerwony kolor staje się wyraźniejszy.

z czerwonym wzmacniaczem i bez niego

zdjęcie z http://photoframd.com/2010/10/15/enhance-fall-colours-with-an-intensifier-filter/

Podobne filtry można znaleźć w astrofotografii. Filtr „skyglow” w celu zmniejszenia konkretnych form zanieczyszczenia światłem nocnego nieba (niektóre użyć filtru dydym ponieważ wycina część światła Zanieczyszczenie z lampy sodowej (zauważ, że lampa z parami rtęci jest znacznie trudniejszy do czynienia z ( więcej informacji na ten temat można znaleźć w części Rodzaje lamp ). Alternatywnie możesz po prostu sfotografować linię wodorową alfa , która przepuszcza jedynie 7 nm pasma około 656,3 nm . Znowu są to rzeczy, których nie można odtworzyć po tym fakcie raz obraz został przechwycony.

Żele i filtry korygujące kolory to takie, które przepuszczają tylko światło, które chcesz sfotografować do czujnika. Po złożeniu całego spektrum światła do wartości RGB nie można go ponownie rozdzielić, aby usunąć określone części.


źródło
5
Świetna odpowiedź! To był jedyny, który naprawdę wyjaśnił, w jaki sposób filtr może osiągnąć więcej niż przetwarzanie końcowe.
dancek
8

To zależy. Zwłaszcza podczas tworzenia obrazów, które są wyświetlane w trybie monochromatycznym / czarno-białym.

Gdyby cyfrowe czujniki miały nieograniczony zakres dynamiki, nie miałoby to tak wielkiego znaczenia, ale wszyscy wiemy, że są ograniczone przez ich poziom szumów.

Używając filtra kolorów podczas fotografowania, możesz zmniejszyć określony kanał kolorów, który w innym przypadku mógłby zostać zdmuchnięty, zachowując jednocześnie jasność pozostałych dwóch kanałów kolorów. Na przykład, jeśli scena ma dużo większą jasność w kanale czerwonym, niż chcę na końcowym obrazie, mogę użyć zielonego filtra, aby zmniejszyć ilość czerwieni bez redukcji zieleni (i w mniejszym stopniu niebieskiego). Zielony filtr może również pozwolić mi na ekspozycję, dzięki czemu zielenie i błękity są jeszcze jaśniejsze, jednocześnie utrzymując czerwone poniżej pełnego nasycenia.

Ale czy dzisiaj, w przypadku aparatów cyfrowych, zamiast tego po prostu strzelałbym w kolorze, zastosowałbym żółty filtr pocztowy (lub dowolne inne filtry kolorów, których chcę), a następnie przekonwertował obraz na czarno-biały?

Nie dokładnie. Filtry cyfrowe nie zawsze działają w taki sam sposób, jak rzeczywiste filtry fizyczne, więc nie zawsze dają takie same wyniki . Być może będziesz w stanie podejść bardzo blisko , ale nadal nie możesz zastąpić korzystania z rzeczywistych filtrów, jeśli planujesz zaprezentować obraz ze szczególną równowagą między niektórymi kolorami a odcieniami szarości, które wytwarzają w trybie monochromatycznym.

W przypadku większości ogólnych konwerterów raw, które mają dedykowaną kartę „Monochromatyczny”, liczba i kolor filtrów, które można zastosować, są zwykle dość ograniczone. Dostępne opcje zwykle mogą być takie jak Czerwony → Pomarańczowy → Żółty → Brak → Zielony . Ale często nie można zmienić gęstości / siły określonego koloru filtra. Jeśli chcesz mieć określony kolor między tymi opcjami lub powiesz, że chcesz niebieski filtr, często nie masz szczęścia.

Dedykowane aplikacje do edycji czarno-białych / monochromatycznych lub wtyczki, takie jak Silver Efex Pro firmy Nik lub efekty czarno-białe Topaz, często dodają wiele innych opcji, w tym określone filtry o różnej sile. Mogą być nawet oznaczone nazwami ich analogicznych odpowiedników, np. Lee # 8 Yellow lub B&W Light Red 090 . Ale nadal działają na światło po zarejestrowaniu go przez czujnik, a nie wcześniej. Tak więc ograniczenia zakresu dynamicznego kamery ograniczą, w pewnym stopniu, to, jak blisko rzeczywistego filtra można uzyskać, robiąc to w trakcie przetwarzania końcowego.

To, co ustawisz dla temperatury barwowej i dostrajania wzdłuż niebieskiego ← → żółtego i purpurowego ← → zielone osie, będzie miało efekt, ale nie zawsze będzie takie samo, jak przy użyciu filtra kolorów. Podczas regulacji temperatury kolorów prawie wszystkie kolory są przesuwane w jednym lub drugim kierunku. Filtry kolorów są znacznie bardziej selektywne w kwestii tego, które kolory mają wpływ . Możesz użyć narzędzia Hue Saturation Luminance (HSL) w wielu aplikacjach przetwarzania końcowego, aby nieco bardziej dostroić, ale nadal niepotrzebnie ograniczyłeś zakres dynamiczny aparatu bardziej niż przez zastosowanie filtra do światła przed ekspozycją, dzięki czemu możesz może wykorzystać więcej zakresu dynamicznego aparatu tylko w świetle, które chcesz uchwycić.

Na przykład możesz zredukować kontrast w poście, aby naśladować efekt niebieskiego filtra, ale może nie dać dokładnie takiego samego efektu. Ponownie, poświęcasz również zakres dynamiczny, stosując filtr do informacji cyfrowej po jej zarejestrowaniu, a nie do światła przed jej zarejestrowaniem.

Michael C.
źródło
7

Tak, jeśli chcesz spędzać mniej czasu za komputerem, załóż filtr koloru na obiektyw.

Marc
źródło
5

Powiedziałbym, że największą zaletą używania filtrów w kamerze zamiast przetwarzania końcowego w komputerze jest to, że można zobaczyć wynik na stronie, dokonując niezbędnych zmian. To samo dotyczy podwójnej ekspozycji w aparacie zamiast układania ramek w komputerze; możesz uzyskać natychmiastową informację zwrotną na temat wyniku.

Fredrik Mörk
źródło
4
Należy pamiętać, że balans kolorów ekranu LCD aparatu może być zły, podobnie jak warunki oglądania.
Reid
2
Jeśli balans kolorów wyświetlacza LCD aparatu jest słaby i nie możesz mu ufać, dlaczego fotografujesz cyfrowo. (Albo dlaczego nie masz lepszego aparatu, któremu możesz zaufać.) Warunki oglądania, cóż, to dobra uwaga.
Jared Updike,
1
@JaredUpdike Ponieważ mój aparat ma kiepski wyświetlacz LCD o niskiej rozdzielczości i robi doskonałe zdjęcia.
Steve Ives
4

Jeśli fotografujesz w formacie RAW, nie ma już powodu, aby używać filtrów kolorów.

Jeśli strzelasz do JPEG, lepiej jest zrobić to dobrze za pierwszym razem, niż przetwarzać później, więc filtry kolorów są bardzo przydatne.

dreszcze42
źródło
3

Dzięki elastyczności oferowanej przez programy do obróbki obrazów cyfrowych, takie jak Photoshop, Lightroom, Aperture itp., Nie ma powodu, aby używać kolorowego filtra w aparacie cyfrowym. Filtry ND i polaryzatory mogą uzyskiwać efekty, które nie są możliwe wyłącznie za pomocą oprogramowania, ale w celu dodania przebarwienia do obrazu nie ma powodu, aby kupować lub nosić filtr fizyczny.

ahockley
źródło
4
Należy pamiętać, że efekt ND można powielić, wykonując wiele ekspozycji i łącząc je przy użyciu technik HDR (a wynik nie musi wyglądać jak HDR).
Reid
1
Nawet filtry kolorów mogą być przydatne, jeśli zamierzasz przekonwertować na czarno-biały. Pozwala przesunąć ekspozycję w aparacie, zapewniając więcej odcieni w pożądanym spektrum kolorów bez nadmuchiwania lub niedoświetlania pikseli.
Matthew Whited
1
@Reid Więc możesz sfotografować wodospad przy ISO 100, f / 16, 45 sekund w jasnym świetle słonecznym i po prostu zmniejszyć ekspozycję na stanowisku? Jak ci się to udało?
Michael C
1
@MichaelClark Zobacz, np .: blog.patdavid.net/2013/09/… Zasadniczo możesz robić wiele zdjęć, układać je w stosy i uśredniać je, a także uzyskiwać efekt pojedynczej długiej ekspozycji. Prawdopodobnie więcej pracy niż tylko użycie filtra ND, ale możliwa strategia.
pwcnorthrop
1
@MichaelClark Nie zrobiłbyś pojedynczej ekspozycji 45 sekund, raczej użyłbyś kilku ekspozycji 1/15 sekundy (lub cokolwiek, co byłoby odpowiednie) i zmieszałeś je, aby naśladować jedną długą ekspozycję. Będziesz więc gromadzić dane zdjęciowe przez długi czas, ale posegregowane na wiele zdjęć (plików) o prawidłowej ekspozycji, które można połączyć w post
pwcnorthrop
2

Należy wziąć pod uwagę dwie główne zmienne:

  1. Wszystko, co robisz w momencie wykonywania zdjęcia, jest czymś, czego nie zrobisz w postprodukcji.
  2. Postprodukcja zawsze obniży jakość obrazu.

Biorąc to pod uwagę, to, co chcesz zrobić, to zmaksymalizować wydajność swojego strzału i zminimalizować przetwarzanie końcowe. Takie jest uzasadnienie zastosowania filtrów w fotografii cyfrowej: aby zmaksymalizować jakość od samego początku.

W praktyce, jeśli użyjesz RAW, będziesz mógł filtrować kolory przy minimalnym wpływie.

Rezlaj
źródło
3
Dlaczego -1? Zawsze tracisz jakość, ponieważ zawsze grasz ze stałą ilością danych. Jeśli wykonasz zdjęcie w formacie RAW i zmienisz format na JPEG, masz już utratę jakości, więc nie wpłynie to na ciebie. Jeśli użyjesz RAW i zapiszesz post-przetworzony obraz w TIFF, będziesz miał utratę jakości w porównaniu z RAW. Przyrównałbym to nawet do zachowania energii. Nie ma sposobu, aby dotknąć czegoś w Photoshopie i zwiększyć jakość. To samo z optyką, wszystko, co umieścisz na froncie, obniży jakość. Tak działa świat.
Rezlaj,
3
Tak, nie mówię o subiektywnej jakości. Mówiąc o jakości, mówię o rzeczywistej informacji o pikselach. Za każdym razem, gdy klonujesz, przesuwasz histogram, grasz z kontrastem itp., Odbierasz nieco ogólną jakość obrazu. Pytanie brzmi, w jakim stopniu uważasz to za dopuszczalne. Mówię: zrób zdjęcie za pomocą filtra, a następnie zrób to samo zdjęcie i zastosuj filtr w postprodukcji, nie ma mowy, aby te dwa zdjęcia miały tę samą jakość informacji.
Rezlaj,
1
W przypadku RAW wiele edycji jest nieniszczących. Na przykład przesunięcie histogramu. To działanie przetwarzania zastosowane do danych RAW podczas wizualizacji ... przesuwa reprezentację wizualną, ale nie zmienia podstawowych informacji. RAW jest surowy, nie zmienia się. To samo dotyczy nasycenia, kontrastu, balansu bieli. Są to wszystkie nieniszczące zmiany, ponieważ po prostu zmieniają interpretację danych, a nie same dane.
jrista
1
To wszystko dobrze i dobrze, dopóki naprawdę nie chcesz zrobić czegoś z wprowadzonymi zmianami. Po wyjściu z trybu raw i próbowaniu wykorzystania tego, co zrobiłeś (np. Zapisania jako JPEG lub TIF w celu wysłania do drukarek), MUSISZ zastosować zmiany i utracić informacje. Jeśli pozostawisz zdjęcie w formacie RAW, masz rację, ale nie wiem, kto by to zrobił.
Rezlaj,
3
Ta debata ma miejsce, ponieważ jedna strona utożsamia „jakość” z „informacją”, a druga domyślnie uznaje, że jakość ma zwykle inne atrybuty techniczne. Na przykład wyostrzanie może utracić informacje, ale poprawić jakość - nawet w przypadku obrazowania naukowego.
whuber
0

Zależy przede wszystkim od tego, dlaczego używasz filtru kolorowego - jeśli ma to na celu zwiększenie kontrastu w ujęciu czarno-białym, możesz lepiej zrobić to na etapie przetwarzania cyfrowego (chyba że ustawiłeś aparat na robienie zdjęć czarno-białych) jako JPEG)

Jeśli chcesz poprawić lub ulepszyć inne oświetlenie, możesz po prostu zmienić ustawienia balansu bieli w aparacie.

Niektóre efekty artystyczne można osiągnąć za pomocą kolorowych filtrów, ale oprogramowanie takie jak Photoshop może emulować wszystkie ustawienia - to tylko przypadek, gdy chcesz spędzić czas - fotografowanie lub przetwarzanie

Rowland Shaw
źródło
0

Filtry kolorów służą również do dokładniejszego odwzorowania kolorów w scenie. Tutaj wykonuje się wiele zdjęć przy użyciu dużej liczby różnych filtrów kolorów sceny, które można następnie połączyć, aby uzyskać bardziej szczegółowy obraz kolorowy.

Czujnik aparatu używa tylko 3 filtrów, każdy piksel wykrywa szarą wartość światła filtrowanego przez jeden z 3 filtrów. Za pomocą interpolacji uzyskuje się 2 brakujące wartości szarości dla każdego piksela. Nawet jeśli zignorujemy nieuniknione artefakty na tym etapie, musimy wziąć pod uwagę, że teoretycznie niemożliwe jest odtworzenie tego, jak postrzegalibyśmy kolory na scenie, biorąc pod uwagę wartości szarości uzyskane przez 3 filtry, które filtrują spektrum światła inaczej niż komórki stożka w naszym oczy.

Transformacja z wykrytych wartości szarości do obrazu na ekranie komputera wymaga przyjęcia założeń, które w niektórych przypadkach mogą być bardzo niedokładne. Wyświetlane kolory będą wtedy wyraźnie różnić się od rzeczywistości. Teraz niemożliwe jest prawidłowe wyświetlenie kolorów, które widzimy przy użyciu tylko kombinacji 3 kolorów, więc konwencjonalny monitor zawsze będzie za mało. Jednak nawet jeśli scena zawiera tylko kolory, które mieszczą się w zakresie, który może wyświetlać monitor, kolory te nadal nie będą wyświetlane poprawnie.

Jedynym sposobem na lepszą reprezentację kolorów jest wykonanie bardziej niezależnych pomiarów wartości szarości przy użyciu różnych filtrów. Prostym sposobem byłoby robienie zdjęć różnymi aparatami, które mają różne matryce filtrów kolorów w swoich czujnikach. Np. Dodatkowe zdjęcie niskiej jakości wykonane smartfonem można wykorzystać do poprawy kolorów w wysokiej jakości zdjęciu wykonanym aparatem DSLR. Ale możesz także zrobić wiele zdjęć przy użyciu różnych filtrów, a następnie użyć tych zdjęć, aby dokładniej oszacować prawidłową reprezentację kolorów.

Hrabia Iblis
źródło