Czy soczewki do filmów zostały zaprojektowane tak, aby skupiać różne kolory na różnych głębokościach, a co to oznacza dla techniki cyfrowej?

9

Czytałem książkę Adobe Photoshop CS5 dla Photographers: The Ultimate Workshop autorstwa Martina Eveninga i Jeffa Schewe (Focal Press. 2011) i przeczytałem ten akapit o soczewkach filmowych i lustrzankach cyfrowych:

… Soczewki filmowe zostały zaprojektowane w celu rozdzielenia kolorowego obrazu na trzy oddzielne… filmowe warstwy emulsyjne, które się na siebie nakładają. Konsekwentnie, soczewki foliowe zostały zaprojektowane tak, aby skupiać czerwone, zielone i niebieskie długości fal w ułamkowo różnych odległościach i jeszcze większych odległościach od krawędzi narożnych obszaru emulsji folii. Ponieważ czerwone, zielone i niebieskie miejsca na zdjęciach znajdują się w tej samej płaszczyźnie ostrości na czujniku cyfrowym, obiektywy… powinny teraz skupiać długości fali czerwonej, zielonej i niebieskiej na jednej płaszczyźnie ostrości.

Co to oznacza w praktyce, gdy używasz soczewki filmowej na lustrzance cyfrowej? Książka nie zawiera żadnych efektów. Powyższy tekst pochodzi z rozdziału zatytułowanego „Poprawianie ostrości przechwytywania z aparatu”, więc prawdopodobnie ma to coś wspólnego z ostrością obrazu. Czy może to również wpłynąć na dokładność kolorów? W jaki sposób? Coś jeszcze? Czy różnice są „tylko laboratoryjne”, czy powinny być widoczne gołym okiem?

Mam kilka zdjęć wykonanych obiektywami filmowymi na lustrzance cyfrowej, ale nie wiem na co / gdzie patrzeć. Efekty ostrości obiektywu są trudne (niemożliwe) do oceny na podstawie moich zdjęć, ponieważ większość z nich jest nieostra ze względu na połączony efekt niedoświadczonego ręcznego ustawiania ostrości oraz jakości ekranu ustawiania ostrości i wizjera Canona 450D.

Jari Keinänen
źródło

Odpowiedzi:

27

To dużo bzdur. Cel projektantów obiektywów w czasach filmowych był taki sam, jak teraz - podejście (lub osiągnięcie) apochromatycznego działania. Oznacza to zaprojektowanie soczewki, która skupia wszystkie widzialne długości fali światła na jednej płaszczyźnie (lub w jednym punkcie). To nie jest łatwe.

To jest prawda, że niektóre bardziej nowoczesne konstrukcje soczewek są dużo bliżej tego ideału niż typowe starszych obiektywów. Ma to jednak związek z postępami w zakresie materiałów (takich jak materiały o niskiej dyspersji, które wytwarzają zmniejszone „tęcze” podczas załamania światła, oraz materiały o nietypowej dyspersji, które wytwarzają tęcze „do tyłu”) i konstrukcji, a nie ze zmianą filozofii projektowania.

Nie trafienie w cel apo (coś, co robi większość obiektywów, szczególnie przy krótszych ogniskowych / szerszych kątach) powoduje boczną aberrację chromatyczną (kolorowe prążki, które można zobaczyć w obszarach o wysokim kontraście). Dopóki nie są naprawdę złe, można je poprawić (często aparat zrobi to za Ciebie, jeśli robisz JPEG). Programy przetwarzania RAW często pozwalają na zastosowanie profilu soczewki, aby poradzić sobie zarówno z aberracją chromatyczną, jak i zniekształceniami geometrycznymi.

Jedyną prawdziwą „cyfrową różnicą”, o której wiem (oprócz tworzenia obiektywów specjalnie dla mniejszych formatów wielu aparatów cyfrowych) jest to, że większą uwagę przywiązuje się do powłoki antyodbiciowej z tyłu obiektywu, ponieważ czujnik cyfrowy jest bardzo bardziej odblaskowe niż film, więc flara pochodząca z obiektywu jest znacznie większym problemem.


źródło
1
Brzmiało to nieco wątpliwie, zwłaszcza że książka nie zapewniała żadnych doświadczeń w świecie rzeczywistym. Muszę wspomnieć, że część Photoshopa (która wynosi około 410 stron z 475) jest naprawdę dobra (jeśli ktoś ma ochotę potępić całą książkę za tę usterkę). Przynajmniej dla mnie warto było odwiedzić bibliotekę.
Jari Keinänen,
1
Deklaruję shenanigans autorowi tej książki. Canon i Nikon nie zastąpili linii obiektywu, gdy wyszli z cyfrowymi korpusami. Soczewki pozostają wymienne i żadna firma nigdy nie sugerowała takiej głupoty. W rzeczywistości Nikon nadal wymienia F6 i FM10 na swojej stronie internetowej; Czy reklamują JAKIEKOLWIEK soczewki „filmowe”? Nie.
Greg
1
Jest jeszcze jeden efekt, z którym trzeba sobie poradzić: chociaż używają mikrosoczewek, aby go zmniejszyć, światło wysyłane do czujnika cyfrowego pod kątem skośnym nie działa tak samo jak w przypadku filmu. Aby sobie z tym poradzić, najnowsze obiektywy szerokokątne (szczególnie) mają tendencję do projektowania retrofokusa.
Jerry Coffin,
10

To stwierdzenie o obiektywach faktycznie zaprojektowanych specjalnie w celu skupiania kolorów w osobnych płaszczyznach wydaje się wątpliwe. Nawet w czasach filmowych „APO” było punktem sprzedaży soczewek - „Apochromatic”; APO oznacza, że ​​wszystkie trzy kolory są faktycznie skupione w jednej i tej samej płaszczyźnie. Możemy wywnioskować z tego, że osiągnięcie tego nie było przeciętnym wyczynem i że była to pożądana cecha.

Podejrzewam, że film, który jest nieco trójwymiarowy, mógł dać projektantom obiektywów nieco więcej swobody. Cyfrowość jest bardziej bezwzględna.

Staale S.
źródło
6
Podejrzewam, że niewielka krzywizna w filmie była znacznie większa niż grubość warstwy. Ułożenie folii płasko na płycie nośnej jest trudne i wymaga uzyskania próżni, aby uzyskać doskonałe wyniki.
labnut
W 100% uzgodnione, labnut.
Staale S
7

Jest to mało prawdopodobne z dwóch powodów:

  1. Ignoruje to przypadek filmu monochromatycznego.

  2. Trudno jest ustawić folię na płasko przylegającą do płyty podkładowej, a niewielka krzywizna folii najprawdopodobniej znacznie przekroczy grubość warstwy.
    Zobacz tę dyskusję Normana Korena (przewiń w dół od trzech do czterech stron).

labnut
źródło
Dobre dodatkowe punkty i strona, do której linkujesz, jest naprawdę świetna! Nie tylko ta strona, ale cała witryna.
Jari Keinänen,
2

Projektowanie soczewek w celu skupienia się na różnych warstwach w oparciu o długość fali, gdzie same warstwy są cieńsze niż mechaniczna tolerancja soczewki / części ciała, wydaje mi się nieco przesadzone (jeśli nie przesada).

Jednak jako inżynier widziałem kilka zabawnych prób przeprojektowania projektu, więc możliwe jest, że zespół projektowy lub dwóch naprawdę wziął to pod uwagę i starał się zoptymalizować obiektyw pod kątem struktury filmu.

Na marginesie - jeśli to stwierdzenie jest rzeczywiście prawdziwe, to czujniki Foveon mogą mieć tutaj przewagę ...

tak
źródło
JEŻELI czujnik Foveon używa tej samej kolejności układania, co zwykły film kolorowy ... czy w ogóle korzystali z tej samej kolejności, szczególnie biorąc pod uwagę egzotyczne filmy zwrotne, takie jak kodachrome?
rackandboneman