Zastanawiam się, technicznie, dlaczego i jak obszary poza polem ostrości rozmazują się bardziej, gdy używam większej przysłony. Myślę, że bardzo by to pomogło, gdybym przedstawił problem, który doprowadzał mnie do szału:
Czytałem, że liczba f ludzkiego oka waha się od około f / 8.3 w bardzo jasnym świetle do około f / 2.1 w ciemności. Ale z tego, co przetestowałem, zawsze widzę obszary nieostre z tą samą ilością rozmycia.
Co prowadzi mnie do pytania: jak działa ta przysłona, dlaczego tworzy rozmycie z technicznego punktu widzenia i czy dotyczy ona również oczu, czy jest to po prostu „awaria” obiektywów aparatu, do którego przybyliśmy lubić i nigdy nie chciałem „naprawiać”?
aperture
depth-of-field
optics
human-vision-system
Richard Rodriguez
źródło
źródło
Odpowiedzi:
Mam zamiar szopować z mojej odpowiedzi na wcześniejsze pytanie dotyczące apertury :
Zasadniczo im mniejsza apertura, tym bardziej ograniczone jest światło, aby dokładnie ustawić ostrość. Większy otwór wpuszcza więcej światła, ale „cena” polega na tym, że jest mniej kontrolowany.
Poniższy schemat z Wikimedia może pomóc:
Po lewej szeroki otwór powoduje, że ostro renderowana jest tylko środkowa karta focused. Wąski otwór po prawej stronie wyklucza mniej skolimowane światło z kart nieostrych ♠ i ♣, co daje ostrzejszy obraz.
Pamiętaj, że czerwone / zielone / niebieskie kropkowane linie na schemacie wskazują na zewnątrz stożka promieni świetlnych. Bardziej skupione światło jest również zawarte w obrazie wykonanym z szerszym otworem po lewej stronie, ale czujnik obrazu (lub film) nie może określić, który był, więc efektem jest więcej rozmycia, z wyjątkiem promieni, które się zdarzają właśnie w punkcie centralnym.
Z pewnością dzieje się tak również z ludzkim okiem jako soczewką. Myślę, że bardzo trudno jest kontrolować eksperyment, ponieważ nie można zrobić zdjęcia, aby porównać je ze sobą. W czasie od wieczora do południa - lub nawet w ciągu pół godziny, aby oczy przyzwyczaiły się do ciemnego pokoju - tracisz doskonałą pamięć o tym, jak wiele było rozmycia. Jest to dodatkowo komplikowane przez fakt, że twój mózg bardzo ciężko pracuje, aby naprawić wszystkie defekty z oczu i przedstawić model mentalny całego świata w doskonałej ostrości. (To właśnie ta część mózgu, układu ludzkiego wzroku robi ).
Bardzo trudno jest spojrzeć tylko na jedno miejsce; twoje oko porusza się podświadomie i tworzy idealny obraz z tego, który jest naprawdę ostry tylko w środku. Dodaje to jeszcze jedną ogromną komplikację - soczewka oka jest nie tylko stosunkowo prostym systemem z dużą ilością aberracji, ale czujnik jest nieregularny. A raczej jest wysoce wyspecjalizowany. Centralny obszar nazywa się fovea , a jego średnica wynosi tylko około 1 mm - a najostrzejsza część, foveola , ma tylko 0,2 mm. Stąd pochodzi naprawdę ostry obraz. Ale ten obszar nie zawiera żadnych pręcików (komórek wrażliwych na słabe światło), więc ten ostry obszar w ogóle nie jest zaangażowany, gdy jesteś w słabym świetle. To sprawia, że proste porównanie z systemami kamer jest w zasadzie niemożliwe.
Co więcej, w twoich podstawowych założeniach jest jeszcze jedna wada - idea, że ludzkie oko widzi tę samą ilość rozmycia ruchu bez względu na ilość światła. W rzeczywistości sygnał wejściowy jest z czasem całkowany, a ilość czasu wzrasta przy niższych poziomach światła . „Ekspozycja” jest kontrolowana w inny sposób: czułość jest zwiększana w ciemności - skuteczny odpowiednik auto-ISO.
Tak więc, aby przejść do bezpośredniego pytania: to natura optyki, a więc dotyczy to również naszych oczu. Ale nasze oczy to inny rodzaj systemu niż aparat i obiektyw. Ludzki system wizyjny ma prostą soczewkę, skomplikowany czujnik, bardzo skomplikowane natychmiastowe przetwarzanie końcowe oraz niezwykle skomplikowany system przechowywania i wyszukiwania. Aparat zwykle wykorzystuje wyrafinowany obiektyw, stosunkowo prostą matrycę matrycy i stosunkowo prostą obróbkę końcową (do momentu, gdy fotografia komputerowa wejdzie w swoje ręce - niezależnie od tego, czy Lytro odniesie sukces w tym roku, czy ktoś za pięć lat). A system pamięci jest perfekcyjny bit po bicie - przynajmniej nie tak jak pamięć ludzka.
To, czy ta różnica jest czymś, co „lubimy” i nie chcemy naprawiać, jest kwestią interpretacji. Z pewnością idea głębi pola jest w naszym artystycznym / wizualnym słowniku jako społeczeństwo; to, czy tak pozostanie za sto lat, jest kwestią spekulacji. Zgaduję, że tak , nawet w miarę zmiany technologii.
Kamera z innym rodzajem czujnika, takim jak zastosowany w Lytro, może faktycznie rejestrować kierunek nadchodzących promieni światła. Te dodatkowe dane pozwalają tym aparatom stworzyć całkowicie ostry obraz nawet przy bardzo dużej aperturze. Ale nie tak sprzedaje go firma Lytro: ich sztuczka to obrazy, w których można kliknąć, aby zmienić obliczony punkt skupienia w locie. Że wybrali tę trasę zamiast wszystkich…
źródło
Dlaczego szeroki otwór bardziej zaciera tło
Zacznę od figury Wikipedii:
Powyżej mamy szeroko otwarty otwór. W centrum uwagi jest tylko punkt 2. Punkty 1 i 3 są nieostre. Ze względu na szeroki otwór, promienie wychodzące z nich przez różne części soczewki przecinają ekran 5 (film lub czujnik cyfrowy) w różnych punktach. Możemy również powiedzieć, że promienie te tworzą punkt (przecinają się) przed (czerwonym) lub poza (zielonym) ekranem. Odpowiednie stożki światła przecinają się z ekranem i tworzą na ekranie obraz podobny do elipsy. Szerszy otwór pozwala na szerszy stożek światła (pozwala więc zebrać więcej światła i rozmyć więcej).
W efekcie punkt nieostry powoduje powstanie kręgu zamieszania. To możemy nazwać rozmyciem lub bokeh.
W przypadku mniejszej apertury poniżej promienie znajdujące się zbyt daleko od centrum są odcinane, więc okrąg punktu nieostrego jest mniejszy.
Jeśli krąg pomieszania jest mniejszy niż ziarno filmu lub subpiksel czujnika, nie możemy stwierdzić, czy w ogóle jest nieostry, a wtedy punkt wydaje się ostry, nawet jeśli nie jest. Tak więc przy skończonej przysłonie istnieje szereg odległości, które wszystkie wydają się być ostre. Głębia tego zakresu nazywana jest głębią ostrości (DoF). Jest większy dla mniejszych otworów.
Jeśli apertura jest naprawdę, bardzo mała, wówczas mogą przechodzić tylko promienie środkowe i mamy nieskończoną głębię ostrości, bez względu na wszystko. Każdy punkt, blisko lub daleko, jest reprezentowany jako punkt na obrazie. Tak działa kamera otworkowa . Regulowana apertura pozwala mieć wszystko pomiędzy.
Jak to wygląda
Przy mniejszym otworze f / 32 :
Przy większym otworze przysłony f / 5 tło nieostre jest rozmazane bardziej:
(obrazy są ponownie z Wikipedii)
źródło
Promienie świetlne docierające od ustawionego obiektu są załamywane, gdy przechodzą przez obiektyw i uderzają w czujnik (film). Promienie pochodzące z jednego punktu tworzą stożek, którego podstawą jest otwarte koło w soczewce. Im większy otwór, tym większa podstawa stożka. Następnie powstaje wtórny stożek, a promienie spotykają się ponownie w punkcie centralnym.
Promienie pochodzące od obiektów znajdujących się w różnej odległości od soczewki tworzą stożki o różnych długościach (w celu zwiększenia dokładności). W przypadku dłuższych stożków (obiektów poza przedmiotem, na którym ustawiono ostrość), stożki wtórne są krótsze. W przypadku krótszych stożków (obiektów przed nim) stożek wtórny jest dłuższy. Długość drugiego stożka zależy od długości pierwszego stożka.
Z tego powodu, gdy światło z punktu na nieostrym obiekcie zbliża się do czujnika, obraz jest raczej małym kołem, a nie pojedynczym punktem (jest to raczej elipsa, ale pozwala to zaniedbać).
Gdy apertura staje się większa, podstawa dwóch stożków staje się większa, a tym samym ich kąt główki. Ponieważ długość pozostaje niezmieniona, okrąg obrazu staje się większy. Właśnie dlatego rozmycie jest większe, gdy apertura jest szersza.
W celach informacyjnych i schemat, który naprawdę wyjaśnia wszystkie mambo-jumbo powyżej, przeczytaj ten artykuł .
źródło
Inne odpowiedzi nieprawidłowo wiążą efekt rozmycia z niektórymi właściwościami obiektywu. Nie musisz zakładać niczego o tym, jak obraz jest tworzony przez soczewkę, a nawet, że istnieje soczewka.
Scena po prostu wygląda nieco inaczej niż w różnych miejscach na całej przysłonie.
Jak widać na zdjęciu, jeśli zdecydujesz się utrzymać czerwony obiekt w tej samej pozycji dla każdego punktu apertury, nie ma możliwości, aby zielony obiekt mógł pozostać w tej samej pozycji. Powoduje to rozmycie, ponieważ ostateczny obraz łączy wszystkie te indywidualne widoki.
Oznacza to, że teoretycznie (i ignorując dyfrakcję) jedynym przypadkiem, w którym wszystko może być ostre, jest otworkowanie, tworząc obraz z jednego punktu. W rzeczywistości lepszy jest mały, ale nie punktowy otwór, ze względu na dyfrakcję i zwiększoną ilość światła, ale to inne pytanie.
Kontynuując temat, „kto” wybiera to, co jest ostre?
Dlaczego czerwony przedmiot, a nie zielony? Geometria określa tylko, że nie mogą one być zarówno w centrum uwagi, a wielkość rozogniskowania zależy od przysłony i jest to podstawowa przyczyna efektu DOF.
Jak faktycznie obraz końcowy jest łączony z widokami częściowymi? Zależy to od urządzenia „niebieskiego pudełka”. W prawdziwym życiu „niebieskim pudełkiem” jest oczywiście obiektyw. Do tej pory udawaliśmy, że nie wiemy nic o tym, jak obraz jest łączony, aby pokazać, że zjawisko nieostrości powstaje z geometrii, a nie z właściwości obiektywu .
Ale to nie musi być obiektyw. Zamiast tego możemy umieścić tysiące rejestratorów otworkowych na powierzchni apertury i uzyskać tysiące pojedynczych zdjęć. Następnie, po prostu nakładając te obrazy, uzyskujemy ten sam efekt DOF - zależny wyłącznie od przysłony. I w przeciwieństwie do soczewki, możemy następnie nakładać te same obrazy w inny sposób, utrzymując zielony obiekt w bezruchu (co oczywiście zamazałoby czerwony).
źródło
Kiedy światło uderza w czujnik, tworzy punkt o tym samym kształcie co apertura, ale o wielkości zależnej od rzeczywistej odległości obiektu źródłowego od płaszczyzny ostrości. Jeśli apertura jest okręgiem, otrzymasz koło, a jeśli apertura jest kwadratowa, otrzymasz kwadrat. Im większa apertura, tym większy kształt, dzięki czemu będzie się bardziej nakładać na sąsiednie kształty i zapewni więcej rozmycia.
Kiedy zbliżasz się do płaszczyzny ogniskowej, rozmiar kształtu rzutowanego na czujnik jest tak mały, że nie można go odróżnić od kropki. Odległości te określają głębokość pola.
Twoje oko działa dokładnie w ten sam sposób, ale nie ufałbym temu, co widzisz, ponieważ mózg wykonuje szaloną ilość przetwarzania! Widzisz tylko szczegóły w niewielkim miejscu pośrodku każdego oka. Twój mózg bardzo szybko porusza każdym okiem, aby „zeskanować” scenę i złożyć wszystko razem bez Twojej wiedzy!
źródło
Spójrz na to w ten sposób. Przy wystarczająco małej aperturze nie potrzebujesz nawet obiektywu! To się nazywa kamera otworkowa.
Soczewka skupia obiekty w określonej odległości, ponieważ działa poprzez zginanie światła.
Dziura (przynajmniej idealna) działa poprzez mapowanie punktów światła pod różnymi kątami do odpowiednich kątów na filmie, niezależnie od odległości. (Prawdziwe otwory mają ograniczenia. Zbyt mały otwór po prostu rozprasza światło z powodu dyfrakcji).
Otwór przed obiektywem wprowadza niektóre cechy otworkowej. Im mniejszy jest otwór, tym bardziej skutecznie zamieniasz aparat w aparat otworkowy. Daje to korzyść z szerokiego ogniskowania, ale także niektóre wady otworków: mniejsza moc gromadzenia światła, artefakty dyfrakcyjne przy bardzo wysokich wartościach przysłony.
źródło
To nie jest techniczne wytłumaczenie, ale eksperyment. Poniższy tekst został skopiowany z książki Bena Longa Pełna fotografia cyfrowa:
Jeśli masz dość krótkowzroczności, aby potrzebować okularów, wypróbuj ten szybki mały eksperyment z głębią ostrości. Zdejmij okulary i zwiń palec wskazujący na kciuku. Powinieneś być w stanie zwinąć palec na tyle mocno, aby utworzyć małą dziurę w krzywej palca wskazującego. Jeśli spojrzysz przez otwór bez okularów, prawdopodobnie zauważysz, że wszystko jest w centrum uwagi . Dziura ta jest bardzo małą przysłoną, dlatego zapewnia bardzo głęboką głębię ostrości - na tyle głęboką , że może poprawić wzrok. Z drugiej strony, nie przepuszcza dużo światła, więc jeśli nie będziesz w jasnym świetle dziennym, możesz nie być w stanie dostrzec niczego wystarczająco dobrego, aby ustalić, czy jest ostry. Następnym razem, gdy poczujesz, jak apertura odnosi się do głębi ostrości, pamiętaj o tym teście
Próbowałem tego i to naprawdę działa. Spróbuj spojrzeć na tekst, który znajduje się w odległości około 100 metrów od Ciebie. Mam na sobie okulary krótkowzroczne.
źródło
Rozmycie jest większe, ponieważ odpowiedź impulsowa układu optycznego jest modyfikowana niekorzystnie przez zastosowanie większej apertury. Jeśli jednak apertura zostanie zmniejszona (nominalnie f / 11 lub f / 16 w niektórych obiektywach), wówczas degradacja spowodowana efektami dyfrakcji staje się bardziej dominująca. Jest więc optymalna apertura, która jest gdzieś pomiędzy idealną odpowiedzią impulsową a ograniczeniami dyfrakcyjnymi obiektywu.
Funkcja rozproszenia punktów jest funkcją przenoszenia optycznego, która jest transformatą Fouriera funkcji odpowiedzi impulsu optycznego.
MTF (funkcja transferu modulacji) jest podobna do OTF, tyle że ignoruje fazę. W niespójnych zastosowaniach fotograficznych można je uznać za całkiem podobne.
Zasadniczo funkcja rozproszenia punktów OTF, MTF, opisuje reakcję układu optycznego.
Gdy obiektyw jest szeroko otwarty, ścieżka światła ma większą zmienność na ścieżce, dzięki czemu poza dokładnym punktem ostrości ma większą funkcję rozpraszania punktów, która w miarę jak zmienia się w obraz, zamienia się w rozmycie.
Poniżej znajduje się odpowiedź, której niedawno udzieliłem na podobne pytanie. https://physics.stackexchange.com/questions/83303/why-does-aperture-size-affect-depth-of-field-in-photography
Komentarze są mile widziane i być może uda mi się przepisać obie odpowiedzi, aby były bardziej uniwersalne, aby odpowiedzieć na to często zadawane pytanie.
źródło