Jeśli ustawisz ostrość na płaszczyźnie ogniskowej, która znajduje się wystarczająco przed fotografowanym obiektem lub minie go (względem głębokości pola), obiekt będzie rozmazany. Czy jest jakiś sposób na stwierdzenie na podstawie rozmycia, czy ostrość była za blisko czy za daleko?
EDYCJA: pierwotne pytanie otrzymało teraz kilka dobrych odpowiedzi, ale zauważyłem, że zostało źle zinterpretowane kilka razy. To wskazuje, że nie było wystarczająco dobrze ułożone, więc trochę go zredagowałem. Ponadto zilustruję tę kwestię nieco poniżej.
Weź tę konfigurację z obiektem, obiektywem i filmem lub czujnikiem, w którym obiekt jest ostry (ostrość przecina się z nim).
Teraz wyobraź sobie, czy ostrość znajduje się za obiektem. Nazywa się to „back-focus”. Projekcja obiektu na filmie / czujniku staje się rozmazana, a rzeczywisty punkt zbieżności światła z obiektu znajduje się za nim. Źródła światła punktowego z obiektu stają się dyskami (lub kształtem bokeh specyficznym dla przysłony).
Następnie ustaw ostrość przed obiektem. Nazywa się to „front-focus”. Projekcja znów staje się rozmyta, ale tym razem, ponieważ punkt zbieżności światła z obiektu znajduje się przed filmem / czujnikiem. Tak więc rozmyta projekcja jest faktycznie odwrócona.
Pytanie brzmiało: czy tę różnicę w rozmyciu można w jakiś sposób zidentyfikować jedynie na podstawie uzyskanego obrazu?
Jeśli chodzi o powód, dla którego pytam, filmuję, więc nie mam natychmiastowej informacji zwrotnej na temat wyniku. Trzymam notatki z moich zdjęć, ale nie mam danych EXIF, więc rzeczy takie jak ogniskowa i odległość od obiektu są w najlepszym razie przybliżeniem. Czasami fotografuję w słabym świetle i muszę polegać na ręcznym ustawianiu ostrości. W wizjerze sprawy wyglądają ostro, ale po opracowaniu okazuje się, że ostrość została nieco pominięta. Możliwość ustalenia, czy było za blisko, czy za daleko, jest wtedy bardzo przydatna i może mnie nauczyć, czy to błąd użytkownika i jak na niego zwrócić uwagę, czy też konkretny aparat lub obiektyw wydaje się mieć problemy z ustawieniem ostrości i jak Mogę to zrekompensować.
Odpowiedzi:
To zależy. W wielu przypadkach może to faktycznie być możliwe bez żadnych dodatkowych pomocy wizualnych na zdjęciu.
Wiele soczewek, jeśli nie większość, będzie wykazywać inną podłużną aberrację chromatyczną przed i za płaszczyzną ogniskowania. Jeśli przewiniesz odrobinę w dół na połączonej stronie, zobaczysz to z obrazem wykresu testu ostrości. W przypadku tego obiektywu rozmycie przed punktem ostrości będzie miało fioletowe obramowanie, a rozmycie za punktem ostrości będzie wydawać się zielonkawe.
Jeśli znasz cechy tego obiektywu, możesz spojrzeć na bardzo małą część obrazu, na przykład:
... i powiedzmy na pewno, że to nieostre pole znajduje się za płaszczyzną ostrości.
źródło
Po ustawieniu przysłony w celu zminimalizowania winietowania kształty bokeh dla obiektów znajdujących się za daleko są obracane o 180 ° w porównaniu z obiektami znajdującymi się zbyt blisko. (Obraz przysłony jest odbijany przez jego punkt środkowy.) Jeśli ustawienie ostrzy przysłony nie jest symetryczne wokół punktu środkowego, możesz spróbować znaleźć „referencyjny efekt bokeh”, który jest wyraźnie bliżej lub dalej niż płaszczyzna ostrości, aby porównać z wyróżnionymi na temat, aby zobaczyć, czy kształty bokeh pasują do tych, które są blisko lub daleko.
źródło
Moja odpowiedź dotyczy tylko „ludzkich” sposobów różnicowania - to znaczy: Żadnego oprogramowania, tylko twoje oczy i ręce.
Jeśli nie mam odniesienia (jak w: oślepiasz mnie, ustawiasz odległość ustawiania ostrości, a potem mogę tylko patrzeć przez wizjer, ale nic nie mogę zmienić), odpowiedź brzmi: zależy to od tego, co widzę.
Weźmy na przykład zaułek drzew: jedno z przodu, jedno, w którym stoi obiekt, i jedno w oddali. Kiedy widzę, że obiekt nie jest ostry, mogę spróbować stwierdzić, czy drzewo na pierwszym planie, czy drzewo w tle jest bardziej ostre.
Jeśli nie mam odniesienia - np. Jak wspomniał Yaba , robiąc zdjęcie samolotu z niebieskim niebem w tle i bez pierwszego planu, nie mam możliwości dokładnego poznania (przypuszczam jednak, że ostrość jest zbyt blisko, ponieważ samoloty zwykle znajdują się w pobliżu nieskończoności).
Najłatwiejszym sposobem sprawdzenia tego jest zazwyczaj niewielka zmiana fokusu i zobaczenie, gdzie to jest (znowu działa to lepiej z referencją niż bez).
Ale ogólnie rzecz biorąc, nie ma pewnego sposobu na rozróżnienie - zbyt mała odległość ustawiania ostrości nie prowadzi do (znacząco) różnego rozmycia w porównaniu do zbyt dużej odległości ustawiania ostrości.
źródło
Jeśli samolot jest za daleko lub się zamyka, trudno powiedzieć o rozmyciu. najłatwiej jest mieć obiekty z przodu iz tyłu i zobaczyć, który z nich jest ostry, abyś mógł określić, czy jest za daleko, czy za blisko ... jest to ten sam sposób, jak w przypadku kalibracji autofokusa obiektywu za pomocą narzędzie takie jak to .
bez takich przedmiotów trudno to powiedzieć.
źródło
Nie
technicznie niemożliwe jest wykrycie na podstawie samego rozmycia, jak daleko lub w którym kierunku obraz jest nieostry.
To jest powód, dla którego systemy autofokusa z detekcją kontrastu muszą „szukać” ostrości, wielokrotnie zmieniając odległość ustawiania ostrości i sprawdzając, czy obraz się poprawił, czy pogorszył.
W przeciwieństwie do tego , systemy detekcji fazowej AF wiedzieć (teoretycznie) dokładnie jak daleko iw jakim kierunku mają do zmiany ostrości, aby osiągnąć optymalną ostrość.
Oczywiście obraz zmienia się, jeśli weźmiesz pod uwagę wskazówki kontekstowe z innych obiektów na obrazie (tj. „Zgadywanie”), ale jest to coś, co obecnie mogą zrobić tylko organiczni widzowie. Może się to zmienić w przypadku algorytmów AI w kamerze, ale podejrzewam, że wcześniejsze postępy poprawią się na czystym CD-AF. (patrz link @szulat z acomment: https://www.imaging-resource.com/PRODS/panasonic-gh4/panasonic-gh4TECH.HTM )
źródło
Tak, jeśli zawartość zawiera krawędzie w różnych odległościach.
Jeśli możesz stwierdzić, że dalszy obiekt jest bardziej rozmazany niż bliższy, to znajduje się dalej od płaszczyzny ostrości. Oznacza to, że ostrość jest zbyt krótka.
I odwrotnie, jeśli odległe obiekty są mniej rozmyte niż te na pierwszym planie, ostrość jest zbyt długa.
źródło
Z samolotem na niebie robi się ciężko. W przeciwieństwie do innych obiektów w różnych dostępnych odległościach (ptaki, chmury,…) nie można tego łatwo porównać wizualnie.
Niektóre kombinacje obiektywów / kamer mogą śledzić odległość ustawiania ostrości i zapisywać ją w EXIF. Nie jest to jednak bardzo wiarygodne, ale może dać ci podpowiedź. Kiedy znasz typ samolotu i dlatego możesz sprawdzić jego rzeczywisty rozmiar, możesz obliczyć jego przybliżoną odległość i porównać ją z odległością ogniskowania.
Ta strona z kalkulatorem może ci w tym pomóc: https://www.scantips.com/lights/subjectdistance.html
źródło
Tak, sferochromatyzm.
Nie masz nic w płaszczyźnie ostrości. Nie masz możliwości przesunięcia odległości ogniskowej lub wielu zdjęć, aby przygotować życie w systemie ogniskowania. Nie masz obiektów o różnych odległościach, a więc o różnym stopniu ostrości. Masz jeden obiekt w pewnej odległości i jest nieostry, westestion jest blisko czy daleko?
Światło nie zbiega się / skupia dokładnie tak samo. Zielone światło różni się od światła purpurowego. W formule soczewki masz nie tylko odległość ogniskowania ORAZ głębię pola i dyfrakcję. Masz również głębię ostrości na czujniku / filmie. W długim teleobiektywie ujęcia szeroko otwarte. Będziesz mieć FAR białych z zielonym obrzeżem krawędzi i prawie w pobliżu, jeśli białe skupienia mają purpurowy obrys krawędzi. Może to być również niebiesko-żółty sferochromizm. Ale zielona magenta jest najczęstsza. Występuje głównie w szybkich SZEROKICH otwartych soczewkach (więcej uderzeń logicznych w złą krzywiznę na zewnętrznej krawędzi soczewki), więc jestem widoczny nawet w szerokim, szerokim obiektywie FAST. Ciasniejsze zamknięcie migawki wyeliminowało to.
Wiedza na temat długości ogniskowej, odległości ogniskowania i wielkości przysłony pomogłaby określić, jak powiedzieć, czy jesteś blisko, czy daleko. Podstawowa odpowiedź brzmi: TAK, możesz to zrozumieć na podstawie różnych aberracji chromatycznych. Soczewki osiowe, boczne i pierwotne / podstawowe Soczewki nie apochromatyczne (wszystkie soczewki inne niż $$$) mają to. Soczewki apochromatyczne po prostu ograniczają zakres soczewki / przysłony do miejsca, w którym kolor światła pokrywa się
źródło