Czy na rozmytym zdjęciu można stwierdzić, czy ostrość była za blisko, czy za daleko?

43

Jeśli ustawisz ostrość na płaszczyźnie ogniskowej, która znajduje się wystarczająco przed fotografowanym obiektem lub minie go (względem głębokości pola), obiekt będzie rozmazany. Czy jest jakiś sposób na stwierdzenie na podstawie rozmycia, czy ostrość była za blisko czy za daleko?

EDYCJA: pierwotne pytanie otrzymało teraz kilka dobrych odpowiedzi, ale zauważyłem, że zostało źle zinterpretowane kilka razy. To wskazuje, że nie było wystarczająco dobrze ułożone, więc trochę go zredagowałem. Ponadto zilustruję tę kwestię nieco poniżej.

Weź tę konfigurację z obiektem, obiektywem i filmem lub czujnikiem, w którym obiekt jest ostry (ostrość przecina się z nim).

focal_plane_on_subject

Teraz wyobraź sobie, czy ostrość znajduje się za obiektem. Nazywa się to „back-focus”. Projekcja obiektu na filmie / czujniku staje się rozmazana, a rzeczywisty punkt zbieżności światła z obiektu znajduje się za nim. Źródła światła punktowego z obiektu stają się dyskami (lub kształtem bokeh specyficznym dla przysłony).

focal_plane_behind_subject

Następnie ustaw ostrość przed obiektem. Nazywa się to „front-focus”. Projekcja znów staje się rozmyta, ale tym razem, ponieważ punkt zbieżności światła z obiektu znajduje się przed filmem / czujnikiem. Tak więc rozmyta projekcja jest faktycznie odwrócona.

focal_plane_in_front_of_subject

Pytanie brzmiało: czy tę różnicę w rozmyciu można w jakiś sposób zidentyfikować jedynie na podstawie uzyskanego obrazu?

Jeśli chodzi o powód, dla którego pytam, filmuję, więc nie mam natychmiastowej informacji zwrotnej na temat wyniku. Trzymam notatki z moich zdjęć, ale nie mam danych EXIF, więc rzeczy takie jak ogniskowa i odległość od obiektu są w najlepszym razie przybliżeniem. Czasami fotografuję w słabym świetle i muszę polegać na ręcznym ustawianiu ostrości. W wizjerze sprawy wyglądają ostro, ale po opracowaniu okazuje się, że ostrość została nieco pominięta. Możliwość ustalenia, czy było za blisko, czy za daleko, jest wtedy bardzo przydatna i może mnie nauczyć, czy to błąd użytkownika i jak na niego zwrócić uwagę, czy też konkretny aparat lub obiektyw wydaje się mieć problemy z ustawieniem ostrości i jak Mogę to zrekompensować.

G_H
źródło
Zmieniono nieco, aby wyjaśnić, o co pytam (i nie chodzi o samoloty). Jeśli otrzymałem nieprawidłowy punkt zbieżności dla ustawienia ostrości wstecznej lub przedniej, daj mi znać! Nie mam dużej wiedzy na temat fizyki optyki.
G_H
Zachęcamy do edytowania pytań w celu ich poprawy (np. Wyjaśnienia, dodawanie dodatkowych informacji itp.) . Jednak edytowanie pytania w celu zmiany go na inne pytanie, które powoduje unieważnienie jednej lub więcej odpowiedzi, jest niezgodne z zasadami stosu wymiany (nawet jeśli pierwotne pytanie nie było zgodne z zamierzeniami). Twoja ostatnia edycja tutaj (np. Zmiana „obrazu” na „rozmycie”) unieważniła odpowiedź. W takich przypadkach zachęca się do zadania nowego pytania , być może z linkiem do tego w celu uzyskania dodatkowego kontekstu.
Makyen
@Makyen Mimo że te odpowiedzi są przydatne, a ja je poparłem, te, które udzieliły odpowiedzi na zamierzone pytanie, przyjęły najmniejszą liczbę założeń (tzn. Istnieją inne elementy w różnych odległościach od badanych). Niestety wydaje się, że i tak nie może być jednej konkretnej odpowiedzi, ponieważ każda metoda jej podjęcia będzie zależeć od pewnych czynników, które mogą, ale nie muszą być widoczne na zdjęciu.
G_H
Odpowiedni artykuł autora SmartDeblur, z przykładami: yuzhikov.com/articles/BlurredImagesRestoration2.htm
biziclop

Odpowiedzi:

39

To zależy. W wielu przypadkach może to faktycznie być możliwe bez żadnych dodatkowych pomocy wizualnych na zdjęciu.

Wiele soczewek, jeśli nie większość, będzie wykazywać inną podłużną aberrację chromatyczną przed i za płaszczyzną ogniskowania. Jeśli przewiniesz odrobinę w dół na połączonej stronie, zobaczysz to z obrazem wykresu testu ostrości. W przypadku tego obiektywu rozmycie przed punktem ostrości będzie miało fioletowe obramowanie, a rozmycie za punktem ostrości będzie wydawać się zielonkawe.

Jeśli znasz cechy tego obiektywu, możesz spojrzeć na bardzo małą część obrazu, na przykład:

wprowadź opis zdjęcia tutaj

... i powiedzmy na pewno, że to nieostre pole znajduje się za płaszczyzną ostrości.

jarnbjo
źródło
5
więc nie można tego ustalić na podstawie rozmycia (o które pyta to pytanie). potrzebujesz dodatkowych informacji na temat soczewki i innych aberracji.
ths
5
@ Nie widzę, żeby pytał, czy możesz rozpoznać po rozmyciu. Czy możesz zacytować tę sekcję? Widzę tylko „z rozmytego zdjęcia” (które różni się nie tylko od samego rozmycia. Raczej jest to zdjęcie jako całość, które okazuje się rozmyte) i „z uzyskanego obrazu” (który dodatkowo poszerza to, co OP prosi o). Ale może mi tego brakowało lub pytanie zostało zredagowane
Aethenosity
2
@Athenosity Język ojczysty OP prawdopodobnie nie jest językiem angielskim, ale tak też czytam pytanie: jeśli masz na obrazie pole nieostre, czy możesz ustalić, czy znajduje się przed czy za rzeczywistą płaszczyzną ostrości?
jarnbjo
2
@Athenosity Tak jak powiedziałeś i podoba mi się to, jak próbowałem sformułować pytanie własnymi słowami, tak jak to rozumiem: jeśli masz na obrazie obszar nieostry, czy możesz określić, czy jest on przed, czy za rzeczywista płaszczyzna ostrości?
jarnbjo
4
@ jarnbjo Rzeczywiście nie jestem rodzimym językiem angielskim, ale jeśli pytanie jest niejasne, bardziej prawdopodobne jest, że jest to spowodowane brakiem wiedzy na temat właściwych terminów, aby je wyrazić. Twoja interpretacja jest poprawna. Rozmycie powstanie albo z punktu zbieżności promieni świetlnych znajdujących się za filmem / czujnikiem (obiekt między aparatem a płaszczyzną ogniskowania) lub znajdujących się przed nim (obiekt znajdujący się dalej niż płaszczyzna ogniskowania). W tym drugim przypadku punktowe źródło światła jest rozmyte „odwrócone”. Ta odpowiedź sprytnie wykorzystuje to ze względu na różnicę załamania światła dla różnych długości fal.
G_H
20

Po ustawieniu przysłony w celu zminimalizowania winietowania kształty bokeh dla obiektów znajdujących się za daleko są obracane o 180 ° w porównaniu z obiektami znajdującymi się zbyt blisko. (Obraz przysłony jest odbijany przez jego punkt środkowy.) Jeśli ustawienie ostrzy przysłony nie jest symetryczne wokół punktu środkowego, możesz spróbować znaleźć „referencyjny efekt bokeh”, który jest wyraźnie bliżej lub dalej niż płaszczyzna ostrości, aby porównać z wyróżnionymi na temat, aby zobaczyć, czy kształty bokeh pasują do tych, które są blisko lub daleko.

za blisko za daleko

użytkownik82310
źródło
1
Bardzo mądry! I niezależnie od koloru lub czerni i bieli.
G_H
2
@G_H Tak, ale pamiętaj, że krawędzie apertury, a zatem także krawędzie kształtu boke, obracają się podczas regulacji apertury. Musisz albo znać dokładne ustawienie przysłony, albo mieć inne punkty odniesienia na tym samym obrazie do porównania.
jarnbjo
Zastanawiam się, czy istnieje aparat, który wykorzystuje tak dziwny otwór do autofokusa?
Ed Avis
@ jarnbjo - Znajomość dokładnego ustawienia przysłony na obiektywie nie jest wymagana, ponieważ metoda wymaga użycia „wzorcowego bokeh” na tym samym obrazie.
xiota
@EdAvis - Jest mało prawdopodobne, aby jakikolwiek aparat używał orientacji bokeh do ustawiania ostrości, ponieważ - Aparat musiałby szukać bokeh. Obiektyw musiałby być dość nieostry, aby kształty były widoczne. (Ile pikseli pokazuje punkty heptagonu w porównaniu z prostym kontrastem.) Wiele obiektywów ma parzystą liczbę ostrzy przysłony. Przysłona obraca się, jak zauważa jarnbjo.
xiota
6

Moja odpowiedź dotyczy tylko „ludzkich” sposobów różnicowania - to znaczy: Żadnego oprogramowania, tylko twoje oczy i ręce.

Jeśli nie mam odniesienia (jak w: oślepiasz mnie, ustawiasz odległość ustawiania ostrości, a potem mogę tylko patrzeć przez wizjer, ale nic nie mogę zmienić), odpowiedź brzmi: zależy to od tego, co widzę.

Weźmy na przykład zaułek drzew: jedno z przodu, jedno, w którym stoi obiekt, i jedno w oddali. Kiedy widzę, że obiekt nie jest ostry, mogę spróbować stwierdzić, czy drzewo na pierwszym planie, czy drzewo w tle jest bardziej ostre.

Jeśli nie mam odniesienia - np. Jak wspomniał Yaba , robiąc zdjęcie samolotu z niebieskim niebem w tle i bez pierwszego planu, nie mam możliwości dokładnego poznania (przypuszczam jednak, że ostrość jest zbyt blisko, ponieważ samoloty zwykle znajdują się w pobliżu nieskończoności).


Najłatwiejszym sposobem sprawdzenia tego jest zazwyczaj niewielka zmiana fokusu i zobaczenie, gdzie to jest (znowu działa to lepiej z referencją niż bez).

Ale ogólnie rzecz biorąc, nie ma pewnego sposobu na rozróżnienie - zbyt mała odległość ustawiania ostrości nie prowadzi do (znacząco) różnego rozmycia w porównaniu do zbyt dużej odległości ustawiania ostrości.

flolilo
źródło
5

Jeśli samolot jest za daleko lub się zamyka, trudno powiedzieć o rozmyciu. najłatwiej jest mieć obiekty z przodu iz tyłu i zobaczyć, który z nich jest ostry, abyś mógł określić, czy jest za daleko, czy za blisko ... jest to ten sam sposób, jak w przypadku kalibracji autofokusa obiektywu za pomocą narzędzie takie jak to .

bez takich przedmiotów trudno to powiedzieć.

LuZel
źródło
1

Nie

technicznie niemożliwe jest wykrycie na podstawie samego rozmycia, jak daleko lub w którym kierunku obraz jest nieostry.

To jest powód, dla którego systemy autofokusa z detekcją kontrastu muszą „szukać” ostrości, wielokrotnie zmieniając odległość ustawiania ostrości i sprawdzając, czy obraz się poprawił, czy pogorszył.

W przeciwieństwie do tego , systemy detekcji fazowej AF wiedzieć (teoretycznie) dokładnie jak daleko iw jakim kierunku mają do zmiany ostrości, aby osiągnąć optymalną ostrość.

Oczywiście obraz zmienia się, jeśli weźmiesz pod uwagę wskazówki kontekstowe z innych obiektów na obrazie (tj. „Zgadywanie”), ale jest to coś, co obecnie mogą zrobić tylko organiczni widzowie. Może się to zmienić w przypadku algorytmów AI w kamerze, ale podejrzewam, że wcześniejsze postępy poprawią się na czystym CD-AF. (patrz link @szulat z acomment: https://www.imaging-resource.com/PRODS/panasonic-gh4/panasonic-gh4TECH.HTM )

tys
źródło
5
W niektórych przypadkach oprogramowanie może to ustalić na podstawie innych artefaktów / aberracji, które są wynikiem braku ostrości - np. Sferochromatyzm ....
rackandboneman
1
A więc tak ?
Eric Duminil
3
@EricDuminil Tak . Ta odpowiedź jest po prostu błędna. Odpowiedź niekoniecznie jest bardziej poprawna, tylko dlatego, że tekst jest pogrubiony, dużymi literami.
jarnbjo
pytanie, które zadałem, kiedy odpowiadałem, brzmiało: „czy możesz wykryć po rozmyciu, czy było to ustawienie z tyłu czy z przodu?” z rozmycia. więc nie z innych efektów. proszę udowodnij, że się mylę.
ths
2
@jarnbjo: Powszechną praktyką (więcej na niektórych stronach wymiany stosów niż na innych) jest rozpoczynanie odpowiedzi pogrubionym nagłówkiem TL: DR, a następnie popieranie wniosku. Mam nadzieję, że żartujesz, ponieważ wygląda to na uzasadnioną próbę udzielenia dobrej odpowiedzi (nie śmiałego w celu przekonania kogokolwiek), ale po prostu nie pomyślałem o niektórych efektach wymienionych w pierwszej 2 odpowiedzi (twoje i użytkownik 82310), które pozwalają uzyskać informacje z samego rozmycia, bez informacji fazowych. +1 tej odpowiedzi, ponieważ interesujący jest punkt dotyczący AF z detekcją fazy.
Peter Cordes
1

Tak, jeśli zawartość zawiera krawędzie w różnych odległościach.

Jeśli możesz stwierdzić, że dalszy obiekt jest bardziej rozmazany niż bliższy, to znajduje się dalej od płaszczyzny ostrości. Oznacza to, że ostrość jest zbyt krótka.

I odwrotnie, jeśli odległe obiekty są mniej rozmyte niż te na pierwszym planie, ostrość jest zbyt długa.

Toby Speight
źródło
0

Z samolotem na niebie robi się ciężko. W przeciwieństwie do innych obiektów w różnych dostępnych odległościach (ptaki, chmury,…) nie można tego łatwo porównać wizualnie.

Niektóre kombinacje obiektywów / kamer mogą śledzić odległość ustawiania ostrości i zapisywać ją w EXIF. Nie jest to jednak bardzo wiarygodne, ale może dać ci podpowiedź. Kiedy znasz typ samolotu i dlatego możesz sprawdzić jego rzeczywisty rozmiar, możesz obliczyć jego przybliżoną odległość i porównać ją z odległością ogniskowania.

Ta strona z kalkulatorem może ci w tym pomóc: https://www.scantips.com/lights/subjectdistance.html

Yaba
źródło
6
Samolot geometryczny nie jest samolotem
Tetsujin
Cóż, więc pytanie nie było jasne. W tym przypadku jest to łatwe. Poszukaj innych elementów z przodu lub z tyłu, które są w centrum uwagi. Jeśli jednak o to pytano, zastanawiam się, dlaczego o to pytano, ponieważ jest to oczywiste, prawda?
Yaba
8
@Yaba „samolot, który jest zbyt wiele przed twoim tematem”. Myślę, że jeśli samolot znajduje się zbyt blisko tego, co próbujesz sfotografować, i jest w stanie ruchu, który utrudnia skupienie się, masz pilniejsze problemy niż zrobienie dobrego zdjęcia.
G_H
1
@Yaba Pytanie dotyczy tego, czy niewyraźna część obrazu ma pewne aspekty, które mogą powiedzieć, czy jest to efekt ustawienia ostrości wstecznej czy przedniej. Możesz nie mieć nic z przodu ani z tyłu tematu do powiedzenia. Ogniskowanie z tyłu umieściłoby zamierzony obraz „za” płaszczyzną filmu / matrycy, z przodu przed nią. Oznacza to, że ustawianie ostrości z przodu również odwraca to. Pomyślałem, że może to wpłynąć na wygląd rozmycia w zauważalny sposób. Pytam z zainteresowaniem.
G_H
Ok, zrozumiałem. Nadal jednak obowiązuje to, co napisałem. Tak długo, jak znasz rzeczywisty rozmiar obiektu, możesz obliczyć jego rzeczywistą odległość (jeśli go nie znasz) i porównać go z danymi odległości ogniskowej EXIF, aby uzyskać podpowiedź.
Yaba
0

Tak, sferochromatyzm.

Nie masz nic w płaszczyźnie ostrości. Nie masz możliwości przesunięcia odległości ogniskowej lub wielu zdjęć, aby przygotować życie w systemie ogniskowania. Nie masz obiektów o różnych odległościach, a więc o różnym stopniu ostrości. Masz jeden obiekt w pewnej odległości i jest nieostry, westestion jest blisko czy daleko?

Światło nie zbiega się / skupia dokładnie tak samo. Zielone światło różni się od światła purpurowego. W formule soczewki masz nie tylko odległość ogniskowania ORAZ głębię pola i dyfrakcję. Masz również głębię ostrości na czujniku / filmie. W długim teleobiektywie ujęcia szeroko otwarte. Będziesz mieć FAR białych z zielonym obrzeżem krawędzi i prawie w pobliżu, jeśli białe skupienia mają purpurowy obrys krawędzi. Może to być również niebiesko-żółty sferochromizm. Ale zielona magenta jest najczęstsza. Występuje głównie w szybkich SZEROKICH otwartych soczewkach (więcej uderzeń logicznych w złą krzywiznę na zewnętrznej krawędzi soczewki), więc jestem widoczny nawet w szerokim, szerokim obiektywie FAST. Ciasniejsze zamknięcie migawki wyeliminowało to.

Wiedza na temat długości ogniskowej, odległości ogniskowania i wielkości przysłony pomogłaby określić, jak powiedzieć, czy jesteś blisko, czy daleko. Podstawowa odpowiedź brzmi: TAK, możesz to zrozumieć na podstawie różnych aberracji chromatycznych. Soczewki osiowe, boczne i pierwotne / podstawowe Soczewki nie apochromatyczne (wszystkie soczewki inne niż $$$) mają to. Soczewki apochromatyczne po prostu ograniczają zakres soczewki / przysłony do miejsca, w którym kolor światła pokrywa się

RoseEatsRice
źródło