Rozmycia w czasie rzeczywistym a postprodukcje - jaka jest różnica?

9

Zawsze byłem wielkim fanem rozmytych zdjęć, chyba po części, ponieważ prawie każdy aparat jest w stanie robić rozmyte zdjęcia, choć niektóre lepsze niż inne.

Jaka jest różnica między rozmyciem w czasie rzeczywistym a rozmyciem postprodukcyjnym?

błędy
źródło
1
Powiązane: Po co kupować celowo miękkie soczewki?
Proszę przeczytać mój profil
+1 @mattdm: Dziwne, ale nigdy nie użyłem miękkiej soczewki, ponieważ lubię rozmycia z ostrością… :-)… co oznacza, że ​​poruszam obiektywem, aby uzyskać efekt rozmycia.
błąka się

Odpowiedzi:

9

Ogólnie: „rzeczywiste” rozmycie, albo z powodu właściwości optycznych (w tym głębi pola, aberracji chromatycznej, aberracji sferycznej i innych), albo z powodu ruchu, opiera się na większej ilości informacji. Obejmuje trójwymiarowe i czasowe aspekty sceny oraz różne odbicie i załamanie światła o różnych długościach fali.

W przetwarzaniu końcowym jest tylko płaski, rzutowany rendering do pracy. Inteligentne algorytmy mogą próbować dowiedzieć się, co się dzieje i zasymulować efekt, ale zawsze są one niekorzystne. Trudno jest ustalić, czy coś jest małe, ponieważ jest daleko lub dlatego, że po prostu jest małe, albo czy coś się porusza, czy po prostu jest naturalnie rozmyte - lub w którym kierunku i jak szybko. Jeśli kierujesz procesem rozmycia ręcznie jako dzieło artystyczne, uzyskasz lepsze wyniki, ponieważ możesz zastosować własny silnik rozpoznawania wiedzy i scen (w, wiesz, mózgu ), ale nawet wtedy jest to dużo pracuj, a będziesz musiał określić przybliżoną odległość i różne ruchy dla różnych obiektów w scenie - lub celowo zacznij od zdjęcia, w którym te rzeczy są proste.

W Świecie jutra kamery zgromadzą znacznie więcej informacji zarówno w czasie, jak i przestrzeni. Obecny aparat Lytro to zabawkowy podgląd tego. Dzięki lepszemu modelowi 3D można lepiej symulować efekty różnych konfiguracji optycznych - i oczywiście rozmycie w ruchu można konstruować na podstawie nagrania w czasie.

Proszę przeczytać mój profil
źródło
+1 @mattdm: Czy to oznacza, że ​​obejrzenie jednorazowego zdjęcia w porównaniu do innych osób byłoby w stanie stwierdzić różnicę, czy jest to mało prawdopodobne?
błąka się
@blunders: Myślę, że zależy to od tematu i tego, jak dobrze efekt został osiągnięty, ale ogólnie tak , przynajmniej dla doświadczonych obserwatorów. Lubię myśleć, że nie dałbym się zwieść symulowanej przez Matta Gruma fotografii z przesunięciem , ale łatwo jest dostrzec te opowieści, jeśli się o tym wcześniej dowie.
Proszę przeczytać mój profil
4

Zarówno rozmycie ruchu, jak i rozmycie nieostre mogą być symulowane w oprogramowaniu, mając wystarczająco dużo czasu, ale wyniki rzadko są tak satysfakcjonujące jak rzeczywiste. Udawanie działa najlepiej, gdy masz tylko dwa poziomy rozmycia, na przykład pojedynczy poruszający się obiekt lub pojedynczy obiekt z tłem w stałej odległości.

Aby naprawdę zasymulować rozmycie obiektywu, promień rozmycia zmienia się proporcjonalnie wraz z odległością od płaszczyzny ogniskowej, dlatego trzeba będzie wyznaczyć odległość do każdego punktu na zdjęciu. Jeśli masz płaskie tło o równej odległości, takie jak ściana, problem sprowadza się do wycinania obiektu, co jest łatwiejsze do opanowania). Często można uciec od rozmycia istniejącego tła i uczynienia go bardziej rozmytym.

Jeśli nie poświęcisz temu dużo czasu, nie oszukasz innego fotografa, choć będziesz zwykłym obserwatorem.

Rozmycie ruchu jest nieco łatwiejsze, pod warunkiem, że ruch odbywa się na boki, ponieważ ogranicza to problem dzielenia niezależnie poruszających się obiektów (wycinanie obiektu). Możesz jednak wypełnić dodatkowe tło po obu stronach obiektu, ponieważ w prawdziwym życiu widzisz nieco więcej tła niż w przypadku nieruchomego obiektu. Dzieje się tak, ponieważ tło jest odsłonięte, gdy obiekt porusza się w ramce.

Matt Grum
źródło