To jest nieco teoretyczne pytanie.
Załóżmy, że najpierw robię zdjęcie obiektu za pomocą pełnoklatkowej matrycy DSLR z danym obiektywem (powiedzmy obiektyw stałoogniskowy 50 mm przy f / 3.5).
Załóżmy teraz, że wymieniam kamerę na DSLR z matrycą APS-C (o współczynniku kadrowania 1,6 ×). Trzymam ten sam obiektyw (ta sama długość ogniskowej, ta sama przysłona) i cofam się o kilka metrów, aby zachować pole widzenia (przynajmniej zachować to samo powiększenie obiektu). Teraz robię drugie zdjęcie.
Wyraźnie zwiększy się głębia ostrości między dwoma zdjęciami. Ale co z rozmyciem tła (na przykład drzewami w nieskończoności)? Czy będę miał tyle samo rozmycia tła, czy to się zmieniło?
Czytałem gdzieś, że rozmycie tła zależy od wielkości fizycznej apertury. W tym przypadku otwór fizyczny (fizyczna ogniskowa podzielona przez f / stop) pozostaje taki sam. Ale czy należy przyjmować tę liczbę w stosunku do rozmiaru czujnika? W takim przypadku przy mniejszej matrycy APS-C fizyczna apertura będzie względnie większa, co oznaczałoby więcej rozmycia tła. Byłoby to raczej sprzeczne z intuicją, ponieważ zwykle uważamy, że trudniej jest uzyskać rozmycie tła w aparacie APS-C.
Proszę podać uzasadnienie odpowiedzi. Sam bym odpowiedział na to pytanie za pomocą kalkulatora rozmycia tła, ale nie mogę go uruchomić na moim komputerze.
źródło
Odpowiedzi:
To zależy od tego, jak duża jest naprawdę „nieskończona” odległość. Kiedy cofniesz się od obiektu, aby zachować to samo powiększenie, względna odległość do obiektu w tle będzie mniejsza, dzięki czemu będzie mniej rozmazana.
Na przykład załóżmy, że zaczynasz od obiektu w odległości 10 stóp, a tło „nieskończonej” odległości jest naprawdę 100 stóp. Po przełączeniu na aparat APS-C cofasz się do 15 lub 16 stóp (w zależności od marki aparatu). W pierwszym przypadku drzewa były 10 razy dalej niż obiekt (i punkt ostrości). W drugim przypadku obiekt znajduje się na wysokości 15 stóp, a tło na 115, więc tło jest mniej niż 8 razy dalej niż punkt ostrości.
Jeśli Twoja „nieskończona” odległość naprawdę jest o wiele większa, efekt ten może stać się zbyt mały, aby się tym przejmować. Jeśli zaczniesz od tła 10000 razy dalej od obiektu, a następnie przesuń się, aby było tylko 9999 razy dalej, różnica prawdopodobnie będzie tak mała, że nie będziesz w stanie jej zobaczyć ani nawet zmierzyć.
źródło
Rozmycie tła zależy od głębi ostrości. Głębokość pola (DOF) to odległość między najbliższymi i najdalszymi obiektami w scenie, które na obrazie wydają się akceptowalnie ostre ( wikipedia ). Cienka głębia ostrości pozwala izolować obiekt: obiekt jest ostry, a tło jest rozmyte. Głębokość pola zależy od kilku czynników:
Przy (1) im dłuższa ogniskowa, tym cieńszy jest DOF. Z (2), im większy otwór (mniejsza liczba), tym cieńszy jest DOF Z (3), im większy czujnik, tym cieńszy DOF. *** Z (4), im bliżej jest obiektu, tym cieńsza jest DOF.
Przykład: Jeśli masz obiektyw 200 mm, powiedzmy f2,8, na pełnoklatkowym czujniku 35 mm, a obiekt znajduje się w pobliżu (2-3 m), możesz całkiem rozmazać tło.
I odwrotnie, jeśli masz obiektyw 35 mm, na f8, na przyciętym dslr (APS-C), a obiekt znajduje się w odległości 6 m od ciebie, tło naprawdę nie będzie rozmyte.
*** Nie jestem absolutnie pewien, czy jest to poprawne teoretycznie, ale w praktyce, przy takiej samej konfiguracji na matrycy APS-C i pełnej klatce, obraz FF ma płytsze DOF.
Czytaj więcej: http://en.wikipedia.org/wiki/Depth_of_field
źródło
Teoretycznie w obu przypadkach będzie dokładnie takie samo rozmycie tła. W praktyce działa to tylko wtedy, gdy tło jest bardzo daleko (znacznie dalej niż temat), jak wskazał Jerry Coffin. Jeśli ten warunek nie zostanie spełniony, korpus APS-C da ci nieco mniej rozmycia tła.
Najłatwiejszym sposobem na zrozumienie tego jest modelowanie światła tła jako źródła punktowego w nieskończoności, które będzie renderowane jako „dysk bokeh” na obrazie. Poziom rozmycia tła można zmierzyć przez stosunek średnicy tego dysku do całkowitego rozmiaru klatki. Ten stosunek bywa taki sam, jak stosunek między średnicą źrenicy wejściowej a rozmiarem pola widzenia w odległości, na którą skupia się soczewka.
Poniżej znajduje się mój gówniany schemat. Mam nadzieję, że to wszystko wyjaśni. Weź pod uwagę, że otrzymany obraz jest tylko zmniejszoną wersją tego, co masz w płaszczyźnie ostrości. Wiązka w kolorze czerwonym jest wiązką światła wychodzącą ze źródła punktowego i przechodzącą przez źrenicę wejściową. Rzeczy, które oznaczyłem jako „dysk bokeh”, to miejsce, w którym wiązka przecina płaszczyznę ostrości. Ma dokładnie taką samą średnicę jak źrenica wejściowa, pod warunkiem, że źródło jest wystarczająco daleko i jest to obiektowy odpowiednik dysku bokeh. Rzeczywisty dysk bokeh żyje w przestrzeni obrazu i jest obrazem narysowanego tutaj dysku.
Edycja : Podejście, które tu stosuję, opiera się wyłącznie na parametrach od strony obiektu: polu widzenia i średnicy źrenicy wejściowej. Ten wybór często sprawia, że obliczenia rozmycia (w tym głębi pola) są znacznie prostsze niż konwencjonalne podejścia obejmujące format matrycy, ogniskową i liczbę f: te parametry „ciemnej strony” nie są potrzebne, gdy znane są parametry po stronie obiektu .
Osobom, które nie są obeznane z tym „nieszablonowym” sposobem myślenia, gorąco polecam artykuł „ Głębia ostrości poza skrzynką” autorstwa Richarda F. Lyona. Mimo że artykuł ten dotyczy przede wszystkim głębi pola, podejście jest bardzo ogólne i można je bardzo łatwo zastosować do komputerowego rozmycia tła.
źródło
pupil_diameter × magnification
.Tak, efekt bokeh jest w rzeczywistości proporcjonalny do fizycznej szerokości otworu obiektywu.
Powiedzmy, że skupiasz się na obiekcie bliskiego pola w skończonej odległości = Z i masz kombinację kamery / obiektywu, która daje pole widzenia (FOV) o kątowej połowie szerokości = stopnie Q. Jeśli zdefiniujesz bokeh jako stosunek średnicy koła rozmycia B (zamazany obraz punktu tła w nieskończoności) do szerokości ramki obrazu W, wówczas
gdzie R jest promieniem otwarcia obiektywu - tj. połową średnicy (uwaga: w powyższym równaniu Z powinno technicznie być Z - F, gdzie F jest ogniskową obiektywu, ale zwykle można zignorować F, patrząc na daleki obiekt nieobecny).
Więc jeśli masz dwie kamery, dużą lustrzankę cyfrową i mały aparat typu „wyceluj i zrób zdjęcie”, oba z tym samym kątem pola widzenia (tj. Obiektywy mają taki sam odpowiednik 35 mm), to aparat z obiektywem o większej średnicy da ci więcej bokeh. Jest to niezależne od wielkości czujnika kamery.
źródło
Głębia ostrości zależy od dwóch czynników: odległości od fotografowanego obiektu i wielkości apertury fizycznej (obliczonej na podstawie ogniskowej podzielonej przez liczbę f). Głębia ostrości rośnie wraz z oddalaniem się od fotografowanego obiektu i maleje wraz ze wzrostem wielkości fizycznej apertury . Rozmiar czujnika nie wpływa bezpośrednio na efekt bokeh, ponieważ obraz wyświetlany przez obiektyw nie zmienia się, gdy jest używany w innym formacie czujnika; różne formaty czujników wykorzystują po prostu różne części koła obrazu. Większe czujniki umożliwiają płytszą głębię ostrości, ponieważ do uzyskania tego samego pola widzenia wymagana jest dłuższa ogniskowa, a dłuższa ogniskowa powoduje większy fizyczny otwór, a zatem płytszą głębię ostrości.
W związku z tym ten sam obiektyw przy tej samej przysłonie f przy tej samej odległości ogniskowania na dwóch różnych formatach czujników nie wpłynie na stopień rozmycia tła. Dostosowania wymagane przez różne formaty czujników (zmniejszona odległość od obiektu lub zwiększona ogniskowa na pełnej klatce względem APS-C) powodują różnicę w głębi pola.
źródło
Wiele zostało powiedziane w poprzednich odpowiedziach i chcę tylko dodać wizualne porównanie określonych ustawień obiektywu, o których mówisz w swoim pytaniu. Jak powiedziano wcześniej, rozmycie tła zależy również od wielkości obiektu. Ta fabuła dotyczy portretu głowy i ramion.
Wykres porównawczy http://files.johannesvanginkel.nl/se_plot.JPG
Jak widać, kamera FF będzie miała więcej rozmycia tła, jednak ich wartości ostatecznie się zbiegają.
Źródło obrazu: http://howmuchblur.com/#compare-1x-50mm-f3.5- i-1.6x-50mm-f3.5-on-a-0.9m-wide-subject
Tutaj możesz również ustawić inny rozmiar obiektu, jeśli chcesz.
źródło
Krótka odpowiedź: większy czujnik ma większy krąg zamieszania, co jest ważnym czynnikiem przy obliczaniu głębi ostrości (DOF), a zatem powoduje, że większy otwór (większy otwór) ma wystarczająco płytki DOF, aby umożliwić rozmycie punktu źródła (małe światła) w tle; tworząc efekt, który często (nieprawidłowo) nazywa się bokeh.
Jest niewielka różnica, którą szczegółowo opiszę później, biorąc pod uwagę odpowiednie korekty, aby utrzymać podobne kadrowanie.
Bokeh to rozmycie, które może również wystąpić na pierwszym planie i nie musi być ograniczone do odległych żarówek, chociaż niektóre ograniczają użycie tego terminu tylko do tych warunków. Łatwiej jest ocenić jakość bokeh, patrząc na punkty światła w tle i sprawdzając, czy wyglądają jak okrągłe gładkie dyski, tło nie jest jedynym miejscem, w którym występuje bokeh.
Termin bokeh pochodzi od japońskiego słowa boke (暈 け lub ボ ケ), co oznacza „rozmycie” lub „zamglenie” lub boke-aji (ボ ケ 味), „jakość rozmycia”. [Uwaga: Nie ma to nic wspólnego z maleńkimi światłami lub tłem a pierwszym planem, jest to jakość rozmycia poza głębią pola. I odwrotnie, ostrość to ostrość w głębi pola, szczególnie w ognisku].
Czy nie cieszysz się, że to była krótka wersja?
Zdjęcie zrobione aparatem Nikon 200.0 mm f / 2.0 na Nikonie D700, prawdopodobnie jednym z lepszych obiektywów fotograficznych z efektem bokeh. Źródło: Dustin Diaz .
Licencja: Uznanie autorstwa-Użycie niekomercyjne-Bez utworów zależnych 2.0 Ogólne (CC BY-NC-ND 2.0)
Znalezienie tańszego obiektywu jest łatwe i wiele takich jak te : Hexanon AR 135 / 3.2, Pentacon 135 / 2.8, Rokkor 135 / 2.8, Trioplan 100 / 2.8, Vivitar 135 / 2.8, faktem jest, że bokeh wytwarzane przez którekolwiek z nich jest bardziej (grzecznie) kreatywny w przeciwieństwie do jakości i będziesz potrzebował adaptera wraz z kadrowaniem, jeśli używasz dużego czujnika. Mały czujnik i niedroga soczewka mogą dać satysfakcjonujące rezultaty dla niektórych (wielu?).
Znakiem tak zwanego idealnego bokeh jest to, że źródła punktowe będą wytwarzać okrągłe spodki bez pierścieni lub aberracji na dysku i stopniowe opadanie na krawędzi. Dyski powinny być okrągłe od krawędzi do krawędzi ramki obrazu za pomocą soczewki sferycznej.
Podczas gdy soczewki anamorficzne wytwarzają charakterystyczny owalny efekt bokeh.
Zdefiniujmy kilka rzeczy, zanim przejdziemy do znacznie dłuższego wyjaśnienia.
Tło: Obszar za obiektem obrazu.
Pierwszy plan: obszar przed tematem obrazu.
Rozmycie : Aby spowodować niedoskonałość widzenia, spowodować niewyraźność lub zamglenie, zaciemnić. Antonim wyostrzenia.
Bokeh : Jakość rozmycia nieostrych obszarów obrazu poza głębią ostrości, gdy obiektyw jest prawidłowo ustawiony na obiekcie.
Koło pomieszania : w idealnej optyce promieniowanie zakłada się, że promienie zbiegają się do punktu, gdy są idealnie skupione, kształt plamki rozmycia rozmycia z soczewki o okrągłej aperturze jest twardym okręgiem światła. Bardziej ogólne miejsce rozmycia ma miękkie krawędzie z powodu dyfrakcji i aberracji ( Stokseth 1969, paywall ; Merklinger 1992, dostępne ) i może być niekołowe ze względu na kształt apertury.
Uznając, że prawdziwe soczewki nie skupiają wszystkich promieni idealnie nawet w najlepszych warunkach, pojęcie najmniejszego zamieszania jest często używane w przypadku najmniejszego plamki, jaką może wytworzyć soczewka (Ray 2002, 89), na przykład poprzez wybranie najlepszej pozycji ostrości, która stanowi dobry kompromis między różnymi efektywnymi ogniskowymi różnych stref obiektywu z powodu aberracji sferycznych lub innych.
Pojęcie kręgu pomieszania stosuje się bardziej ogólnie do wielkości nieostrego punktu, w którym soczewka obrazuje punkt obiektu. Dotyczy to 1. ostrości wzroku, 2. warunków oglądania oraz 3. powiększenia obrazu oryginalnego do obrazu końcowego. W fotografii koło zamieszania (CoC) służy do matematycznego określania głębi ostrości, czyli części obrazu, która jest akceptowalnie ostra.
Głębia ostrości : odległość między najbliższymi a najdalszymi obiektami w scenie, które na obrazie wydają się akceptowalnie ostre. Chociaż obiektyw może precyzyjnie ustawić ostrość tylko z jednej odległości na raz, zmniejszenie ostrości jest stopniowe po każdej stronie ogniskowanej odległości, tak że w przypadku DOF nieostrość jest niezauważalna w normalnych warunkach oglądania.
Rozmiar czujnika :
Fotografia: W fotografii rozmiar czujnika mierzy się na podstawie szerokości filmu lub obszaru aktywnego czujnika cyfrowego. Nazwa 35 mm pochodzi od całkowitej szerokości filmu 135 , perforowanej folii nabojowej, która była głównym nośnikiem formatu przed wynalezieniem pełnoklatkowej lustrzanki cyfrowej. Termin 135 ma nadal zastosowanie. W fotografii cyfrowej format ten stał się znany jako pełna klatka. Podczas gdy rzeczywisty rozmiar powierzchni użytkowej fotograficznego filmu 35 mm wynosi 24 w × 36h mm, 35 milimetrów odnosi się do wymiaru 24 mm plus otwory koła łańcuchowego (używane do przesuwania filmu).
Wideo : Rozmiary czujników wyrażane są w notacjach w calach, ponieważ w czasie popularyzacji cyfrowych czujników obrazu stosowano je zamiast lamp wideo. Typowe 1-calowe okrągłe lampy kamer wideo miały prostokątny obszar światłoczuły o przekątnej około 16 mm, więc czujnik cyfrowy o przekątnej 16 mm był odpowiednikiem 1-calowej tuby wideo. Nazwę 1-calowego czujnika cyfrowego należy dokładniej odczytać jako „1-calowy odpowiednik tuby kamery wideo”. Deskryptory obecnych rozmiarów cyfrowych czujników obrazu to rozmiar równoważnika tuby kamery wideo, a nie rzeczywisty rozmiar czujnika. Na przykład Czujnik 1 "ma przekątną 16 mm.
Temat: Obiekt, który zamierzasz uchwycić obraz, niekoniecznie wszystko, co pojawia się w ramce, z pewnością nie Photo Bombers , a często nie obiekty pojawiające się na skraju przedniej i tła; dlatego użycie bokeh lub DOF do rozogniskowania obiektów, które nie są przedmiotem.
Funkcja przenoszenia modulacji (MTF) lub przestrzenna odpowiedź częstotliwościowa (SFR): Względna odpowiedź amplitudowa systemu obrazowania jako funkcja wejściowej częstotliwości przestrzennej. ISO 12233: 2017 określa metody pomiaru rozdzielczości i współczynnika SFR elektronicznych aparatów fotograficznych. Pary linii na milimetr (lp / mm) były najczęstszą przestrzenną jednostką częstotliwości dla filmu, ale cykle / piksel (C / P) i szerokości linii / wysokość obrazu (LW / PH) są wygodniejsze dla czujników cyfrowych.
Teraz mamy nasze definicje na uboczu ...
Ta wartość COC reprezentuje maksymalną średnicę plamki rozmycia, mierzoną na płaszczyźnie obrazu, która wydaje się być ostra. Punkt o średnicy mniejszej niż ta wartość COC pojawi się jako punkt światła, a zatem na obrazie będzie ostry. Miejsca o większej średnicy będą dla obserwatora rozmyte.
DOF nie jest symetryczny. Oznacza to, że obszar akceptowalnej ostrości nie ma tej samej odległości liniowej przed i za płaszczyzną ogniskowania. Wynika to z tego, że światło z bliższych obiektów zbiega się w większej odległości za płaszczyzną obrazu niż odległość, którą światło z dalszych obiektów zbiega przed płaszczyzną obrazu.
Przy stosunkowo niewielkich odległościach DOF jest prawie symetryczny, z około połową pola ostrości istniejącą przed płaszczyzną ostrości, a drugą połową pojawiającą się później. Im dalej płaszczyzna ogniskowa przesuwa się od płaszczyzny obrazu, tym większe przesunięcie symetrii sprzyja obszarowi poza płaszczyzną ogniskowania. Ostatecznie soczewka skupia się w punkcie nieskończoności, a DOF osiąga maksymalną asymetrię, przy czym znaczna większość ogniskowanego obszaru znajduje się poza płaszczyzną ostrości do nieskończoności. Odległość ta znana jest jako „ odległość hiperfokalna ” i prowadzi nas do następnej sekcji.
Odległość hiperfokalna jest definiowana jako odległość, gdy soczewka jest ogniskowana w nieskończoności, gdzie obiekty od połowy tej odległości do nieskończoności będą ogniskowane dla określonej soczewki. Alternatywnie odległość hiperfokalna może odnosić się do najbliższej odległości, na jaką można ustawić ostrość dla danego otworu, podczas gdy obiekty w odległości (nieskończoności) pozostaną ostre.
Odległość hiperfokalna jest zmienna i jest funkcją apertury, ogniskowej i wspomnianego wcześniej COC. Im mniejszy jest otwór obiektywu, tym bliżej obiektywu staje się odległość hiperfokalna. Odległość hiperfokalna jest używana w obliczeniach używanych do obliczania DOF.
Istnieją cztery czynniki, które określają DOF:
DOF = Daleki punkt - Near Point
DOF po prostu informuje fotografa, w jakich odległościach przed i za odległością ustawiania ostrości wystąpi rozmycie. Nie określa, jak rozmyte lub jaka „jakość” będą te obszary. Konstrukcja obiektywu, konstrukcja przysłony i tło określają cechy rozmycia - jego intensywność, fakturę i jakość.
Im krótsza ogniskowa obiektywu, tym dłuższy jest DOF.
Im dłuższa jest ogniskowa obiektywu, tym krótszy jest DOF.
Jeśli rozmiar czujnika nie pojawia się nigdzie w tych formułach, jak zmienia on DOF?
Istnieje kilka podstępnych sposobów, w jakie rozmiar formatu zakrada się do matematyki DOF:
Jest to spowodowane współczynnikiem przycięcia i uzyskaną ogniskową oraz koniecznym otworem dla zdolności czujnika do gromadzenia światła, który ma największy wpływ na twoje obliczenia.
Czujnik o wyższej rozdzielczości i soczewka lepszej jakości będą wytwarzać lepszy efekt bokeh, ale nawet czujnik i obiektyw wielkości telefonu komórkowego mogą generować rozsądnie akceptowalny efekt bokeh.
Korzystanie z tej samej ogniskowej obiektywu w aparacie APS-C i pełnej klatce w tej samej odległości między obiektem a aparatem tworzy dwa różne kadry obrazu i powoduje różnice w odległości i grubości DOF (głębokość pola).
Przełączanie obiektywów lub zmiana obiektu na aparat zgodnie ze współczynnikiem kadrowania podczas przełączania między aparatem APS-C i aparatem pełnoklatkowym, aby zachować identyczne kadrowanie, daje podobny DOF. Przesunięcie pozycji w celu utrzymania identycznego kadrowania nieznacznie faworyzuje czujnik pełnoklatkowy (dla większego DOF), tylko przy zmianie obiektywu w celu dopasowania do współczynnika kadrowania i utrzymania kadrowania większy czujnik zyskuje węższy DOF (i niewiele).
Zaleta apertury sprawia, że matryca pełnoklatkowa jest lepszym i droższym wyborem zarówno dla aparatu, jak i obiektywów, a często także dla funkcji (FPS nie jest jednym z nich, nie ma też wielkości i wagi).
Przejście na czujnik średniej wielkości w porównaniu z małym czujnikiem ma przewagę nad większym czujnikiem, ale efekt bokeh prawdopodobnie nie jest najlepszym rozwiązaniem uzasadniającym ponad 20-krotną różnicę w cenie.
Większa liczba pikseli na kropkę światła z pewnością zapewni płynniejszy efekt bokeh, ale zbliżyłaby się do niego z małą kamerą z matrycą. Możesz zarobić więcej proporcjonalności za korzystanie z droższego sprzętu, jeśli zarabiasz na swoich zdjęciach lub filmach, w przeciwnym razie odrobina pracy nóg lub dodatkowe tańsze obiektywy pozwolą zaoszczędzić dużo pieniędzy w porównaniu z inwestowaniem w system wielkoformatowy.
Sekcja Wikipedia: Rozmycie pierwszego planu i tła .
Przeczytaj artykuł „ Staging Foregrounds ” autorstwa RJ Kern na temat rozmycia pierwszego planu, który obejmuje wiele zdjęć z rozmyciem tła i pierwszego planu.
B&H ma 3 częściowy artykuł na temat DOF: Głębia ostrości, Część I: Podstawy , Część II: Matematyka i Część III: Mity .
Co najważniejsze, „bokeh” to nie tylko „rozmycie tła”, ale wszystkie rozmycie poza DOF; nawet na pierwszym planie . Chodzi o to, że małe światła na odległość łatwiej ocenić jakość bokeh.
źródło