Czy można zastosować „współczynnik przycięcia” mniejszego czujnika do obliczenia dokładnego zwiększenia głębi ostrości?

23

Jeśli APS-C i podobne aparaty cyfrowe z czujnikiem przycięcia mają efekt zwielokrotnienia ogniskowej, tak że obiektyw 50 mm ma pozorną długość ogniskową bliższą polu widzenia 80 mm w aparacie pełnoklatkowym, a jednocześnie głębokość pola dla mniejszego aparatu z matrycą bardziej przypomina głębię pola, którą obiektyw 50 mm wytworzyłby w aparacie pełnoklatkowym (przy użyciu tej samej przysłony), to sugerowałoby to koncepcję „efektu podziału przysłony”.

Innymi słowy, obiektyw 50 mm f / 1.8 w aparacie APS-C działałby bardziej jak obiektyw 80 mm f / 2.8 (około 1,8 * 1,6x) w ekwiwalencie 35 mm - dla głębi ostrości, bez uwzględnienia ekspozycji.

Czy ktoś, kto lepiej rozumie fizykę, może to dla mnie wyjaśnić. Nigdy nie widziałem nigdzie wyraźnie wspomnianej koncepcji, więc jestem nieco podejrzany.

Sean
źródło
Mam problem ze zrozumieniem pytania. Czy chcesz porównać DOF, gdy używasz 50 mm w obu aparatach z tej samej pozycji fotografowania? A może chcesz porównać DOF, gdy używasz 50 mm na FF z odległości powiedzmy 10 stóp i 50 mm na korpusie upraw 1.6x na 16 stóp, aby uzyskać ten sam rozmiar obiektu?
Michael C

Odpowiedzi:

14

Ta odpowiedź na inne pytanie jest szczegółowo opisana w matematyce. Jest też artykuł w Wikipedii z sekcją poświęconą uzyskiwaniu „tego samego obrazu” przy różnych formatach kamer . Krótko mówiąc, jest w przybliżeniu prawdą, że dostosowanie zarówno ogniskowej, jak i przysłony przez stosunek wielkości formatu (współczynnika przycięcia) da ci ten sam obraz. ¹

Ale to się psuje, jeśli obiekt znajduje się w zakresie makr aparatu wielkoformatowego (ustawianie ostrości bardzo blisko). W takim przypadku powiększenie (a zatem i rzeczywisty rozmiar czujnika) staje się kluczowe dla równania DoF, co psuje równoważność.

I artykuł w Wikipedii od niechcenia wspomina, ale nie omawia innej ważnej kwestii. Zakłada się, że dla tego samego rozmiaru wydruku akceptowalny krąg pomieszania (z grubsza akceptowalny poziom rozmycia nadal brany pod uwagę przy ustawianiu ostrości) będzie skalowany dokładnie z rozmiarem formatu. To może nie być prawdą i możesz (na przykład) uzyskać lepszą rzeczywistą rozdzielczość z pełnoklatkowego czujnika. W takim przypadku równoważność również nie jest ważna, ale na szczęście w sposób ciągły. (Musisz po prostu pomnożyć współczynnik wrażliwości .) ²

Wspominasz o „nie rozważaniu narażenia”, a teraz możesz myśleć (tak jak ja): poczekaj, poczekaj. Jeśli kadrowanie i powiększanie dotyczy „efektywnej” przysłony dla głębi ostrości, dlaczego nie stosuje się do ekspozycji? Powszechnie wiadomo, że podstawowe parametry ekspozycjiuniwersalne dla wszystkich formatów , od drobnego punktu i zdjęć po lustrzanki cyfrowe aż do dużego formatu. Jeśli ISO 100, f / 5.6, 1/2 sekundy zapewnia poprawną ekspozycję na jednym aparacie, to na każdym innym. ³ Co się tutaj dzieje?

Sekret polega na tym, że „oszukujemy” podczas powiększania . Oczywiście we wszystkich przypadkach ekspozycja dla danej liczby f na dowolnym obszarze czujnika jest taka sama. Nie ma znaczenia, czy przycinasz, czy po prostu masz mały czujnik na początek. Ale kiedy powiększamy (tak, że mamy na przykład 8 x 10 wydruków z tego miejsca i fotografujemy, aby dopasować do dużego formatu), utrzymujemy ekspozycję na tym samym poziomie, nawet jeśli faktyczne fotony zarejestrowane dla danego obszaru są „rozciągnięte”. Ma to również tę samą zgodność: jeśli masz współczynnik przycinania 2 ×, musisz powiększyć 2 × w każdym wymiarze, a to oznacza, że ​​każdy piksel zajmuje 4 × obszar oryginału - lub dwa stopnie mniej zarejestrowanego światła rzeczywistego . Ale oczywiście nie renderujemy go o dwa stopnie ciemniej


Przypisy:

[1]: W rzeczywistości, zmieniając wartość przysłony, utrzymujesz bezwzględną wartość przysłony stałej obiektywu, ponieważ liczba przysłony jest ogniskową powyżej bezwzględnej średnicy przysłony .

[2]: Ten czynnik również się załamuje, gdy zbliżasz się do hiperfokalnej odległości , ponieważ gdy mniejszy format osiągnie nieskończoność, nieskończoność podzielona przez cokolwiek jest wciąż nieskończonością.

[3]: Zakładając dokładnie tę samą scenę i pomniejsze różnice w stosunku do czynników rzeczywistych, takich jak transmisja obiektywu na bok.

[4]: Zasadniczo nie ma czegoś takiego jak darmowy lunch . Powoduje to, że hałas staje się bardziej oczywisty, i rozsądnym przybliżeniem jest stwierdzenie, że ten wzrost jest podobny do tego, że współczynnik przycinania dotyczy również szumu wynikającego ze wzmocnienia ISO.

mattdm
źródło
Właśnie w tym kierunku zmierzało moje myślenie, ale nigdy nie natknąłem się na zwięzłe matematyczne wyjaśnienie. Dziękuję Ci!
Sean
Współczynnik kadrowania jest odwrotnym stosunkiem wielkości formatu. Czujnik uprawy 1,5x jest 1 / 1,5 razy (lub 2/3) większy niż rozmiar czujnika FF, a nie 1,5 raza.
Michael C
@MichaelClark Jest to bezpośredni stosunek formatu 35 mm do rozmiaru czujnika, o którym mowa. Tak, tak, mniejszy czujnik ma większy współczynnik uprawy.
mattdm
W stosunkach zawsze musisz utrzymywać tę samą kolejność. Pod względem pomiarów liniowych bezpośredni stosunek rozmiaru czujnika D800 FF do rozmiaru czujnika uprawy D7100 wynosi 0,67 . 1,5-krotny współczynnik uprawy jest odwrotnością tego stosunku.
Michael C
Um. 36:24 = 3: 2 lub 1,5x. To FF: APS-C. Co jest oczywiście odwrotnością APS-C: FF.
mattdm
9

Tak jak używanie aparatu do przycinania nie zmienia ogniskowej (która jest właściwością obiektywu, a nie aparatu), ale zmienia pole widzenia, nie ma efektu podziału przysłony , obiektyw z przysłoną f / 2.8 jest nadal zachowuje się jak obiektyw z przysłoną f / 2.8 do celów pomiarowych, jednak przy dopasowaniu pola widzenia czujnika pełnoklatkowego głębia ostrości będzie taka sama jak obiektyw o współczynniku przysłony (wartość f /) pomnożonym przez współczynnik przycięcia .

Matt Grum
źródło
6

Im większy czujnik, tym mniejsza głębia ostrości dla określonej przysłony, przy założeniu, że wypełniasz kadr fotografowanym obiektem. Jest tak, ponieważ albo musisz użyć dłuższej ogniskowej, albo podejść bliżej, aby wypełnić większą ramkę.

Aby uzyskać taką samą głębię ostrości z aparatem pełnoklatkowym, jak w przypadku kadrowanego współczynnika, należy pomnożyć zarówno ogniskową, jak i przysłonę przez współczynnik kadrowania. Aby dopasować 35 mm f / 16 do Nikona APS-C (kadrowanie 1,5), potrzebna byłaby ogniskowa 53 mm i przysłona f / 24 w aparacie pełnoklatkowym.

ElendilTheTall
źródło
5

Tak, współczynnik kadrowania czujnika może być używany podczas obliczania zmiany głębi ostrości (DoF) obiektywu w porównaniu z użyciem tego obiektywu w aparacie pełnoklatkowym (FF). Ale nie zawsze doprowadzi to do wzrostu DoF. Jeśli zostanie zrobione z tej samej odległości i wyświetlone w tym samym rozmiarze, DoF dla kamery do kadrowania kadrowania zostanie zmniejszona (ponieważ obraz wirtualny wyświetlany na czujniku, w tym kręgi pomieszania, zostanie powiększony w większym stopniu). Jeśli natomiast dostosujesz odległość fotografowania do kadrowania obiektu w podobny sposób, zwiększy się wartość DOF.

W tym pytaniu jest tak wiele zmiennych, a większość odpowiedzi zakłada kilka bez podania tych założeń. Prowadzi to do rażących nieporozumień na temat związku ogniskowej , przysłony , rozmiaru matrycy , odległości fotografowania , wielkości wyświetlacza , odległości oglądania , a nawet ostrości widzenia widza z głębią ostrości (DoF) . Wszystkie te czynniki łącznie określą głębię pola obrazu. Jest tak, ponieważ DoF jest postrzeganiemjaki zakres odległości od płaszczyzny ogniskowej jest ostry. Tylko jedna odległość od płaszczyzny ogniskowej jest faktycznie ustawiona tak, że punktowe źródło światła teoretycznie wytworzy punkt świetlny na płaszczyźnie ogniskowej. Punktowe źródła światła na wszystkich innych odległościach tworzą okrąg rozmycia, który różni się rozmiarem w zależności od ich proporcjonalnej odległości do płaszczyzny ogniskowej w porównaniu do odległości ogniskowania. DoF definiuje się jako odległość między bliską i daleką odległością od płaszczyzny ogniskowej, którą okrąg rozmycia jest nadal postrzegany przez widza jako punkt .

Zadajemy takie pytania, jak: „Jak zmienia się głębia ostrości, gdy używasz tego samego obiektywu w kamerze z czujnikiem innej wielkości?” Prawidłowa odpowiedź brzmi: „To zależy”. Zależy to od tego, czy fotografujesz z tej samej odległości (a tym samym zmienisz kadrowanie obiektu), czy strzelasz z różnicy odległości, aby przybliżyć to samo kadrowanie obiektu. Zależy to od tego, czy rozmiar wyświetlanego obrazu jest taki sam, czy rozmiar wyświetlanego obrazu zmienia się o tę samą proporcję, co różne rozmiary czujników. Zależy to od tego, jakie zmiany i co pozostanie niezmienione w odniesieniu do wszystkich wyżej wymienionych czynników.

Jeśli ta sama długość ogniskowej zostanie użyta przy tej samej odległości od obiektu z tą samą aperturą, przy użyciu tego samego rozmiaru czujnika o tej samej gęstości pikseli i wydrukowana w tej samej rozdzielczości na papierze o tym samym rozmiarze i oglądana przez osoby o tej samej ostrości wzroku, wówczas wartość DOF dwa obrazy będą takie same. Jeśli którakolwiek z tych zmiennych zmieni się bez odpowiedniej zmiany pozostałych, DoF również zostanie zmieniony.

Do końca tej odpowiedzi założymy, że odległość oglądania obrazu i ostrość widzenia widza są stałe. Zakładamy również, że otwory są na tyle duże, że dyfrakcja nie wchodzi w grę. Zakładamy, że każde drukowanie odbywa się na tej samej drukarce z tą samą liczbą dpi, ale niekoniecznie z tym samym ppi i niekoniecznie na tym samym rozmiarze papieru.

Dla uproszczenia rozważmy kilka teoretycznych kamer. Jeden ma czujnik 36 mm x 24 mm o rozdzielczości 3600 x 2400 pikseli. Byłby to czujnik pełnoklatkowy (FF) o rozdzielczości 8,6 MP. Nasz drugi aparat ma czujnik 24 mm x 16 mm o rozdzielczości 2400 x 1600 pikseli. Byłby to korpus uprawowy 3,8 MP 1,5x (CB). Obie kamery mają ten sam rozmiar i odstęp pikseli. Obie kamery mają tę samą konstrukcję i czułość na poziomie pikseli. Innymi słowy, środek 24 mm x 16 mm większego czujnika FF jest identyczny z mniejszym czujnikiem CB.

Po podłączeniu tego samego obiektywu 50 mm do obu aparatów i zrobieniu zdjęcia tego samego obiektu z tej samej odległości przy f / 2 (zakładając, że wszystkie pozostałe ustawienia są takie same) i przycięcie obrazu czujnika FF do 2400 x 1600 pikseli i wydrukowanie obu zdjęć na papierze 6 "X 4" dwa obrazy będą praktycznie identyczne, a DoF będzie taki sam na obu zdjęciach.

Jeśli podłączysz ten sam obiektyw 50 mm do obu aparatów i zrobisz zdjęcie tego samego obiektu z tej samej odległości przy f / 2 (zakładając, że wszystkie inne ustawienia są takie same) i wydrukujesz wszystkie oba zdjęcia na papierze 6 "X 4" zauważalne różnice. Obraz z kamery FF będzie miał szersze pole widzenia (FoV), obiekt będzie mniejszy, a DoF będzie większy niż obraz z kamery CB. Jest tak, ponieważ obraz FF został wydrukowany przy 600 ppi, a obraz CB został wydrukowany przy 400 ppi. Powiększając każdy piksel z kamery CB o 50%, powiększyliśmy również rozmiar każdego koła rozmyciao tę samą kwotę. Oznacza to, że największy okrąg rozmycia wyświetlany na matrycy CB, który będzie postrzegany jako punkt, jest o 33% mniejszy (odwrotność 3/2 wynosi 2/3) niż na matrycy FF. Gdybyśmy wydrukowali obraz FF na papierze 9 "X 6" i obraz CB na papierze 6 "X 4", DoF byłby taki sam (oba wydrukowane w rozdzielczości 400 ppi), podobnie jak rozmiary obiektów na obu wydrukach. Gdybyśmy następnie przycięli środek wydruku 9 "X 6" do wydruku 6 "X 4", znowu mielibyśmy prawie identyczne odbitki.

Jeśli podłączymy ten sam obiektyw 50 mm do obu aparatów i zrobimy zdjęcie f / 2 tego samego obiektu z różnych odległości, aby rozmiar obiektu był taki sam, i wydrukujemy oba zdjęcia na papierze 6 "X 4", zauważalne będą różnice . Perspektywa ulegnie zmianie, ponieważ zdjęcie CB zostało zrobione w większej odległości od obiektu. Obiekt będzie wyglądał na skompresowany na zdjęciu CB w porównaniu do obrazu FF. Jeśli szczegóły tła są widoczne, tło pojawi się również bliżej obiektu niż na zdjęciu z czujnika FF. Ponieważ obiektyw 50 mm był zogniskowany na 50% większej odległości, DoF również wzrosło o 50%. Jeśli obiekt miał 10 'za pomocą aparatu FF i 15' za pomocą aparatu CB, oto wynikowe obliczenia DoF:

  • 50 mm przy f / 2 od 10 'na FF: 9,33' do 10,8 '. Dof 1.45 '(17,4 "). Dof waha się od 8" przed do 9,6 "za punktem ostrości 10' (PoF).
  • 50 mm @ f / 2 od 15 'na CB: 14,0' do 16,2 '. DoF wynoszący 2,18 cala (26,16 "). Zakres DOF ​​wynosi od 12" przed do 14,4 "za 15 'PoF.

Obliczenia te opierają się na okręgu zamieszania (CoC) wynoszącym 0,03 mm dla kamery FF i 0,02 mm dla kamery CB. Jest tak, ponieważ drukujemy w rozdzielczości 600 ppi dla FF i 400 ppi dla CB (a piksele mają ten sam rozmiar dla obu - 0,01 mm lub 10 µm).

W rzeczywistości wszyscy wiemy, że piksele w większości czujników FF są większe niż piksele w większości nowszych czujników CB. Wynoszą one od 6,92 µm w 18MP FF Canon 1D X do 7,21 µm w 16MP D4 do 4,7 µm w 36MP FF Nikon D800. Ciała kadrowania wynoszą od 4,16 µm dla Canona 7D 18MP do 3,89 µm dla 24MP Nikon D7100 (D7200 będzie wynosić około 3,0 µm) do 5,08 µm dla 14MP Sony SLT Alpha 33. We wszystkich przypadkach rozmiar piksela jest znacznie mniejszy niż ogólnie przyjęty CoC wynoszący 0,03 mm (30 µm) dla kamer FF i 0,02 mm (20 µm) dla kamer 1,5x CB. W przypadku aparatów Canon Canon z trzema kamerami CB zwykle stosuje się 0,019 (19 µm). Największy rozmiar pikseli, których Canon użył w ciągu ostatniej dekady, wynosił 8,2 µm dla 12,8 MP FF 5D i 8,2 MP APS-H 1D mkII.Oznacza to, że na poziomie podglądania pikseli rozmycie ostrości będzie widoczne nawet dla obiektów w akceptowanym DoF, ponieważ zaakceptowany okrąg rozmycia jest od 4 do 7 razy większy niż piksele w obecnych lustrzankach cyfrowych. Aby obliczyć DoF na poziomie pikseli, musisz użyć CoC wielkości pikseli aparatu, który byłby znacznie węższy niż w większości kalkulatorów DoF.

Michael C.
źródło
Dlaczego tak martwisz się drukowaniem?
BBking
1
Wydruk to tylko szybki sposób powiedzenia „wyświetl w określonym rozmiarze / powiększeniu”. Dotyczy to również wyświetlania na monitorze.
Michael C
2
printf („Och racja. Widzę teraz”);
BBking
4

Mniejszy czujnik nie zmienia ogniskowej ani przysłony, po prostu przechwytuje tylko środkową część obrazu - jest prawie taki sam jak robienie zdjęcia w pełnej klatce i kadrowanie go, aby pozostawić tylko środek.

Gdy zrobisz tylko środek obrazu, będzie on wyglądał jak powiększony - więc pole widzenia obiektywu 50 mm na czujniku przycięcia 1.6 wygląda jak 80 mm na czujniku pełnoklatkowym - ale tak to wygląda, ponieważ widzisz tylko środek obrazu 50 mm, ogniskowa nadal wynosi 50 mm, a uzyskany obraz odpowiada środkowi obrazu 50 mm, a nie prawdziwemu obiektywowi 80 mm.

To samo dotyczy apertury: zdjęcie 50 mm wykonane przy przysłonie f / 8 na czujniku kadrowania jest takie samo, jak środek zdjęcia 50 mm f / 8 na matrycy 35 mm, nie jest takie samo jak zdjęcie 80 mm zrobione przy f / 12 (oczywiście nie to samo co 80 mm f / 8)

Nir
źródło
W rzeczywistości, przy założeniu wystarczającej rozdzielczości, jeśli wysadzisz ten przycięty środek do tego samego rozmiaru wydruku, wynikowy DoF jest dość zbliżony do proporcjonalnego do ilości przycięcia.
mattdm,
@Nir, twoja odpowiedź jest poprawna, jeśli odległość fotografowania i ostrości jest taka sama.
Michael C
@mattdm, wynikowa DoF będzie odwrotnie proporcjonalna . Gdy planujesz powiększyć rozmiar wydruku, potrzebne jest mniejsze kółko rozmycia rzutowane na czujnik, aby mogło być postrzegane jako punkt na wydruku (przy tej samej odległości oglądania). Wszystko, w tym rozmiar koła rozmycia, jest powiększone.
Michael C
Tak, źle to sformułowałem.
mattdm
0

Nie ma „efektu mnożnika ogniskowej”, kropka. Ogniskowa obiektywu NIE zmienia się magicznie, ponieważ używasz mniejszej lub większej matrycy, pozostaje dokładnie taka sama.

Wszystko, co dostajesz, to obraz, który został przycięty z tego, który uzyskałbyś, gdybyś użył tego samego obiektywu do zarejestrowania obrazu na matrycy o większym rozmiarze. W ten sposób DOF będzie taki sam, jak w przypadku zastosowania większego czujnika.

jwenting
źródło
1
Nie, jeśli wydrukujesz ten sam rozmiar z dwóch różnych rozmiarów czujnika, nie zrobi tego! Powiększasz obraz z mniejszego czujnika większym współczynnikiem, co oznacza, że ​​potrzebne jest mniejsze kółko rozmycia, aby mogło być postrzegane jako punkt na wydruku.
Michael C
0

Innymi słowy, obiektyw 50 mm f / 1.8 w aparacie APS-C działałby bardziej jak obiektyw 80 mm f / 2.8 (około 1,8 * 1,6x) w ekwiwalencie 35 mm - dla głębi ostrości, bez uwzględnienia ekspozycji.

Tak, obiektyw 50 mm f / 1.8 w aparacie APS-C działałby bardziej jak obiektyw 80 mm f / 2.8 (ok. 1,8 * 1,6x dla Cannon) w ekwiwalencie 35 mm, o ile DOF i do pewnego stopnia poziomy szumów obrazu są dotyczy, zakładając taki sam czas otwarcia migawki i zmianę kadrowania w celu skompensowania itp.

den miol
źródło
0

Tak, rozpiętość głębi pola jest dokładnie i odwrotnie proporcjonalna do współczynnika kadrowania (przy założeniu, że wszystko inne jest równe (długość ogniskowej i odległość ogniskowania oraz f / stop równe), i przy założeniu, że wartość CoC jest obliczana na podstawie przekątnej czujnika.

Łatwo to zobaczyć w kalkulatorze na stronie http://www.scantips.com/lights/dof.html

Wynika to z faktu, że DOF opiera się na ostatecznym powiększeniu obrazu, a mniejsze czujniki wymagają większego powiększenia (aby porównać przy tym samym rozmiarze).

WayneF
źródło
0

Dokonałem porównań za pomocą internetowego kalkulatora głębi ostrości. Uderzyłeś w coś, czego nie znałem; dobrze dla ciebie! Jak odkryłeś, pomnóż liczbę f / przez 1,6, aby uzyskać równoważną głębię ostrości. Fascynuje mnie to i muszę zbadać, dlaczego i gdzie.

Aby porównać jabłka i pomarańcze pod względem głębi ostrości dla dwóch różnych formatów, musisz zastosować inne kryteria dotyczące wielkości koła zamieszania. Mówimy o tym, że obiektyw obsługuje osobno każdy punkt na obiekcie, a następnie wyświetla ten punkt na filmie lub chipie cyfrowym. Ten niewielki krąg światła jest najmniejszym ułamkiem obrazu optycznego zawierającego inteligencję.

Abyśmy mogli wymówić jakąś część obrazu jako „ostrą”, obraz ten musi składać się z tak małych kółek, że nie możemy ich rozróżnić jako dysk, widzimy punkt bez wymiaru. Zdjęcia w gazetach są wykonane zbyt dużymi kropkami atramentu, mówimy, że obrazy w gazetach nie są ostre. Jak duży jest maksymalny rozmiar kręgów zamieszania? Muszą mieć średnicę 0,5 mm lub mniejszą, patrząc z normalnej odległości odczytu. Oznacza to, że pełna klatka (FX) musi mieć obiektyw, który wyświetla kółka wystarczająco małe, aby tolerować powiększanie. Kodak wykorzystał okrąg o wielkości 1/1750 ogniskowej, a Leica wykorzystał 1/1500 ogniskowej do kluczowych prac. Ułamek ogniskowej jest standardowym w branży sposobem wykonywania obliczeń, ponieważ w większości uwzględnia stopień powiększenia potrzebny do wykonania wydruku 8 x 10 lub wyświetlacza komputerowego.

Teraz standardy Kodaka i Leiki są zbyt rygorystyczne, więc przemysł zwykle używa 1/1000 ogniskowej do codziennej pracy. Działa to do rozmiaru koła 0,05 mm dla obiektywu 50 mm i rozmiaru koła 0,08 mm dla 80 mm.

Pochodzi z komputera on-line z głębi pola, używając tych dwóch rozmiarów kół:

50 mm @ f / 1.8 zogniskowany 10 stóp DOF 9,05 do 11,2 stopy koło zamieszania 0,05 mm 80 mm @ f / 2.8 zogniskowany 10 stóp DOF 9.05 do 11,2 stopy koło zamieszania 0,08 mm

50 mm @ f11 skupiony 10 stóp DOF 5,96 do 31,1 stopy koło zamieszania 0,05 mm 80 mm @ f / 18 skupiony 10 stóp DOF 6 do 30 stóp koło zamieszania 0,08 mm

50 mm @ f / 4 zogniskowany 10 stóp DOF 8,07 do 13,2 stopy koło zamieszania 0,05 80 mm @ f / 6,4 zogniskowany 10 stóp DOF 8,09 do 13,1 stopy koło zamieszania 0,08

Współczynnik przycięcia 1,6 jest w rzeczywistości pomnożeniem lub powiększeniem. Rama FX ma wymiary 24 mm na 36 mm, a przekątna 43,3 mm. Twój APS-C ma wymiary 15 mm na 22,5 mm z przekątną 27,0. Współczynnik wynosi 43,3 ÷ 27,0 = 1,6 (współczynnik przycięcia lub powiększenia). Nawiasem mówiąc, to 1 / 1,6 X 100 = 62,5%. APS-C ma 625% wielkości FX.

Dużo matematyki, nazywam to gobbledygook! Mogę to powiedzieć - skończyłem dzisiaj 79 lat!

Alan Marcus
źródło