Jakie ustawienia mojej lustrzanki cyfrowej będą naśladować scenę dokładnie tak, jak widzę gołym okiem?
Myślę, że nie można uzyskać kontrastu i kolorów dokładnie tak, jak widzą moje oczy, i może to być różne dla różnych osób. Bardziej interesuje mnie ogniskowa obiektywu. Jeśli ktokolwiek może dać więcej wglądu poza ogniskową, chętnie się dowiem.
Na przykład, jeśli stoję na brzegu morza i chcę uchwycić wschód słońca, jaka powinna być ogniskowa, bym mógł zakryć kąt widzenia, który widzą moje oczy, a więc rozmiar obiektów na zdjęciu będzie wynosić dokładnie tak, jak postrzegają to moje oczy?
Mój aparat to Canon EOS 1000D APS-C. Mam 50 mm 1.8 i 70-300 mm Sigma, czy można to osiągnąć za pomocą tego obiektywu? Do tej pory nie osiągnąłem ani nie byłem zadowolony z tego, co widzę i co otrzymuję.
Odpowiedzi:
Cóż, nie chcę ci tego łamać, ale nie możesz dokładnie naśladować swoich oczu. Jest kilka powodów, pozwól mi wyjaśnić.
Niezależnie od tego wszystkiego, powiem tylko, że zależy to od tego, czy chcesz skupić się na określonym obszarze, czy na większej scenie wokół. Jeśli chcesz mieć konkretny obszar, prawdopodobnie powinieneś mieć około 150 mm. Jeśli chodzi o dramatyczny krajobraz, coś więcej niż 24 da ci całe pole widzenia. Często podawana liczba to 50 mm, co pozwala zobaczyć część oczu o wyższej rozdzielczości, a następnie niektóre, ale nie całe pole, i zwykle jest dobrym kompromisem. (Wszystkie te zakładają, że masz aparat w pełnej ramce, jeśli twój jest czujnikiem przycięcia, podziel przez odpowiedni współczynnik)
źródło
Oko się porusza
Chciałbym dodać do odpowiedzi @Pearsonartphoto, że ludzkie oczy nie widzą nieruchomej sceny, zamiast tego skanują ją w sposób ciągły, dostosowując swoją „przysłonę” i ponownie ustawiając ostrość podczas skanowania. Dzięki temu procesowi skanowania możemy dostrzec :
To, co „widzimy”, jest wynikiem „przetwarzania końcowego” strumienia obrazów, 30–70 obrazów na sekundę. Zobacz ruch gałek ocznych .
Aparat jest nieruchomy
Aparat nie może symulować tego, co widzi oko, ponieważ duża część tego, co widzi oko, to nasz proces widzenia i myślenia o scenie, a wiele z nich dzieje się w mózgu, a nie tylko w oku.
Możesz jednak robić zdjęcia, które wywołują określone, pożądane wrażenie u osoby, która je widzi. I tu zaczyna się sztuka , ponieważ musisz wywołać u innych pewne uczucia za pomocą płaskiego przedmiotu.
Wiele technik obrazowania
PS Niektóre popularne techniki fotografii cyfrowej próbują odzyskać więcej z wielu kolejnych zdjęć, tak jak robi to ludzka wizja. Te techniki obejmują:
źródło
Przechwytujesz obraz dokładnie tak, jak go widzą twoje oczy? Nie ma problemu, ale to nie wszystko w aparacie, będziesz musiał popracować trochę pocztą. I prawie na pewno nie to, czego naprawdę chcesz.
Po pierwsze, potrzebujesz okrągłego obiektywu typu „rybie oko”, który źle winietuje do robienia zdjęć. (W rzeczywistości potrzebujesz kilku zdjęć i systemu oglądania z wbudowanym śledzeniem oka, które może odwracać obrazy podczas ruchu oka.) Nikt nie produkuje obiektywu, który działa tak źle, jak ludzkie oko (przynajmniej nikt nie robi takiego takiego celowo i oferuje go w sprzedaży jako obiektyw fotograficzny), więc reszta będzie musiała się odbyć pocztą.
Najpierw musisz odciąć obraz u góry. Dokładnie, gdzie się to zmieni, ale tam broda przeszkadza. Następnie musisz uruchomić wyszukiwarkę krawędzi - w Photoshopie filtr reliefowy Sketch-> Bas działa dobrze. Umieść wynik tego na osobnym zestawie warstw do pomnożenia - scalisz go później, ale na razie możesz ukryć warstwę.
Następnie wybierz sekcję na środku obrazu - około jednego lub dwóch procent całego obrazu - wtłocz zaznaczenie o dwadzieścia lub trzydzieści pikseli, a następnie skopiuj zaznaczenie do osobnej warstwy.
Teraz uruchom intensywny filtr rozmycia na oryginalnym obrazie. Chcesz widzieć kolory, ale bez prawdziwych szczegółów. Połącz warstwę płaskorzeźby z zamazanym obrazem. Następnie scal warstwę utworzoną z zaznaczenia. Powinieneś teraz mieć okrągły obraz z obciętą górną krawędzią, źle zdefiniowanymi krawędziami, bez realnych szczegółów obrazu na większości obrazu, ale z krawędziami oryginalnych elementów wołających o uwagę i małym obszarem pośrodku (około dziesięć procent szerokości i wysokości) w stosunkowo ostrym ognisku.
Jeszcze nie skończyłeś. Musisz utworzyć okrągły wybór o wielkości około połowy obszaru, który jest ostry, tuż poniżej i z jednej strony, i lekko nakładać się na obszar ostrości. Zrób dobrze zaznaczenie, a następnie wypełnij je kolorem czarnym.
Utwórz nową warstwę nakładki, wypełnij ją 50% szarością i dodaj około dziesięć procent monochromatycznych szumów gaussowskich, aby zapewnić dobre rozmycie. Połącz to.
Masz teraz obraz, który jest przybliżony do tego, co faktycznie widzisz, z ustalonym okiem. W rzeczywistości jest znacznie mniej zniekształcony niż to, co widzi twoje oko, ale dodanie wszystkich małych zwojów, które mają miejsce z powodu różnej grubości płynów na powierzchni oka w danym momencie, jest dużym problemem dla tego ćwiczenia .
Wszystko, co myślisz, że widzisz, pochodzi z twojego mózgu, a nie z oka. Ta czarna plama? Masz po jednym w każdym oku, a twój mózg uzupełnia brakujące dane. Ogromne morze szczegółów? Panoramiczne szwy w korze wzrokowej. Jakaś ostrość? Uśrednianie wielu „ekspozycji”. Mamy również automatyczny system apertury i „przesuwamy ISO” w locie, w zależności od tego, na co zwracamy uwagę w danym momencie (nasz statyczny zakres dynamiki nie różni się zbytnio od tego, co rejestruje aparat - wykonujemy HDR ” w poście ”).
Prawdopodobnie chcesz uchwycić to, co widzi twój umysł, a nie to, co widzą twoje oczy, i to jest inne dla każdego zdjęcia. Dlatego robią te wszystkie różne obiektywy. Czasami chcesz pokazać rozległą panoramę, ponieważ to właśnie widziałeś . Ale nawet przy ogromnym krajobrazie może to być tylko niewielki zagajnik drzew, który przykuł twoją uwagę. Portret może być ciasnym zbliżeniem lub może obejmować całe otoczenie osoby siedzącej - znowu wszystko zależy od tego, co zobaczyłeś okiem umysłu, a nie od tego, co zobaczyłeś okiem. To samo dotyczy głębi ostrości - czy patrzyłeś na całą scenę, czy tylko zwracałeś uwagę na jeden mały szczegół w szerszym kontekście?
Innymi słowy, na to pytanie nie można odpowiedzieć bezpośrednio. Odpowiedź brzmi i zawsze będzie „to zależy”. Eksperyment. Ćwiczyć. Poznaj swoje narzędzia i ich działanie, a ostatecznie będziesz wiedział dokładnie, co musisz zrobić, aby uchwycić nie to, co faktycznie było, ale to , co widziałeś. Ansel Adams nazwał to prognozowaniem i poświęcił wiele czasu na opracowanie formalnego systemu, który pozwoliłby mu uchwycić na filmie to, co zobaczył swoim umysłem i sercem, a nie oczami.
źródło
Jednym z problemów z próbą naśladowania ludzkiego wzroku na zdjęciu jest pole widzenia .
Perspektywa, którą widzimy, która jest funkcją względnej długości ogniskowej, jest według większości rachunków z grubsza perspektywą obiektywu 50 mm na matrycy pełnoklatkowej lub 32 mm na matrycy DX, ale wtedy problemem nie jest perspektywa, to pole widzenia. Pomyśl o zdjęciu, które widzisz z odległości 50 mm, a teraz rozszerz pole widzenia, tak jak w przypadku panoramy.
Jeśli zrobisz zdjęcie „ludzkie”, zobaczysz prawie 180 stopni w poziomie i około 120 stopni w pionie, ale nadal utrzymasz perspektywę średniej ogniskowej.
Weź ten prymitywny schemat oka (zielony) i cyfrowy czujnik lustrzanki (niebieski). Zauważysz, że ogniskowa jest dokładnie taka sama dla obu mediów, w przybliżeniu 17 mm, ale kąt, na który rozciąga się siatkówka, jest znacznie większy niż dla czujnika.
Widzi większe pole widzenia o tej samej ogniskowej. Dlatego czujnik DX odpowiada polu widzenia 1,6 razy mniejszemu niż pole widzenia czujnika 35 mm, ale przy tej samej ogniskowej perspektywa się nie zmienia. Po prostu rejestruje mniejszy obszar sceny.
Panoramy to sposób naśladowania pola widzenia ludzkiego oka, przy jednoczesnym zachowaniu bardziej płaskiej i bardziej realistycznej perspektywy.
Kolejnym zagadnieniem jest zakres dynamiczny . Średni zakres dynamiki cyfrowych czujników wielkości lustrzanek to około 11 stopni światła. Oznacza to, że może zarejestrować różnicę między 11 podwojeniami natężenia światła. 1, 2, 4, 8, 16, 32 itd. Jak trafna jest inna historia. 14-bitowy jest lepszy niż 12, a 12 jest lepszy niż 8 bitów, ale analogowy jest nawet lepszy niż 14-bitowy cyfrowy.
Podczas gdy profesjonalne nadwozie o pełnej klatce, które jest w stanie wykonać do 13 przystanków w ciągu doby i jest uważane za imponujące według współczesnych standardów, nie zbliża się nawet do ludzkiego oka.
Ludzkie oko czasami potrafi odróżnić z grubsza od 18 do 20 stopni intensywności w bardzo prymitywnym pomiarze. Oznacza to, że czarny cień, który widzi twój aparat, może być dość dobrze widoczny przez ludzkie oko, jednocześnie widząc jasne szczegóły w scenie . W tym momencie spada zakres dynamiczny czujnika cyfrowego.
Po prostu nie może jednocześnie odróżnić tak bardzo różnych intensywności światła. Czasami jest tak źle, że mają albo narazić na światła lub narazić na cienie i ssać go, nawet gdy własne oczy można zobaczyć zarówno grzywny.
HDR jest sposobem emulacji zakresu dynamicznego ludzkiego oka, ale nadal jest ograniczony przez media, na których jest oglądany, a także przez sposób przetwarzania.
Inną kwestią jest to, że chociaż jest to dla nas spacer po parku, ponieważ nasze mózgi są zaprojektowane tak, aby widzieć to w ten sposób, tylko fovea widzi bardzo szczegółowo. Widzenie peryferyjne jest raczej nieokreślone i ma przede wszystkim widzieć ruch, który może nam pomóc zidentyfikować, że dzieje się wokół nas, lub ostrzec nas przed niebezpieczeństwem i uruchomić reakcję walki lub ucieczki.
Jeśli miałbyś to zasymulować na zdjęciu, obraz miałby małe pole ostrości na środku, a obraz szybko stawałby się rozmyty podczas przesuwania się w kierunku krawędzi.
Są inne kwestie, o których albo nie wspomniałem, albo nie wiem o sobie, ale myślę, że pod koniec dnia fotografia nie jest tak naprawdę przeznaczona do „naśladowania” ludzkich doświadczeń, ma uchwycić chwilę, stwórz odpowiedź lub emocję, albo przechwytuj wspomnienia, albo otrzymaj dużą wypłatę od klienta :)
źródło
Twój mózg może dostosować się do sygnałów pochodzących z komórek wykrywających światło w twoim oku, dzięki czemu możesz mieć większy zakres dynamiki z oczu niż jest to możliwe z komórek aparatu. Dopóki nie pojawią się inteligentne czujniki kamery, które mogą wyłączyć jeden, który ma wystarczająco dużo światła, będziesz walczył o uzyskanie potrzebnego zakresu.
Sugerowałbym zrobienie HDR sceny, ale tylko nieznaczne przesunięcie niedoświetlenia i prześwietlenia, aby wyglądało to naturalnie.
źródło
Cóż, dlaczego nie po prostu założyć obiektyw 70–200 mm i powiększyć obraz, dopóki obraz na ekranie LCD nie będzie miał takiego samego rozmiaru jak widok oka bez aparatu. Obiektyw odczyta wtedy, na jakiej ogniskowej jesteś. Lub po prostu użyj wizjera. Dokładnie przestudiuj rzeczywisty widok, widok LCD i widok Wizjera, ale potrzebujesz statywu i co najmniej 10 minut. Może się okazać, że Twój zestaw przoduje tylko na określonych odległościach. 3 widoki są odpowiednio dopasowane. W tym momencie możesz rozważyć zakup soczewki. Kolejną rzeczą po dopasowaniu skali będzie dopasowanie tonalne do twojego oka. Aparaty generalnie widzą cień. Dobrym pomysłem wydaje się dodanie neutralnego filtra zaciemniającego i dodanie kilku przystanków, aby zrekompensować cel, jakim jest rozjaśnienie cieni przy jednoczesnym zachowaniu jasności rozjaśnionych obszarów. Może to spowodować, że najważniejsze informacje nie będą tak „wysadzone” podczas gdy cienie są całkowicie czarne, jeśli ekspozycja została po prostu zwiększona. Ważny wydaje się też filtr UV. Następnie można dostosować funkcje przetwarzania w aparacie, aby dostosować i ustawić te ustawienia jako domyślne. Wspominam tutaj, co bym spróbował. Mam nadzieję że to pomoże.
źródło