Celem większości fotografii jest przedstawienie sceny przypominającej to, co zobaczyłaby osoba, która była tam w tym momencie. Nawet gdy celowo działa poza tym, ludzka wizja jest de facto podstawą.
Warto więc wiedzieć coś o porównaniu oka z naszą technologią aparatu. Pomijając kwestie psychologii, rozpoznawania wzorów i postrzegania kolorów w jak największym stopniu (bo to osobne pytanie!), Jak ludzkie oko wypada w porównaniu z nowoczesnym aparatem i obiektywem?
Jaka jest efektywna rozdzielczość? Pole widzenia? Maksymalny (i minimalny) otwór? Równoważność ISO? Zakres dynamiczny? Czy mamy coś, co jest równoważne czasowi otwarcia migawki?
Jakie struktury są bezpośrednio analogiczne do części aparatu i obiektywu (powiedzmy źrenicy i tęczówki) i jakie cechy są wyjątkowo ludzkie (lub występują w aparatach, ale nie w biologii)?
źródło
Odpowiedzi:
Ludzkie oko jest naprawdę do kitu w porównaniu z nowoczesnymi obiektywami do aparatów.
Z drugiej strony ludzki system wizualny znacznie przewyższa wszelkie nowoczesne systemy kamer (obiektyw, czujnik, oprogramowanie układowe).
Ludzkie oko jest tylko ostre w środku. W rzeczywistości jest ostry tylko w jednym, bardzo małym plamce znanej jako fovea , która jest plamą o średnicy mniejszej niż jeden procent naszego całkowitego kąta widzenia. Mamy więc poważną miękkość narożników.
Ludzki mózg jest jednak w stanie to skorygować. Instruuje oko do wykonywania bardzo szybkich ruchów wokół sceny, tak aby ostra część pośrodku rzucała się wokół. Mózg ma wtedy całkiem niesamowitą stabilizację obrazu w ciele, ponieważ wykonuje wszystkie te gwałtowne ruchy i łączy je, aby stworzyć jedną, ostrą scenę - cóż, przynajmniej wszystkie fragmenty, na które wylądowało oko podczas rzucania, będą ostre.
Ludzkie oko jest dość wrażliwe na światło, ale przy słabym świetle nie ma dostępnych informacji o kolorze. Oprócz tego, ostra część pośrodku (fovea) jest mniej wrażliwa na światło.
Technicznie jest tak, ponieważ oko ma osobne strony zdjęciowe zwane stożkami dla trzech kolorów (czerwony, zielony, niebieski) i inny rodzaj strony fotograficznej zwanej prętami, która rejestruje tylko czarno-białe, ale jest znacznie bardziej wydajna.
Mózg zszywa je wszystkie, aby stworzyć doskonały kolorowy obraz w ciągu dnia, ale nawet gdy jest naprawdę, naprawdę ciemno, powstaje miękki, bezbarwny obraz wykonany przez wszystkie pręty.
Oko ma tylko jeden element soczewki i wytwarza straszliwą aberrację chromatyczną w postaci fioletowych obwódek.
W rzeczywistości ta grzywka ma bardzo krótkie długości fali światła. Ludzki układ wzrokowy jest najmniej wrażliwy na te bluesa i fiołki. Oprócz tego jest w stanie skorygować to otoczenie, które istnieje na kilka sposobów. Po pierwsze, ponieważ ludzki system wizyjny jest ostry tylko w środku i tam jest najmniej aberracja chromatyczna. Po drugie, ponieważ nasza rozdzielczość kolorów (poza fovea) jest znacznie niższa niż nasza rozdzielczość jasności, a mózg nie ma tendencji do używania koloru niebieskiego przy ustalaniu jasności.
Widzimy w trzech wymiarach. Wynika to częściowo z tego, że mamy dwoje oczu, a mózg może wykonać niesamowite obliczenia dotyczące zbieżności między nimi. Ale jest też bardziej zaawansowany; podobnie jak „efekt 3D” uzyskany z widzenia stereo, mózg może również rekonstruować sceny w trzech wymiarach, nawet patrząc na dwuwymiarowe zdjęcie sceny. Dzieje się tak, ponieważ rozumie takie wskazówki, jak okluzja, cienie, wskazówki dotyczące perspektywy i wielkości, i wykorzystuje je wszystkie do stworzenia sceny jako przestrzeni 3D. Kiedy patrzymy na zdjęcie długiego korytarza, widzimy, że korytarz rozciąga się od nas, chociaż nie mamy widzenia stereo, ponieważ mózg rozumie perspektywę.
źródło
(Z dużą pomocą artykułu z Wikipedii )
Nasze oczy to system z dwoma soczewkami, z których pierwsze to nasze oko zewnętrzne, a drugie to soczewki w naszym oku. Nasze oczy mają stałą ogniskową, około 22-24 mm. Mamy znacznie wyższą rozdzielczość w pobliżu centrum niż na krawędziach. Rozdzielczość różni się znacznie w zależności od tego, gdzie na obrazie patrzysz, ale w centralnym regionie wynosi około 1,2 minuty łukowej / parę linii. Mamy około 6-7 milionów czujników, więc mamy 6-7 megapikseli, ale są one nieco inne. Wzór detektorów kolorów nie jest zbyt jednolity, w centrum znajdują się różne możliwości detekcji kolorów w porównaniu do widzenia peryferyjnego. Pole widzenia znajduje się około 90 stopni od centrum.
Ciekawym punktem jest to, że ludzkie oko nigdy nie tworzy pełnego „migawki”, ale jest raczej ciągłym systemem. To może być bardzo trudne do powiedzenia, ponieważ nasze mózgi są bardzo dobre w korygowaniu tego, ale nasz system jest bardziej nieszczelnym podejściem do fotografii, nieco, ale nie do końca podobnym do kamery cyfrowej.
Soczewka „Normalna” jest zwykle wybierana tak, aby reprezentować główny obszar skupienia człowieka, wyjaśniając w ten sposób ich różnice.
Kamery mają różne rodzaje czujników, ale zwykle są rozmieszczone dość równomiernie wokół czujnika. Czujnik jest zawsze płaski (czujnik człowieka jest zakrzywiony), co może prowadzić do zniekształceń krawędzi. Rozdzielczość jest trudna do uzyskania w takim samym formacie, w jakim podaje się ludzkie widzenie, i zależy w pewnym stopniu od soczewki, ale można śmiało powiedzieć, że ludzkie oko ma większą rozdzielczość w centrum ogniska, ale mniej w obszarach peryferyjnych.
źródło
Pixiq ma bardzo interesujący artykuł na ten temat, wydany kilka dni temu: http://web.archive.org/web/20130102112517/http://www.pixiq.com/article/eyes-vs-cameras
Mówią o równoważności ISO, ogniskowaniu, przysłonie, czasie otwarcia migawki itp. Jest przedmiotem dyskusji, ale nadal jest ciekawa do czytania.
Samo oko to dobra technika, ale mózg wykonuje wiele pracy przy składaniu elementów. Na przykład możemy dostrzec bardzo duży zakres dynamiczny, ale dzieje się tak głównie ze względu na to, że mózg gromadzi różne regiony bez naszej wiedzy. To samo dotyczy rozdzielczości, oko ma dobrą rozdzielczość pośrodku, ale w rzeczywistości wszędzie działa słabo. Mózg gromadzi dla nas szczegóły. Podobnie w przypadku kolorów, postrzegamy kolory tylko w środku, ale mózg oszukuje nas, buforując informacje o kolorach, gdy wychodzą poza zakres środka.
źródło
Pozwól, że odpowiem ci jeszcze raz: jaka jest szybkość transmisji i głębokość bitowa płyty winylowej?
Kamery są urządzeniami zaprojektowanymi tak, aby jak najwierniej reprodukować obraz wyświetlany na ich matrycy CCD. Ludzkie oko jest rozwiniętym urządzeniem, którego celem jest po prostu zwiększenie przeżycia. Jest dość złożony i często zachowuje się w sposób sprzeczny z intuicją. Mają bardzo niewiele podobieństw:
Fotoreceptory siatkówki
Samo oko nie jest niezwykłe. Mamy miliony fotoreceptorów, ale zapewniają one zbędne (i niejednoznaczne jednocześnie) dane wejściowe do naszego mózgu. Fotoreceptory prętowe są bardzo wrażliwe na światło (szczególnie po niebieskawej stronie widma) i mogą wykrywać pojedynczy foton. W ciemności działają całkiem dobrze w trybie zwanym widzenie skotopowe. Gdy robi się jaśniej, na przykład podczas zmierzchu, komórki stożkowe zaczynają się budzić. Komórki stożkowe wymagają co najmniej około 100 fotonów do wykrycia światła. Przy tej jasności aktywne są zarówno komórki pręcikowe, jak i komórkowe, w trybie zwanym widzenie mezopem. Komórki prętowe dostarczają obecnie niewielką ilość informacji o kolorze. Gdy staje się jaśniejszy, komórki pręcikowe nasycają się i nie mogą już działać jako detektory światła. To się nazywa widzenie fotopowe i działają tylko komórki stożkowe.
Materiały biologiczne są zaskakująco odblaskowe. Gdyby nic nie zostało zrobione, światło, które przechodzi przez nasze fotoreceptory i uderza w tył oka, odbija się pod kątem, tworząc zniekształcony obraz. Rozwiązuje to ostatnia warstwa komórek w siatkówce, które pochłaniają światło za pomocą melaniny. U zwierząt wymagających doskonałego widzenia w nocy warstwa ta celowo odbija światło, więc fotony, które nie mają fotoreceptorów, mają szansę trafić je w drodze powrotnej. Dlatego koty mają odblaskowe siatkówki!
Kolejną różnicą między kamerą a okiem jest lokalizacja czujników. W kamerze znajdują się natychmiast na ścieżce światła. W oku wszystko jest odwrócone. Obwód siatkówki znajduje się między światłem a fotoreceptorami, więc fotony muszą przejść przez warstwę wszelkiego rodzaju komórek i naczyń krwionośnych, zanim w końcu uderzą w pręt lub stożek. Może to nieznacznie zniekształcić światło. Na szczęście nasze oczy same się kalibrują, więc nie utknęliśmy wpatrując się w świat z jaskrawoczerwonymi naczyniami krwionośnymi, które płyną tam iz powrotem!
Środek oka znajduje się tam, gdzie odbywa się odbiór w wysokiej rozdzielczości, przy czym peryferia stają się coraz mniej wrażliwe na szczegóły i coraz bardziej ślepe na kolory (choć bardziej wrażliwe na małe ilości światła i ruchu). Nasz mózg radzi sobie z tym, szybko poruszając oczami w bardzo wyrafinowany sposób, aby pozwolić nam uzyskać maksimum szczegółów ze świata. Kamera jest faktycznie podobna, ale zamiast używać mięśnia, próbkuje kolejno każdy receptor CCD w trybie szybkiego skanowania. To skanowanie jest znacznie, znacznie szybsze niż nasz ruch sakadalny, ale jest również ograniczone tylko do jednego piksela na raz. Ludzkie oko jest wolniejsze (a skanowanie nie jest progresywne i wyczerpujące), ale może zająć o wiele więcej naraz.
Przetwarzanie wstępne wykonane w siatkówce
Sama siatkówka faktycznie zajmuje się przetwarzaniem wstępnym. Fizyczny układ komórek jest zaprojektowany do przetwarzania i wydobywania najbardziej istotnych informacji.
Podczas gdy każdy piksel w aparacie ma mapowany 1: 1 piksel cyfrowy (przynajmniej dla bezstratnego obrazu), pręty i stożki w naszej siatkówce zachowują się inaczej. Pojedynczy „piksel” jest w rzeczywistości pierścieniem fotoreceptorów zwanym polem recepcyjnym. Aby to zrozumieć, konieczne jest podstawowe zrozumienie obwodu siatkówki:
Głównymi składnikami są fotoreceptory, z których każdy łączy się z pojedynczą komórką dwubiegunową, która z kolei łączy się ze zwojem, który dociera przez nerw wzrokowy do mózgu. Komórka zwojowa odbiera dane wejściowe z wielu komórek dwubiegunowych w pierścieniu zwanym polem odbiorczym otaczającym centrum. Środek, jeśli pierścień i obwódka pierścienia zachowują się jak przeciwieństwa. Światło aktywujące centrum pobudza komórkę zwoju, podczas gdy światło aktywujące otoczkę hamuje ją (pole w środku, poza otoczeniem). Istnieją również komórki zwojowe, dla których jest to odwrócone (poza centrum, w otoczeniu).
Ta technika znacznie poprawia wykrywanie krawędzi i kontrast, poświęcając ostrość procesu. Jednak nakładanie się pól odbiorczych (pojedynczy fotoreceptor może działać jako sygnał wejściowy do wielu komórek zwojowych) pozwala mózgowi ekstrapolować to, co widzi. Oznacza to, że informacje kierowane do mózgu są już wysoce zakodowane, do tego stopnia, że interfejs mózg-komputer bezpośrednio łączący się z nerwem wzrokowym nie jest w stanie wyprodukować niczego, co możemy rozpoznać. Jest to kodowane w ten sposób, ponieważ, jak wspomnieli inni, nasz mózg zapewnia niesamowite możliwości przetwarzania końcowego. Ponieważ nie jest to bezpośrednio związane z okiem, nie będę ich szczegółowo omawiał. Podstawą jest to, że mózg wykrywa pojedyncze linie (krawędzie), następnie ich długości, a następnie kierunek ruchu, każda w kolejnych głębszych obszarach kory,strumień brzuszny i grzbietowy , które służą odpowiednio do przetwarzania kolorów i ruchu w wysokiej rozdzielczości.
W CENTRALIS dołka jest centrum oka i jak inni zwrócili uwagę, gdzie większość naszego ostrości pochodzi. Zawiera tylko komórki stożkowe i, w przeciwieństwie do reszty siatkówki, ma mapowanie 1: 1 na to, co widzimy. Fotoreceptor z pojedynczym stożkiem łączy się z pojedynczą komórką dwubiegunową, która łączy się z pojedynczą komórką zwojową.
Specyfikacje oka
Oko nie zostało zaprojektowane jako kamera, więc nie ma sposobu, aby odpowiedzieć na wiele z tych pytań w sposób, który może ci się spodobać.
W aparacie dokładność jest raczej jednolita. Peryferia są tak samo dobre jak środek, więc warto zmierzyć kamerę w absolutnej rozdzielczości. Z drugiej strony oko to nie tylko prostokąt, ale różne części oka widzą z różną dokładnością. Zamiast mierzyć rozdzielczość, oczy najczęściej mierzy się w VA . VA 20/20 jest średnia. VA 20/200 sprawia, że jesteś prawnie niewidomy. Kolejnym pomiarem jest LogMAR , ale jest on mniej powszechny.
Biorąc pod uwagę oba oczy, mamy pole widzenia w poziomie 210 stopni i pole widzenia w pionie 150 stopni. 115 stopni w płaszczyźnie poziomej jest zdolnych do widzenia obuocznego. Jednak tylko 6 stopni zapewnia nam widzenie w wysokiej rozdzielczości.
Zazwyczaj źrenica ma 4 mm średnicy. Jego maksymalny zakres wynosi od 2 mm ( f / 8,3 ) do 8 mm ( f / 2.1 ). W przeciwieństwie do aparatu, nie możemy ręcznie sterować przysłoną, aby regulować takie rzeczy, jak ekspozycja. Mały zwój za okiem, zwój rzęskowy, automatycznie dostosowuje źrenicę w zależności od światła otoczenia.
Nie można tego bezpośrednio zmierzyć, ponieważ mamy dwa typy fotoreceptorów, każdy o innej czułości. Co najmniej jesteśmy w stanie wykryć pojedynczy foton (chociaż nie gwarantuje to, że foton uderzający w naszą siatkówkę uderzy w komórkę prętową). Ponadto niczego nie zyskujemy, wpatrując się w coś przez 10 sekund, więc dodatkowe naświetlenie niewiele dla nas znaczy. W rezultacie ISO nie jest dobrym pomiarem do tego celu.
Szacunkowa wartość „a-ball-ball” sporządzona przez astrofotografów wydaje się wynosić 500–1000 ISO, przy ISO ISO na poziomie światła dziennego wynoszącym zaledwie 1. Ale to nie jest dobry pomiar do oka.
Zakres dynamiczny samego oka jest dynamiczny, ponieważ w wizji skotopowej, mezopotopowej i fotopowej występują różne czynniki. Wydaje się, że dobrze to zbadano w artykule Jak porównać zakres dynamiki ludzkiego oka z zakresem aparatów cyfrowych? .
Ludzkie oko bardziej przypomina kamerę wideo. Wszystko pobiera na raz, przetwarza i wysyła do mózgu. Najbliższym odpowiednikiem szybkości migawki (lub FPS) jest CFF lub Critical Fusion Frequency, zwana także Flicker Fusion Rate. Jest to definiowane jako punkt przejściowy, w którym przerywane światło o rosnącej częstotliwości czasowej zlewa się w jedno, stałe światło. CFF jest wyższy na naszych peryferiach (dlatego czasami widać migotanie starych fluorescencyjnych żarówek tylko wtedy, gdy spojrzysz na nie pośrednio), i jest wyższy, gdy jest jasny. W jasnym świetle nasz system wzrokowy ma współczynnik CFF wynoszący około 60. W ciemności może spaść nawet do 10.
To nie jest cała historia, ponieważ wiele z nich jest spowodowanych trwałością wzrokową w mózgu. Samo oko ma wyższą CFF (chociaż nie mogę teraz znaleźć źródła, wydaje mi się, że pamiętam, że było rzędu rzędu 100), ale nasz mózg rozmywa rzeczy, aby zmniejszyć obciążenie przetwarzania i dać nam więcej czasu analizować przejściowy bodziec.
Próbuję porównać aparat i oko
Oczy i kamery mają zupełnie inne cele, nawet jeśli wydają się powierzchownie robić to samo. Kamery są celowo budowane w oparciu o założenia, które ułatwiają pewne rodzaje pomiarów, podczas gdy żaden taki plan nie pojawił się w ewolucji oka.
źródło