Tak więc, jak wielu ludzi wie, ludzie mają trzy komórki stożkowe, co pozwala nam zobaczyć trzy różne „podstawowe” kolory, które mogą się łączyć, tworząc całe spektrum, które jesteśmy w stanie zobaczyć. Tymczasem wiele innych zwierząt ma cztery lub więcej komórek stożkowych, co pozwala im zobaczyć jeszcze szersze lub lepiej zdefiniowane spektrum.
Teraz aparaty cyfrowe zwykle rejestrują światło za pomocą szeregu światłoczułych „pikseli”. Piksele są ogólnie ułożone w czteroosobowe grupy, przy czym dwa są wyspecjalizowane (przy użyciu materiałów filtrujących) dla koloru zielonego, jeden dla koloru czerwonego, a drugi dla koloru niebieskiego. Intensywność wykrywana przez każdy piksel, a następnie konwertowana do pliku RGB za pomocą pewnego algorytmu. Intensywności zarejestrowane przez każdy specjalistyczny piksel można odwzorować na widmo odcienia poniżej.
Tego na ogół chcemy, ponieważ powstały obraz ma dla naszych oczu doskonały sens i wystarcza do zarejestrowania sceny dla większości celów i celów. Ale dlaczego musimy ograniczyć kamerę do przechwytywania i rejestrowania światła w sposób, w jaki postrzegają go ludzie?
Powiedzmy, że zmieniliśmy filtry na światłoczułych „pikselach”, aby optymalnie przyjmować różne długości fal, szczególnie te, których normalnie nie widzimy, lub te bliżej siebie w specjalnym zakresie kolorów, który zapewniłby więcej szczegółów. Stamtąd możemy rozciągnąć spektrum odcieni, przy czym 0/360 to pierwszy kolor, 120 to drugi kolor, a 240 to ostatni kolor.
Jestem bardzo ciekawy, jaki byłby tego wynik, gdybyśmy na przykład wybrali długości fali 800 nm, 400 nm i 200 nm, aby zobaczyć nieco więcej w podczerwieni i ultrafiolecie. Lub, gdybyśmy mieli kolaż czegoś, co wyglądało na niebieskie, moglibyśmy wybrać długości fali 450 nm, 475 nm i 500 nm, aby łatwiej odróżnić podobne odcienie. Inną możliwością byłoby wykrycie czterech różnych długości fal i zmapowanie ich na widmo odcienia. Pozwoliłoby to na coś w rodzaju fotografii „tetrachromatycznej”.
Oto makieta tego, czego można się spodziewać (zmieniona, aby lepiej odzwierciedlała pytanie):
Oto kilka rzeczy, na które należy odpowiedzieć:
Czy to już jest zrobione? Jeśli nie, dlaczego nie? (Wcześniej widziałem zdjęcia w ultrafiolecie i podczerwieni, ale zwykle są to czarno-białe lub czarno / magenta. Dlaczego warto korzystać z jednego wymiaru i dlaczego nie rozciągnąć spektrum?)
Co istnieje w zakresie technologii konsumenckich do robienia zdjęć w ten sposób?
Czy istnieją ograniczenia technologiczne w zakresie długości fal, które można zarejestrować?
źródło
primary
. Primary ludzkiego oka nie istnieją. Pytanie jest niepoprawne, ale nie mogę wymyślić edycji, która by to poprawiła.Odpowiedzi:
Fotografia kolorowa rzeczywiście opiera się na teorii trójkolorowej. Świat zobaczył pierwszy kolorowy obraz w 1861 roku wykonany przy użyciu filtrów czerwonych, zielonych i niebieskich przez Jamesa Clarka Maxwella. Dzisiejsza fotografia kolorowa oparta jest na jego metodzie. W 1891 r. Gabriel Lippmann zademonstrował obrazy w pełnym kolorze przy użyciu jednego arkusza czarno-białej folii, bez filtrów, bez kolorowego barwnika lub pigmentu. Proces ten poszedł na marne, ponieważ pięknych zdjęć nie można było skopiować ani powielić. W latach 50. dr Edwin Land z Polaroid Corporation wykazał, że potrafi robić piękne kolorowe zdjęcia przy użyciu tylko dwóch kolorów (579 i 599 nanometrów). To też poszło na marne.
Inżynierowie obrazu dawno temu chcieli obrazować za pomocą niewizualnej części widma. Szybko odkryto, że zwykłe płyty fotograficzne i filmy rejestrują tylko światło fioletowe i niebieskie, a także ultrafioletowe (od 4 nanometrów do 380 nanometrów). Odkryli, że filmy rejestrują promieniowanie rentgenowskie i podczerwień.
Jakie inne części widma można zobrazować? Zdjęcie astronomów za pomocą częstotliwości radiowych Weathermen i przemysł lotniczy, zdjęcie za pomocą radaru. Mikroskop optyczny jest ograniczony do około 1000X, jednak mikroskop elektronowy obrazuje cząsteczki i atomy.
Obrazujemy ludzkie ciało za pomocą fal dźwiękowych (ultradźwięków). Obrazujemy ludzkie ciało za pomocą fal radiowych (rezonans magnetyczny, MRI).
Istnieje niezliczona ilość innych sposobów obrazowania. Na początku obrazy wykonane za pomocą niewizualnej części widma były prezentowane tylko w czerni i bieli. W końcu nie widzimy tego promieniowania, więc każdy obraz graficzny, który prezentujemy, będzie niepoprawną prezentacją.
Teraz lekarze patrząc na promienie X szukają subtelnych zmian w odcieniach szarości. Dzięki logice komputerowej możemy zmieniać odcienie czerni i bieli na fałszywe kolory, aby lepiej różnicować. W ten sposób nowoczesne zdjęcie rentgenowskie i sonogram są wyświetlane w fałszywych kolorach. Inne dyscypliny nauki w dziedzinie obrazowania idą w tym samym kierunku. Obrazy w fałszywych kolorach wykonane z niewizualnych części widma są rutyną.
źródło
Pewnie. Kosmiczny Teleskop Hubble'a wykrywa widmo bliskie IR, widzialne i bliskie UV. Wszelkie obrazy, które widzisz z Hubble'a, które zawierają informacje poza widzialnym spektrum, są obrazami w fałszywych kolorach .
Podobnie obrazy z Chandra, która obserwuje widmo rentgenowskie, można wizualizować tylko poprzez mapowanie jej „tonów” na widmo światła widzialnego.
W domenie nie astronomicznej skanery fali milimetrowej na lotniskach mapują sygnały z zakresu milimetrowego do domeny wizualnej.
Na przykład kamery FLIR.
To pytanie jest zbyt szerokie ( zawsze istnieją ograniczenia technologiczne).
źródło
Niektóre powszechnie używane aparaty fotograficzne nagrywają poza widmem widzialnym, więc jest z tym pewne doświadczenie. Leica M8 była znana z nagrywania IR. Rozszerzony zakres miał zły wpływ na dokładność kolorów i Leica musiała dać klientom filtry podczerwieni / cięcia dla swoich soczewek, aby to rozwiązać.
Rozszerzenie na UV jest trudne, ponieważ szkło w soczewkach blokuje promieniowanie UV.
Efekt uchwycenia szerszego spektrum naraz - przynajmniej tak jak w przypadku Leiki lub zmodyfikowanych kamer - nie jest szczególnie przyjemny, interesujący ani przydatny. Nawet jeśli uda ci się przetworzyć dane w jakiś interesujący sposób, dostaniesz jedną sztuczkę.
Są firmy, które usuną filtry z czujnika, jeśli jesteś zainteresowany. Możesz użyć filtrów kolorów o różnych widmach na wierzchu obiektywu, stworzyć trzy ekspozycje z różnymi filtrami i połączyć je w oprogramowaniu.
źródło
Matryca Bayera nie mapuje się na żaden kolor. Obraz jest interpolowany w celu uzyskania obrazu w pełnym kolorze na piksel, przy czym każdy piksel ma składową R, G i B. Te komponenty RGB można odwzorować na przestrzeń kolorów, taką jak sRGB lub adobeRGB, ale tryb RGB z natury nie ma przestrzeni kolorów.
Pytanie to, co stanowi szczegół. Jeśli celem jest wykonanie spektroskopii, nie należy używać zwykłej kamery, ale zamiast tego spektrometru lub spektrofotometru.
Każdy dodany filtr zmniejsza ogólną wydajność czujnika. Kamera RGB ma efektywność netto około 20 ~ 25% w stosunku do widzialnego pasma. Kamera UV-VIS-IR wykorzystująca 5 filtrów będzie miała wydajność zbliżoną do 10% w tym paśmie, a pasma UV i IR mają na początku mniej światła, więc będą potrzebowały znacznie większego wzmocnienia i będą głośniejsze.
Tak, nazywane są spektrofotometrami. W rzeczywistości zostało zrobione coś bardzo podobnego do tego, o czym mówisz. MastCAM w łaziku z ciekawością wykorzystuje specjalny układ Bayera, który wydziela znaczące światło podczerwone w połączeniu z 8-kołowym filtrem. Kamera może następnie wykonywać wąskopasmowe obrazowanie w pełnej rozdzielczości w podczerwieni krótkofalowej przy 6 różnych długościach fal.
Czy odbywa się to powszechnie, nie. Poza badaniami naukowymi ten typ konfiguracji sprawia, że bardzo nieporęczna kamera wymaga bardziej złożonego schematu metadanych. Są to dwie rzeczy, które są zmorą produktów konsumenckich.
źródło
Zauważ, że możesz użyć 3 dowolnych cząstek pierwotnych w widmie widzialnym, a wygenerujesz dokładny obraz (w granicach urządzeń rejestrujących i wyświetlających), o ile urządzenie rejestrujące i wyświetlające używają tych samych sygnałów podstawowych. Na przykład większość aparatów wydanych w ciągu ostatnich 10 lat ma czujniki, które rejestrują kolory pasujące do przestrzeni kolorów sRGB. Większość monitorów wyświetla się w przestrzeni kolorów sRGB (lub w jej pobliżu).
Nowsze kamery (obecnie wysokiej klasy, ale bez wątpienia wkrótce kamery konsumenckie) są w stanie uchwycić w szerszej przestrzeni kolorów zwanej DCI-P3. Nadal jest uważany za przestrzeń kolorów „RGB”, ponieważ uchwycone podstawowe są tym, co subiektywnie nazwalibyśmy „czerwonym”, „zielonym” i „niebieskim”, chociaż różnią się od podstawowych sRGB. Kilka wyświetlaczy LCD w najnowszych komputerach i telefonach komórkowych może teraz wyświetlać się również w przestrzeni kolorów DCI-P3. Urządzenia te rejestrują i wyświetlają znacznie szerszą gamę kolorów.
Jeśli chcesz zobaczyć, jak wyglądałoby przechwytywanie za pomocą jednego zestawu kolorów podstawowych i wyświetlanie w innym zestawie, możesz użyć filtra dostosowującego odcienie w swoim ulubionym edytorze obrazów. Obracanie odcienia pokaże równowartość przechwytywania za pomocą jednego zestawu kolorów podstawowych i wyświetlania za pomocą innego.
źródło
Jest:
Zasadniczo zbadano całe spektrum.
Ale wszystkie te mają różne systemy. Należy wziąć pod uwagę związek między długością fali a materią, atmosferą i bardziej konkretnie czujnikiem.
Spójrz, dlaczego widzimy „światło widzialne” Jeśli w szczególności długość fali nie przechodzi przez górną atmosferę, nie byłoby źródła światła, czyli światła słonecznego: https://en.wikipedia.org/wiki/File:Atmospheric_electromagnetic_opacity.svg drugim światłem przechodzącym jest radio, ale jest ono zbyt długie, które przechodzi przez nasze ciało.
Różnice długości fal są wykładnicze, więc tak, istnieją pewne problemy technologiczne związane z tym, na jakie fale elektromagnetyczne coś może wpływać, naszymi oczami lub instrumentami.
Podczerwień
Prostym pytaniem jest to, że możesz mieć film w podczerwieni i filtry do eksperymentowania, i możesz dostosować swój dlsr: https://photo.stackexchange.com/search?q=infrared
Istnieje kilka kamer noktowizyjnych i obiektywów.
Możesz kupić kamerę termowizyjną dalekiej podczerwieni, ale nie jest to produkt „konsumencki”, ponieważ jest drogi.
UV Wątpię, aby strzelanie do ludzi było bardziej enrgetyczne. Pamiętaj, że niektóre długie ekspozycje na światło UV mogą poparzyć, przede wszystkim siatkówka. więc potrzebujesz środowiska o słabym świetle, aby użyć UV o niskiej mocy. Obrazy „Blacklight” są odbiciami wywołanymi promieniowaniem UV, więc możesz to zrobić. https://en.wikipedia.org/wiki/Ultraviolet_photography
Jeśli nie możesz tego zobaczyć, jest to interpretacja . Gogle noktowizyjne są normalnie zielone, ponieważ nasze oczy są bardziej wrażliwe na zieleń, a kiedy żołnierz zdejmuje soczewkę, jego oczy łatwiej dostosowują się do ciemności. Jeśli masz czarno-biały obraz, czas na dostosowanie się oka do ciemności byłby znacznie dłuższy.
„Trójwymiarowość” kolorów „pierwotnych” wynika tylko ze sposobu, w jaki nasz mózg postrzega światło. Magenta nie ma w widocznym świetle, nie ma z nią związanej długości fali. Nasz mózg interpretuje to jako magenta.
W rzeczywistości spektrum fal elektromagnetycznych jest jednowymiarowe. Jest dwuwymiarowy, jeśli wykorzystujemy intensywność jako drugi wymiar do tworzenia obrazów.
Możemy mieć do strech widma. Albo to widzimy, albo nie. Czarno-biały obraz jest tak naprawdę rekompresją długości fali, której nie widzimy w ograniczonym widmie, które widzimy.
Oczywiście, że możesz zrobić maszynę cyfrową Xray do wyświetlania kolorów magenta, miałem stary monitor CTR, który zrobił to sam. Jest to jednak aspekt bardziej psychologiczny niż techniczny.
Ale w niektórych dziedzinach, takich jak zdjęcia termiczne, spektrum kolorów jest używane do wykrywania różnic temperatur, więc jest to obecnie wykonywane.
Jeśli chodzi o to, dlaczego nie zmieniać widma światła widzialnego, czy nie, myślę, że jest to całkowicie artystyczna interpretacja, więc możesz robić, co chcesz.
Ale
Z drugiej strony interesujący byłby symulator Tetrachromacy kilku osób, które go mają, podobnie jak w przypadku symulatorów ślepoty barw takich jak: http://www.color-blindness.com/coblis-color-blindness- symulator/
źródło
Czytam naprawdę interesującą książkę Margaret Livingstone zatytułowaną „Wizja i sztuka, biologia widzenia”. Jeszcze z tym nie skończyłem, ale rozdziały, które przeczytałem do tej pory, mówią o tym, jak oko postrzega kolor, w jaki sposób kolory są mieszane (zarówno światło, jak i pigmenty) oraz jakie są ograniczenia i dlaczego. Może pomóc odpowiedzieć na niektóre pytania dotyczące działania oka i ograniczeń dotyczących możliwości fotografowania.
źródło