lytro.com opisuje swoją nową kamerę pola świetlnego jako zdolną do przechwytywania całego pola świetlnego, a nie tylko jednej płaszczyzny światła, tym samym umożliwiając całkowicie nowy zestaw możliwości przetwarzania końcowego, w tym regulację ostrości i perspektywy.
Jaki czujnik może „wychwycić każdą wiązkę światła we wszystkich kierunkach w każdym punkcie czasu”? W jaki sposób informacje zasadniczo nieskończone są kodowane i przetwarzane? Czy w tradycyjnym sensie byłby obiektyw z przodu?
Oto rozprawa wynalazcy: http://www.lytro.com/renng-thesis.pdf
Czy ktoś może to sprowadzić dla tych, którzy znają tradycyjne technologie?
Odpowiedzi:
Łatwy sposób na myślenie o tym jest następujący:
Wyobraź sobie, że zamiast jednej kamery masz siatkę 100 kamer w układzie 10x10. Kiedy oddajesz strzał, każdy z nich strzela w tym samym czasie. Każdy z nich ma nieco inny pogląd na to, co robisz. Istnieje kilka modeli matematycznych, których można użyć do rodzaju „inżynierii wstecznej” obrazu i przebudowywania go na różne sposoby. Właśnie o to chodzi, tyle że zamiast 100 kamer masz tysiące i wszystkie są utworzone przez szereg soczewek tuż nad płaszczyzną czujnika. Obraz wychodzący z matrycy aparatu składa się z kręgu częściowych obrazów, z których każdy nieznacznie różni się od sąsiedniego. Następnie używają matematyki, aby ponownie złożyć pojedynczy obraz z tych częściowych obrazów.
źródło
Oto moja pigułka po przeczytaniu bardzo przystępnego artykułu Ren Ng.
W tradycyjnym aparacie cyfrowym przychodzące światło jest skupiane na płaszczyźnie, czujniku, który mierzy jasność każdej fotoczułej komórki, piksela. Daje to końcowy obraz w tym sensie, że wynikowy raster wartości można wykreślić jako spójny obraz.
Kamera pola świetlnego ( plenoptic ) wykorzystuje ten sam rodzaj czujnika, ale umieszcza przed nim matrycę mikrosoczewek. Staje się to płaszczyzną obrazowania i określa rozdzielczość w pikselach przetworzonych obrazów, a nie czujnik jako całość. Każdy mikrosoczewek przechwytuje promienie świetlne dla różnych kierunków, wytwarzając „obraz pod aperturą”, który jest rejestrowany na grupie komórek czujnika. Pomocny schemat z pracy:
Konwencjonalne zdjęcie, które by powstało, można uzyskać przez zsumowanie szeregu obrazów subpertury dla każdego piksela. Ale chodzi o to, że pochodne stają się możliwe dzięki zastosowaniu obliczeń ray tracingu. (Leonardo de Vinci byłby zazdrosny.) W szczególności można manipulować głębią ostrości, tym samym oddzielając tradycyjną przysłonę / kajdany głębi ostrości. Możliwa jest również korekcja aberracji obiektywu.
W artykule scharakteryzowano, że można zarejestrować „całkowite” pole świetlne i „wszystkie” kierunki światła, podczas gdy w rzeczywistości byłoby to ograniczone liczbą mikrosoczewek, nieruchomości czujnika pod każdym z nich itp. Oczywiście jak wszystko inne inaczej, jeśli można na nią rzucić wystarczającą rozdzielczość, można powiedzieć „praktycznie wszystko”. Więc przypuszczam, że kamery Plenoptic reklamowałyby liczbę pikseli ORAZ liczbę promieni.
źródło