Jakie są podstawowe zasady działania aparatu świetlnego Lytro?

22

lytro.com opisuje swoją nową kamerę pola świetlnego jako zdolną do przechwytywania całego pola świetlnego, a nie tylko jednej płaszczyzny światła, tym samym umożliwiając całkowicie nowy zestaw możliwości przetwarzania końcowego, w tym regulację ostrości i perspektywy.

Jaki czujnik może „wychwycić każdą wiązkę światła we wszystkich kierunkach w każdym punkcie czasu”? W jaki sposób informacje zasadniczo nieskończone są kodowane i przetwarzane? Czy w tradycyjnym sensie byłby obiektyw z przodu?

Oto rozprawa wynalazcy: http://www.lytro.com/renng-thesis.pdf

Czy ktoś może to sprowadzić dla tych, którzy znają tradycyjne technologie?

Chris Noe
źródło
2
wow, prasa tego faceta właśnie się dziś pali ...
rfusca
1
Mam nadzieję, że to coś więcej niż „jednorożce”.
Craig Walker
Około roku temu widziałem kamerę w akcji, NIESAMOWITE NIESAMOWITE ... nie dotyczy jednorożców.
cabbey
Nie rozumiem, jak ktokolwiek będzie w stanie odpowiedzieć na to pytanie, oprócz 45-osobowego zespołu pracującego w firmie.
dpollitt
1
@dpollitt teza mówi wszystko ... brzmi, jakby po prostu próbował to zrozumieć w tradycyjny sposób.
cabbey

Odpowiedzi:

15

Łatwy sposób na myślenie o tym jest następujący:

Wyobraź sobie, że zamiast jednej kamery masz siatkę 100 kamer w układzie 10x10. Kiedy oddajesz strzał, każdy z nich strzela w tym samym czasie. Każdy z nich ma nieco inny pogląd na to, co robisz. Istnieje kilka modeli matematycznych, których można użyć do rodzaju „inżynierii wstecznej” obrazu i przebudowywania go na różne sposoby. Właśnie o to chodzi, tyle że zamiast 100 kamer masz tysiące i wszystkie są utworzone przez szereg soczewek tuż nad płaszczyzną czujnika. Obraz wychodzący z matrycy aparatu składa się z kręgu częściowych obrazów, z których każdy nieznacznie różni się od sąsiedniego. Następnie używają matematyki, aby ponownie złożyć pojedynczy obraz z tych częściowych obrazów.

cabbey
źródło
To dobre podsumowanie ich wyjaśnienia dotyczącego „efektu”. Mam nadzieję na podsumowanie wdrożenia. Co wyczuwa czujnik, wszystkie wiązki / kierunki / momenty? W jaki sposób taki nieskończony zestaw atrybutów byłby kodowany cyfrowo?
Chris Noe,
W jego tezie jest kilka przykładów tego, co rejestruje rzeczywisty czujnik. Patrz rys. 3.3, 3.5, 3.7, 4.11-B itd.
cabbey
11

Oto moja pigułka po przeczytaniu bardzo przystępnego artykułu Ren Ng.

W tradycyjnym aparacie cyfrowym przychodzące światło jest skupiane na płaszczyźnie, czujniku, który mierzy jasność każdej fotoczułej komórki, piksela. Daje to końcowy obraz w tym sensie, że wynikowy raster wartości można wykreślić jako spójny obraz.

Kamera pola świetlnego ( plenoptic ) wykorzystuje ten sam rodzaj czujnika, ale umieszcza przed nim matrycę mikrosoczewek. Staje się to płaszczyzną obrazowania i określa rozdzielczość w pikselach przetworzonych obrazów, a nie czujnik jako całość. Każdy mikrosoczewek przechwytuje promienie świetlne dla różnych kierunków, wytwarzając „obraz pod aperturą”, który jest rejestrowany na grupie komórek czujnika. Pomocny schemat z pracy:

wprowadź opis zdjęcia tutaj

Konwencjonalne zdjęcie, które by powstało, można uzyskać przez zsumowanie szeregu obrazów subpertury dla każdego piksela. Ale chodzi o to, że pochodne stają się możliwe dzięki zastosowaniu obliczeń ray tracingu. (Leonardo de Vinci byłby zazdrosny.) W szczególności można manipulować głębią ostrości, tym samym oddzielając tradycyjną przysłonę / kajdany głębi ostrości. Możliwa jest również korekcja aberracji obiektywu.

W artykule scharakteryzowano, że można zarejestrować „całkowite” pole świetlne i „wszystkie” kierunki światła, podczas gdy w rzeczywistości byłoby to ograniczone liczbą mikrosoczewek, nieruchomości czujnika pod każdym z nich itp. Oczywiście jak wszystko inne inaczej, jeśli można na nią rzucić wystarczającą rozdzielczość, można powiedzieć „praktycznie wszystko”. Więc przypuszczam, że kamery Plenoptic reklamowałyby liczbę pikseli ORAZ liczbę promieni.

Chris Noe
źródło