Przepraszam, jeśli tytuł pytania jest mylący, nie znam najlepszego sposobu na sformułowanie tego, więc możesz go zmienić, jeśli możesz wymyślić coś lepszego. Nauczyłem się, że elektroniczne migawki mogą uchwycić obraz naraz zamiast korzystać z mechanicznej migawki, która korzysta z kurtyny. To dało mi pomysł. Załóżmy, że dane zdjęcie zostanie odpowiednio naświetlone w 1 / 200s, ale zakres dynamiczny obrazu jest zdecydowanie zbyt szeroki, aby mógł go uchwycić aparat.
Dlaczego nie można aparatu z elektroniczną migawką w sposób ciągły rejestrować i rejestrować dane świetlne z obrazu przez cały czas otwarcia migawki zamiast tylko gromadzić dane świetlne i ostatecznie przechowywać je jako jedno zdjęcie? To tak, jakby pokój zaczynał się od ciemności i stopniowo zwiększał jasność. Aparat byłby wówczas w stanie uchwycić cały zakres dynamiczny obrazu i skompilować dane w obraz z całym zakresem dynamicznym na jednym zdjęciu zamiast konieczności wielokrotnej ekspozycji dla HDR. Pozwoliłoby to także na regulację ekspozycji na stanowiskach obróbki bez jakiejkolwiek utraty danych, ponieważ aparat przechowywane dane światło z całej gamy ekspozycji. Dlaczego ten pomysł nie jest obecnie wdrażany?
Odpowiedzi:
Dokonano tego za pomocą promieni rentgenowskich.
TimePix to 256x256 detektor. Ma trzy tryby pracy :
Ta technologia została dostosowana do obrazowania optycznego . Tryb TOT najlepiej opisać jako działanie ADC Wilkinsona - odczyt odpowiada całkowitemu czasowi, w którym zakumulowany ładunek jest na poziomie progowym lub powyżej niego. Odjęcie tego od czasu migawki informuje, ile czasu zajęło nasycenie tego piksela. Dlatego dla każdego piksela możesz narysować linię od 0 do nasycenia w czasie od otwarcia migawki. Możesz więc wybrać dowolny czas wirtualnej migawki, jaki chcesz (pod warunkiem, że wszystkie piksele są nasycone) i użyć linii każdego piksela do oszacowania skumulowanego światła do tego czasu wirtualnej migawki.
Bardziej bezpośrednią realizację swojego pomysłu zostało zrobione w CMOS. Każdy piksel rejestruje i zgłasza swój czas do osiągnięcia ładunku progowego. (Zamiast ADC pikseli, które nie nasycają się w czasie, próg jest zamiatany, więc każdy piksel ostatecznie przekracza odpowiednio obniżony próg).
Pamiętam, że Pixim Digital Pixel System ( przykład ) również to zrobił, używając ADC na piksel i nieniszcząco odczytując wielokrotnie nagromadzony ładunek (aby uzyskać nachylenie akumulacji). Ale nie mogę znaleźć aktualnych dowodów potwierdzających.
źródło
Brakuje oczywistych problemów z tym pomysłem.
Chcesz „stale” przechwytywać dane świetlne, ale to już jest zrobione.
Najwyraźniej masz na myśli dostęp do serii zdjęć dostępnych po ekspozycji, z których każda jest eksponowana od początku do czasów postępujących wraz z całą ekspozycją. Późniejsze obrazy miałyby więcej szczegółów w obszarach cienia, ale mogą mieć przycięte jasne obszary. Oprogramowanie aparatu może następnie złożyć pojedynczy obraz o większym zakresie dynamicznym niż jakikolwiek pojedynczy obraz.
Dwa rażące problemy z tym to:
Technologia nie jest obecnie dostępna, aby to zrobić.
źródło
Sugerujesz „Lub za każdym razem, gdy foton uderza w piksel czujnika, nadaj mu znacznik czasu” - byłaby to ogromna ilość danych. Szybkie wyszukiwanie sugeruje, że każdy piksel - lub sensel - w aparacie cyfrowym nasyca się gdzieś pomiędzy 20 000 a 100 000 fotonów. Powiedzmy, że jesteśmy zadowoleni z 12-megapikselowego aparatu i jesteśmy w porządku z niższą stroną czułości tutaj. To wciąż jedna czwarta bilionów punktów danych. Jeśli mówimy o aparacie o rozdzielczości 50 megapikseli z dużym zakresem dynamicznym, może pięć bilionów . Nawet jeśli sprawimy, że nasze znaczniki czasu będą mieć po prostu dwa bajty każdy (jeden bajt daje tylko 256 wartości, więc jest mało prawdopodobne, aby było to warte zachodu), to ... dużo danych dla jednego obrazu. Mam na myśli dosłownie terabajty.
W przypadku dzisiejszej technologii nie jest to obecnie możliwe, jeśli chodzi o przepływ danych, nie mówiąc już o umieszczeniu go gdzieś .
źródło
To, o co prosisz, ciągłe próbkowanie światła, może być teoretycznie możliwe, ale praktycznie zbyt drogie. Może być możliwe przybliżenie go przy bardzo wysokiej częstotliwości próbkowania. Można to zrobić za pomocą kamery wideo o wysokiej prędkości (w zwolnionym tempie) z bardzo dużą liczbą klatek na sekundę. Następnie dane wyjściowe mogą zostać przetworzone w celu utworzenia obrazu.
Szybkie wyszukiwanie pokazuje tyle jak ten Upiór
Te rzeczy działają dzięki szybkim czujnikom i możliwości przenoszenia i przechowywania ogromnych ilości danych. Próba ciągłego próbkowania lub wystarczająco szybkiego próbkowania, aby wyglądało na ciągłe, powiększa ten problem i koszty.
źródło
Elektroniczna migawka jest już krokiem naprzód. Jesteśmy teraz w stanie wziąć wszystkie piksele jednocześnie, a następnie powiedzieć im, aby przestały zbierać (tj. Próbkować każdy piksel) i mierzyć informacje dla każdego koloru każdego piksela seryjnie, przechwytując dane o zdjęciu, które zostało wykonane jednocześnie.
Nie zawsze tak było.
Nadal musimy zrobić kilka hacków dla scenerii HDR, jednak nie jest to takie złe, jak kiedyś, znowu ze względu na postęp w technologii czujników. Mamy teraz większą czułość matrycy i zakres dynamiczny, więc zdjęcie, które kiedyś wymagało zdjęcia z dwoma nawiasami i przetwarzania końcowego, można teraz zarejestrować w aparacie, ponieważ czujnik może mierzyć zarówno wysokie, jak i niskie wartości niektórych zdjęć. W rzeczywistości czujniki stały się tak dobre, że rzadko można spotkać się z sytuacją, która wymaga więcej niż trzech ujęć w celu uzyskania pełnego zakresu dynamicznego. Starsze czujniki mogły wymagać 5 lub więcej zdjęć z bracketingiem.
Twój pomysł, jak rozumiem, wymaga ciągłego pomiaru na podstawie jednego piksela.
Chociaż jest to świetny pomysł, wdrożenie pozostaje problemem. Kamery są zaprojektowane do szeregowego przesyłania danych z czujnika. Procesor nie ma linii dla każdego piksela, zamiast tego czujnik obrazu ma logikę, która pozwala procesorowi odczytać wartość piksela lub wielu pikseli jednocześnie, ale nie wszystkie jednocześnie. Musi iterować przez wszystkie piksele, a to wymaga czasu.
Nie możemy tego przezwyciężyć, ponieważ między czujnikiem a procesorem nie będziemy mieć 50 milionów przewodów. Możemy zintegrować więcej przetwarzania z czujnikiem, ale czujnik specjalizuje się w robieniu jednej rzeczy i robieniu tego dobrze. Dodanie obwodów cyfrowych spowodowałoby więcej szumów i prawdopodobnie mniejszych pikseli, nawet gdyby zastosowano układy 3D. Ponadto procesy zastosowane do wytworzenia dobrego krzemu światłoczułego są inne niż procesy zastosowane do stworzenia dobrego cyfrowego krzemu o niskiej mocy i szybkiej obróbce.
Wszystkie te rzeczy są przeszkodą, jednak w przypadku niektórych specjalistycznych aplikacji są już używane. Zwykle w dziedzinie nauki i przemysłu.
Ale to nie znaczy, że jesteśmy pozostawieni na lodzie. W miarę poprawy czujników, szczególnie w zakresie dynamicznym, okaże się, że w końcu dostaniesz „HDR” w aparacie bez wsporników - czujniki będą po prostu wystarczająco czułe, aby uzyskać pełny zakres, a obiektywy i korpus aparatu będą dobre wystarczająco, aby zapobiec spadowi, odbiciu i innym problemom, które uniemożliwiają czujnikowi osiągnięcie pełnej zdolności.
Chociaż pomysł nie jest zły, jest skomplikowany, drogi, a my wciąż mamy miejsce na rozwój w innych obszarach, które można poprawić, więc Twoja metoda może nawet nie stać się konieczna.
źródło
Prawdziwą odpowiedzią jest cena. Jeśli chcesz zapłacić 10–100 razy więcej za aparat, możesz zdobyć naprawdę wymyślne czujniki.
Pożądany wynik, który opisujesz, to wyższy zakres dynamiczny dla każdego piksela. Można to zrobić na kilka sposobów. Oczywistym sposobem jest uzyskanie lepszego czujnika ADC i CMOS, ale to kosztuje i nie jest zgodne z tym, co myślisz. Kolejnym podejściem byłoby odsysanie ładunku w procesie ciągłym , analogicznie. Pozwoliłoby to uzyskać ciągłą funkcję opisującą liczbę fotonów trafiających w piksel. Jednak tego rodzaju sprzęt analogowy jest niezwykle trudny. W twoim aparacie wszystkie dane pikseli są przeszukiwane przez raczej niewielką liczbę ADC. Piękno naszych czujników polega na tym, jak mogą to zrobić, uzyskując tańszy sprzęt setki razy. Aby to robić w sposób ciągły, każdy piksel musiałby mieć nadzwyczajną ilość dostrojonego sprzętu analogowego.
Co prowadzi nas do podejścia do próbkowania cyfrowego. Wspomniałeś o pomiarze przechwytywania danych co 1/1000 sekundy, co sugeruje mi, że tak naprawdę nie myślałeś o procesie ciągłym , a raczej o procesie próbkowania , w którym otrzymujesz wiele punktów danych dla cienkich przedziałów czasu i łączysz je razem. Jak wspomniano w innych odpowiedziach, HDR + na niektórych telefonach właśnie to robi. Szybko wykonuje kilka zdjęć i łączy je w celu uzyskania efektu HDR. Aby to zrobić, mają oczywiście znacznie większą przepustowość ADC niż potrzebujesz dla pojedynczego obrazu, ale nie potrzebowaliby tyle, ile potrzeba do ciągłego traktowania każdego piksela.
Z tego dźwięku chciałbyś, aby każdy piksel sam tym razem samplował. Aby to zrobić, najpierw musielibyśmy wypróbować 3d układ scalony. Nie chcesz, aby jakikolwiek sprzęt na każdym pikselu zajmował miejsce na powierzchni czujnika, lub będziesz miał problemy z posiadaniem zbyt małej liczby pikseli lub utratą wiązki światła, gdy pada na nieczujnikowe części układu scalonego. Jedynym sposobem na osiągnięcie tego jest zbudowanie układu 3D. To naprawdę technologia przyszłości. Jesteśmy począwszy zbadać, jak to zrobić, ale to nie jest łatwe. Jeśli masz setki tysięcy dolarów na swój aparat, możemy to zrobić.
W końcu wygląda na to, że chcesz, aby wyjściem każdego piksela była „liczba zmiennoprzecinkowa” zamiast „liczba całkowita”. Oznacza to, że każdy piksel miałby wartość liczby trafionych fotonów oraz wykładnik, który w zasadzie mówi, przez ile należy pomnożyć tę wartość, aby uzyskać rzeczywistą liczbę fotonów. Gdy piksel jest odsłonięty, próbkuje z bardzo dużą częstotliwością (być może 5000 Hz), a jeśli liczba fotonów staje się zbyt duża, wybiera większy wykładnik.
Teraz prawdziwe pytanie brzmi: ile korzyści z tego czerpiesz? Pamiętaj, że podejście HDR + to obecna technologia dla telefonów komórkowych za setki dolarów. Mówisz o zastosowaniu najnowocześniejszej technologii o znacznie bardziej wymagających tolerancjach niż jakikolwiek aparat tam dostępny. To będzie kosztować. Co ci to kupiło? Co tak naprawdę kupiły te jednopikselowe urządzenia w trakcie migawki, których nie oferuje tania technologia CMOS, którą Google wypycha? Odpowiedź to niewiele. Może być kilka małych przypadków narożnych, w których jest to preferowane podejście, ale z ceną znacznie wyższą niż istniejąca technologia, jest to komercyjny nonstarter.
źródło
Realizowane jest coś bardzo podobnego. Nadal działa według odrębnych ramek, ponieważ istnieją znaczące zalety podejścia cyfrowego zamiast analogowego. Ale istnieje podejście z rozdzielczością czasu w piko sekundach.
https://www.ted.com/talks/ramesh_raskar_a_camera_that_takes_one_trillion_frames_per_second
źródło
To, co myślę, że naprawdę proponujesz tutaj, to opisanie obrazu nie w kategoriach „ile światła zebrano podczas całej ekspozycji?”. ale raczej „jak jasna była scena w każdym punkcie?” To świetna myśl i mogę wymyślić kilka sposobów, aby to zrobić, ale ich wspólną cechą jest to, że zwiększają złożoność czujnika.
Producenci aparatów od dawna pracują nad tym, aby zapewnić więcej pikseli, i sądzę, że utrzymanie prostej struktury każdego pojedynczego piksela pomaga w tym wysiłku. Teraz, gdy lustrzanki na ogół mają czujniki o wielkości od 20 do 50 milionów pikseli, być może zobaczymy, jak działają zamiast tego na tworzeniu lepszych pikseli. Widzimy to już w pewien sposób - jednym z przykładów jest autofocus z dwoma pikselami. I z pewnością istnieją firmy pracujące nad czujnikami budowlanymi, które zapewniają większy zakres dynamiki , mniej hałasu itp.
Krótko mówiąc, myślę, że prawdopodobnie zobaczymy coś podobnego do tego, co zaproponowałeś w przyszłości, nawet jeśli nie zadziała to w ten sposób, a powodem, dla którego nas jeszcze nie ma, jest prawdopodobnie to, że inne cele, takie jak zwiększona gęstość pikseli, były w przeszłości wyższymi priorytetami.
źródło
Można to zrobić w nieco inny sposób. Zamiast jednego zdjęcia wykonujesz wiele klatek o różnych czasach ekspozycji. Następnie układasz zdjęcia w stos, aby uzyskać średnią w zależności od algorytmu stosowanego do układania w stos.
Na przykład przy ostatnim całkowitym zaćmieniu Słońca ilość korony widocznej gołym okiem była znacznie większa niż to, co pokazałby czas ekspozycji kamery. Jest tak, ponieważ oko ma logarytmiczny zakres dynamiczny, podczas gdy oko ma liniowy zakres dynamiczny. Dzięki stosowi różnych czasów ekspozycji można znacznie lepiej przybliżyć na zdjęciu to, co obserwatorzy widzieli na własne oczy.
źródło
Tryby Live Bulb i Live Time firmy Olympus idą w kierunku, który opisujesz.
Z podręcznika OM-D E-M5 :
Oto wideo . Pamiętaj, że na końcu dostajesz tylko jedną ekspozycję, mimo że podczas procesu widzisz wiele z nich. Piksele czujników dbają tylko o całkowitą liczbę fotonów, które otrzymali podczas ekspozycji, nie wiedzą, kiedy ani w jakiej kolejności te fotony wylądowały na czujniku.
źródło
Masz dobry pomysł. Sony zasadniczo robi coś z tym efektem w RX100M5 i innych aparatach wyposażonych w funkcję, którą nazywają Optymalizatorem D-Range - analizując scenę oraz dostosowując i kompensując problemy.
źródło: https://sony-paa-pa-en-web--paa.custhelp.com/app/answers/detail/a_id/26259/~/what-is-the-function-of-d-range-optimizer % 3F
źródło