Jakie są wymagania dotyczące oprogramowania do wideo 3D?

1

Dzisiaj, szukając technicznych wyjaśnień na temat MPEG4 , zobaczyłem, że może on implementować renderowanie VRML dla wideo 3D. To sprawia, że ​​zastanawiam się nad wymaganiami „oprogramowania” do tworzenia lub oglądania wideo 3D. To znaczy, zakładając, że mam wszystkie wymagania sprzętowe (monitor 3D, VGA, kamera 3D itp.), Co powinienem zrobić, aby oglądać filmy 3D patrząc od strony „oprogramowania”? Czy muszę obsługiwać MPEG4 zamiast MPEG1 lub MPEG2 ze względu na obsługę VRML? Czy mogę potrzebować specjalnego kodeka 3D do otwierania i oglądania filmów 3D? Do dzisiaj uważałem, że wideo 3D jest zwykłym / zwykłym wideo złożonym z 2 „nakładających się warstw”.

PS: Po raz pierwszy badam techniczne wyjaśnienia / referencje dotyczące standardów MPEG i filmów 3D, każda pomoc lub podstawowe wyjaśnienia pomogą.

Diogo
źródło

Odpowiedzi:

3

Renderowanie 3D w widoku 2D i 2Eye 3D, gdzie każde oko otrzymuje jakiś inny obraz.

VRML to rysunki 3D Cad, zwykle wyświetlane w 2D.

Każdy istniejący kodek wideo jest zdolny do pewnego rodzaju 2Eye 3D. każdy kawałek obrazu lub programu wideo jest w stanie stworzyć edycję wyświetlającą przynajmniej Jakoś 2Eye 3D. Ponieważ istnieje wiele różnych metod wysyłania różnych informacji do każdego oka.

Najpierw musimy oddzielić 2 rzeczy „3D wyświetlane w 2D” http://en.wikipedia.org/wiki/3D_computer_graphics
From „2Eye 3D” lub Stereoscopic http://en.wikipedia.org/wiki/3D_television .

Następnie musimy określić „typ” stereoskopowego 3D, który jest pożądany lub pożądany lub wymagany, nawet najlepsze metody mają pewne duże problemy z wysyłaniem 2 osobnych zdjęć do każdego oka.

Anaglyphic:
Najprostsze i najgorsze 3D to Anaglyphic http://en.wikipedia.org/wiki/Anaglyph_image
Anaglyphic 3D, aby zdefiniować 2 różne obrazy, do 2 różnych zdjęć wykonuje się filtrowanie kolorów, następnie 2 zdjęcia są łączone , kolorowe filtry są umieszczone przed oczami. Filtry przed oczami próbują ponownie rozdzielić połączone zdjęcia, odfiltrowując kolor do oczu.

W przypadku wideo lub zdjęć nie ma nic innego w oprogramowaniu sprzętowym, a nawet w analogowych lub cyfrowych fotografiach, a nawet w standardowych zdjęciach do wyświetlania, renderowania, a nawet kodowania lub ponownego kodowania, zmiany rozmiaru lub wyświetlania anaglifu. Nie jest potrzebny żaden specjalny sprzęt, aby go wyświetlić, nie jest wymagane żadne specjalne oprogramowanie. Właściwy kolor filtruje oczy

Każdy pakiet wideo i program fotograficzny, który istnieje nawet ponad 10 lat temu, miał w sobie pewną zdolność do łączenia 2 zdjęć w celu wyświetlenia tą metodą, poprzez połączenie nieruchomych lub ruchomych obrazów. Każda ogromna specjalizacja 3D w oprogramowaniu do wykonywania anaglifów, po prostu ułatwia to.

Obok siebie i u góry na dole
2 różne zdjęcia w jednym, przeznaczone do wyświetlania dla 2 różnych oczu. Sprzęt był używany do wysyłania określonej 1/2 ruchomego obrazu do różnych oczu. Każda z metod oglądania 2Eye 3D może następnie wyświetlać 3D przy użyciu specjalnego sprzętu. http://www.best-3dtvs.com/what-is-side-by-side-3d/

Jedyną rzeczą szczególną w każdym oprogramowaniu, które tworzyłoby, współpracowało lub zmieniało ten typ, było po prostu utworzenie 2 stref, 2 różnych zdjęć dla każdego oka i utrzymanie ich jako oddzielnych stref.

Próbuję wskazać, że ponownie, nic nie było tak szczególne w formacie obrazu, typie obrazu, typie wideo lub kodeku. 1/2 całkowitej rozdzielczości (połowa obrazu) jest wysyłana do każdego oka, dlatego nie była wymagana 2x szybkość klatek.
Większość wysokiej klasy oprogramowania, zarówno wideo, jak i obrazu, może tworzyć i współpracować z 2 zdjęciami połączonymi w ten sposób. każde oprogramowanie, które było specjalizacją 3D, czyniło to znacznie łatwiejszym.

Specjalny sprzęt został użyty do podzielenia i wyświetlenia każdemu oku za pośrednictwem przeglądarki 2Eye http://en.wikipedia.org/wiki/Head-mounted_display lub wielu innych specjalnych metod separacji oka używanych obecnie.
Jak zaślepienie oczu lekkim zaworem LCD http://en.wikipedia.org/wiki/Alternate-frame_sequencing .


Analogowe sygnały wideo NTSC z przeplotem lub przeplotem oraz wciąż cyfrowe sygnały telewizyjne dla NTSC (Ameryka Północna i Japonia) używają Interlace. Interlace ma 2 różne obrazy przeplatane co drugą linię. http://en.wikipedia.org/wiki/Interlaced_video

Niektóre metody wyświetlania 3D w 2Eye wykorzystywały tę przeplatającą 2 cechy obrazów, a także metody blokowania oczu lub przeglądarki oka (HMD) , element sprzętowy wyświetlałby dwie oddzielne cechy pojedynczo, może być również wyświetlany na szybkim luminoforze przeplataj CRT za pomocą blokowania gałek ocznych, ale odporność na fosfor CRT sprawiła, że ​​separacja nie była tak dobra.

Ponownie, nie ma nic specjalnego w wideo z przeplotem, telewizja NTSC wyświetla sygnał z przeplotem od> 50 lat. Używali oddzielnego obrazu z przeplotem, aby wyświetlać ruch z postrzeganą prędkością 60 klatek na sekundę. Większość kodeków ma konstrukcję, która utrzymuje poprawność przeplotu. Jak można domyślić, zmiana rozmiaru nie jest tak łatwa.

Jest coś wyjątkowego w tworzeniu zdjęć, przeplataniu zdjęć i cyfrowych zdjęć. Każdy program fotograficzny, który mógłby łatwo utworzyć zdjęcie z przeplotem, byłby wyjątkowy.

Oprogramowanie, które dzieli przeplatane wideo na 2 osobne zdjęcia i składa je ponownie, istnieje od ponad 10 lat. Wszystkie zaawansowane programy wideo i narzędzia wideo były w stanie analizować, edytować i łatwo pracować z sygnałem z przeplotem. Dzięki darmowemu oprogramowaniu i 2 kamerom wszystkie powyższe metody mogą zostać utworzone na twoim komputerze, przy użyciu siły roboczej.

Do tej pory tak naprawdę nie mamy tutaj większych problemów z kodekami lub liczbą klatek na sekundę, 1/2 całego obrazu jest wyświetlane każdemu oku, zmniejszając efektywne całkowite rozdzielczości, szybkość przesyłania danych jest taka sama. Większość oprogramowania była w stanie z nim pracować, ponieważ przeplot oprogramowania wideo był już koniecznością.

Następnie zwiększa się poprzez przewracanie stron, zdjęcia w pełnej rozdzielczości z dużą liczbą klatek na sekundę. http://www.andrewwoods3d.com/3D-PC/

Alternatywne ramki
W przypadku renderowanego 3D dla gier i renderowania 3D typu cad w stereoskopie przez GPU, mogą renderować „przesuniętą ramkę” tej samej sceny 3D na komputerze i odwracać nową scenę dla każdego oka. Można zastosować alternatywne metody blokowania oczu (lub inny bardziej skomplikowany sprzęt). Synchronizacja V jest zwykle wymagana, aby była włączona, ponieważ jest to punkt przełączenia, więc wszelkie spowolnienia z renderowania synchronizacji V zostaną dodane do spowolnień po utworzeniu 2 klatek, po jednej dla każdego oka.

Ta metoda działa dobrze w przypadku renderów GPU i jest dobra w przypadku danych przesyłanych do monitorów nieskompresowanych pełnych danych.
Ale spróbujmy tej sztuczki ze zwykłymi kodekami kompresji wideo. Każda inna klatka filmu trafia do drugiego oka. Niewielkie przesunięcie obrazu oznacza zmianę większości pikseli. Ponieważ kompresja animacji w koderze jest zbudowana na poprzednich klatkach, nawet kompresja oparta na wektorze (ten blok pikseli tutaj przeniesiony) miałby naprawdę ciężki czas. Można zastosować całkowicie inną metodę kompresji, w której alternatywne ramki zostały zbudowane na alternatywnych ramkach. Normalne metody kompresji, gdy co druga klatka klapsa w jedną i drugą stronę między przesunięciami, wcale nie będą dobrze kompresować.

Poprzez układanie tych ramek obok siebie lub od góry do dołu, tak naprawdę nie ma 2 zupełnie różnych klatek na przemian, zamiast tego użyj tylko ramki o podwójnej rozdzielczości (zdjęcia w pełnym rozmiarze dla każdego oka). Kompresja animacji ułożonych 2 zdjęć jest podobna do tej z jednym obrazem, z tylko większą ilością danych. http://www.best-3dtvs.com/what-is-full-hd-3d-fhd3d/

Tak więc to, co działa dobrze w przypadku renderowania na żywo na komputerze za pomocą GPU, nie będzie działać dobrze w przypadku prostych kodeków kompresji wideo.
Wideo skompresowane przez ONZ nie miałoby tego problemu, ponieważ następna klatka nie jest budowana na poprzedniej klatce. Przykład nieskompresowanego 1920x1080x50 + fps wymaga tak dużej szybkości przesyłania danych, że przeciętny dysk twardy nie byłby w stanie nadążyć (Mój nalot ledwo nadąża za 1 całkowicie nieskompresowanym przy 30 Fps).

Z każdą inną klatką w pełnej rozdzielczości animacji wideo zmieniającą się z oka 2 oko, wszystko staje się DUŻO trudniejsze i żadne standardowe rzeczy wideo nie poradziłyby sobie z tym.

Tak więc, dopóki coś się nie zmieni, na każdej pojedynczej platformie komputerowej 3D mogą być zastosowane 2 metody, jedna najlepiej działająca w przypadku renderowania GPU (przerzucanie klatek) i jedna, która działa dobrze w przypadku wideo (oba zdjęcia w 1 klatce).

rev Psycogeek
źródło