Na początek odpowiedź brzmi: „Służy do robienia zdjęć!” Wytłumaczę trochę więcej za chwilę, a jego użycie jest w tej chwili dość niszowe.
Korzenie xvYCC
O ile mogę powiedzieć, kodowanie xvYCC jest nowoczesnym ulepszeniem kodowania YCC, lub w jego długiej formie, Y'CbCr (lub YCbCr, który jest nieco inny.) Kodowanie YCC jest częścią rodziny luminancji / chrominancji przestrzenie kolorów, które są w dużej mierze zakorzenione w przestrzeni kolorów L a b * (w skrócie „Lab”) sformułowanej przez CIE w latach 30. XX wieku. Lab przestrzeń barw jest luminancji / chrominancji przestrzeni kolorów, gdzie luminancja koloru jest kodowany w L *, wartość, a dwie osie chrominancji koloru są kodowane w a * i b * wartości. Wartość a * koduje połowę chrominancji wzdłuż osi zielony / magenta , podczas gdy wartość b * koduje drugą połowę chrominancji wzdłuż niebieskiego / żółtegooś. Te dwie kolorowe osie zostały wybrane do naśladowania i reprezentują czterokolorową pierwotną wrażliwość ludzkiego oka, które również leżą wzdłuż pary osi czerwony / zielony i niebiesko-żółty (chociaż prawdziwy wzrok ludzki wymaga podwójnej krzywej czerwonej, z mniejszy pik występujący pośrodku niebieskiej krzywej, co w rzeczywistości oznacza, że ludzkie oko jest bezpośrednio wrażliwe na magenta, a nie czerwony ... stąd oś zielony / magenta w Lab.)
Kodowanie YUV
Y'CbCr jest prawdopodobnie najbardziej rozpoznawalny w postaci kodowania wideo YUV. Kodowanie YUV zostało specjalnie zaprojektowane w celu zmniejszenia ilości miejsca potrzebnego do zakodowania koloru do transmisji wideo, w czasach, gdy przepustowość była dość rzadkim towarem. Przesyłanie informacji o kolorze jako tryplety RGB jest marnotrawstwem, ponieważ tryplety R, G, B kodują kolor z dużą ilością redundancji: wszystkie trzy składniki obejmują informacje o luminancji, a także informacje o chrominancji, a luminancja jest ważona dla wszystkich trzech składników. YUV to nisko-przepustowa forma kodowania kolorów luminancji / chrominancji Y'CbCr, która nie ma marnotrawnej nadmiarowości kodowania RGB. YUV może zużywać w dowolnym miejscu od 2/3 do 1/4 szerokości pasma pełnego sygnału RGB w zależności od formatu podpróbkowania (a dodatkowo przechowywał pełny szczegół obrazu w odrębnym kanale luminancji Y, który wygodnie obsługiwał zarówno czarno-białe, jak i białe jako sygnały telewizji kolorowej z jednym formatem kodowania). Należy wyraźnie zauważyć, że YCC nie jest tak naprawdę przestrzenią kolorów, jest to raczej sposób kodowania informacji o kolorze RGB. Myślę, że dokładniejszym terminem byłobymodel kolorów niż przestrzeń kolorów, a termin model kolorów można zastosować zarówno do RGB, jak i YUV.
Z referencji połączonej w pierwotnym pytaniu wynika, że xvYCC jest ulepszoną formą kodowania Y'CbCr, która przechowuje zakodowane informacje o kolorze luminancji / chrominancji z większą liczbą bitów niż YUV. Zamiast kodować luminancję i chrominancję w przeplecionych zestawach 2-4 bitów, xvYCC koduje kolor we współczesnych 10-bitowych wartościach.
Użyj w fotografii
Co ciekawe, istnieje jedna marka lustrzanek cyfrowych, która wykorzystuje coś bardzo podobnego. W ostatnich latach Canon dodał do swoich aparatów nowy format RAW, zwany sRAW. Podczas gdy normalny obraz RAW zawiera bezpośredni zrzut danych z pełnego czujnika, sRAW nie jest w rzeczywistości prawdziwym formatem obrazu RAW. Format sRAW nie zawiera danych bayera, zawiera przetworzoną zawartość Y'CbCr interpolowaną z podstawowych danych pikseli bayer RGBG. Podobnie jak w telewizji, sRAW ma na celu wykorzystanie bardziej oryginalnych informacji o sygnale do kodowania danych luminancji i chrominancji w wysokiej precyzji (14-bpc), ale przy zachowaniu niewielkiego formatu obrazu. Obraz SRAW może mieć od 40 do 60% rozmiar obrazu RAW,
Zaletą sRAW jest to, że utrzymujesz wysoką dokładność postrzegania przez człowieka w kompaktowym formacie pliku i lepiej wykorzystujesz piksele RGBG na czujniku Bayera (zamiast nakładających się próbek, które wytwarzają nieprzyjemne mory kolorów, sRAW wykonuje nie nakładające się próbki chrominancji oraz pokrywające się / rozproszone próbkowanie luminancji.) Wadą jest to, że nie jest to prawdziwy format RAW, a informacja o kolorze jest interpolowana i próbkowana w dół z czujnika pełnego bayera. Jeśli nie potrzebujesz pełnej rozdzielczości RAW aparatu (tj. Zamierzasz drukować tylko w rozdzielczości 8x10 lub 11x16), to sRAW może być prawdziwą korzyścią, ponieważ może zaoszczędzić dużo miejsca (nawet 60% oszczędności w porównaniu z RAW ), zapisuje się szybciej niż nieprzetworzony, zapewniając większą liczbę klatek na sekundę, i lepiej wykorzystuje informacje o kolorze przechwycone przez czujnik niż RAW w pełnej rozdzielczości.
Masz rzeczy prawie całkowicie do tyłu. Nie jest to przypadek, w którym fotografia mogłaby / powinna „dogonić” wideo - wręcz przeciwnie, jest to kwestia wideo, które w końcu nadrobiło (z grubsza) możliwości, które TIFF (na przykład) zapewnia kilka dekad temu (lub tak).
Chociaż 20 lat temu na pewno nie widziałeś zbyt wielu 16-bitowych plików TIFF / kanałowych, możliwości już tam były, a 16 bitów / kanał (w TIFF i różnych innych formatach) jest teraz dość powszechny. Jednocześnie czuję się zobowiązany do wskazania, że większość ludzi uważa, że 8 bitów / kanał jest całkowicie wystarczających. Tylko dla jednego oczywistego przykładu, JPEG2000 obsługuje 16 bitów / kanał i lepszą kompresję niż oryginalny JPEG - ale nigdzie nie jest nawet bliski użycia oryginalnej specyfikacji JPEG.
Mniej więcej w tym samym czasie (właściwie trochę wcześniej) xvYCC pracował nad (z grubsza) nadrobieniem możliwości TIFF, opracowywany był format pliku openEXR. Obsługuje do 32 bitów / kanał. Chociaż nie jest jeszcze tak szeroko stosowany, spodziewam się, że będzie trochę podobny do TIFF i ostatecznie będzie szerszy.
Jeśli chodzi o przestrzeń kolorów, prawdą jest, że większa liczba bitów / piksel, jeśli xvYCC obsługuje większą gamę niż sRGB. Znowu jednak ProPhotoRGB (na przykład) zapewnia znacznie szerszą gamę - i (szczerze mówiąc) jest otwarte na pewne pytanie, czy istnieje potrzeba większej przestrzeni kolorów niż zapewnia ProPhotoRGB (około 13% kolorów, które możesz reprezentują w ProPhotoRGB są w zasadzie wyimaginowane - wykraczają poza to, co większość ludzi może dostrzec).
Zaletą xvYCC jest zmniejszenie ilości danych potrzebnych / wykorzystywanych do reprezentacji danego poziomu jakości. W szczególności w przypadku filmów HD minimalizacja przepustowości jest niezwykle ważna. Jednak w przypadku cyfrowych aparatów fotograficznych przepustowość jest znacznie mniejszą kwestią - choć na pewno byłoby miło, gdyby (na przykład) mógłbym zmieścić dwa razy więcej zdjęć na konkretnej wielkości karty CF, nie jest to szczególnie poważny problem. Stosunkowo niewiele osób korzysta z największej dostępnej pojemności kart CF, podobnie jak koszt kart CF nie stanowi istotnej części budżetu typowego fotografa.
Podsumowując: pod względem możliwości technicznych xvYCC zapewnia niewiele, co nie jest jeszcze dostępne.
Edycja: Prawdopodobnie powinienem dodać jeszcze jeden punkt. LCD zaczęły zastępować kineskopy dla większości monitorów w momencie, gdy aparaty cyfrowe zaczęły być szeroko stosowane - ale monitory LCD klasy konsumenckiej dopiero teraz zaczynają przekraczać (lub nawet zbliżać się) rozdzielczość kolorów 8 bitów / kanał. Trudno było się martwić o 10 lub 12 bitów / kanał, gdy typowy monitor mógł wyświetlać tylko około 6.
Jest też drobny szczegół, którego wielu ludzi po prostu nie obchodzi. W ich przypadku jakość fotografii mieści się w kryterium zaliczenia / niezaliczenia. Większość ludzi naprawdę prosi o to, aby zdjęcie było w miarę rozpoznawalne. Podejrzewam, że ludzie powoli zaczynają oczekiwać lepszych, ale po latach Walgreens (lub kogokolwiek) zmieniania rudowłosej córki w blondynkę (itp.) Trochę czasu zajmuje przyzwyczajenie się do idei, że kolor może być w ogóle dokładny.
Edycja: W rzeczywistości jest jeszcze jeden krok poza JPEG 2000: JPEG XR . Obsługuje do 32 bitów / kanał (zmiennoprzecinkowy) HDR. Określa również format pliku, który może zawierać wszystkie zwykłe dane typu EXIF / IPTC, osadzony profil kolorów itp. W związku z tym pytaniem, który zawiera wartość określającą, że plik powinien używać przestrzeni kolorów xvYCC (wartość
11
wTRANSFER_CHARACTERISTICS
elemencie składni, tabela A.9, na wypadek, gdyby kogokolwiek to obchodziło. Wydaje się, że nie jest to powszechnie używane (przynajmniej jeszcze), ale bezpośrednio obsługuje przestrzeń kolorów xvYCC dla zdjęć.źródło
Aby odpowiedzieć trochę na moje pytanie po kilku badaniach:
Chociaż nie jest to xvYCC, z powodów, które naprawdę wciąż wymykają mi (od kodowania JPEG używa podobnego starszego systemu), tam nie wydaje się być pewne zachęcające porusza się na „my może mieć ładne rzeczy!” z przodu, ponieważ wydaje się, że przynajmniej Microsoft dba o szerszą gamę kolorów i lepszą głębię bitów w fotografii - przynajmniej trochę.
Powoli, ale zdecydowanie dążyli do nowego standardu formatu plików o nazwie JPEG XR (wcześniej Windows Media Photo, a potem HD Photo). Jest to interesujący krok naprzód od „tradycyjnego” JPEG, oferujący lepszą kompresję przy tej samej jakości obrazu i (do tego stopnia dyskusji) większą obsługę głębi bitów.
JPEG 2000 też to robi, ale był to głównie flop, prawdopodobnie z powodu obaw związanych z patentami obejmującymi kompresję falkową, której używa, lub może coś innego. Ważna kwestia: Microsoft promuje teraz JPEG XR, oferując go w wielu swoich programach, w tym w Internet Explorerze 9 . Począwszy od 2009 r., Jest to oficjalny prawdziwy międzynarodowy standard i jest objęty „Społeczną obietnicą” firmy Microsoft, aby nie egzekwować swoich patentów w sposób wrogi wobec wdrożeń. To całkiem nieźle jak na przyszłość.
A wraz z tym, oni popychanie pomysł bardziej bitach na kanał jako „ wysokiej koloru ”, (co jest dla mnie śmieszne, bo w moim umyśle, że wciąż stara 16-bit-ciałami wszystkie -channels tryb karty graficznej). W ramach tego mają oni prawdopodobnie absurdalnie dużą „pośrednią” przestrzeń kolorów zwaną scRGB - przeczytaj tutaj dość szczegółowe jej opis - który jest obsługiwany przez JPEG XR, jeśli chcesz. Może nie być szczególnie przydatny jako końcowa przestrzeń kolorów, ponieważ większość jej kolorów znajduje się w „wyobrażonym” obszarze poza ludzką percepcją . Ale tak czy inaczej, chodzi o to, Microsoft jest integracja standardów wyższej głębi kolorów w systemie operacyjnym Windows, a mimo to fotografia jestczęść tego. Z nieco starego wywiadu CNET : „Absolutnie oczekuję, że obsługa scRGB w aparatach będzie towarzyszyć JPEG XR”.
Ale to było w 2007 roku. Cztery i pół roku później nadal nie widzimy kamer obsługujących JPEG XR, nie mówiąc już o fantazyjnych przestrzeniach kolorów o dużej głębi kolorów. Ale może jestem niecierpliwy. Jak zauważają inne odpowiedzi tutaj, sprzęt wyświetlający, który obsługuje szeroką gamę, właśnie staje się dostępny, obsługa najpopularniejszego systemu operacyjnego na świecie jest całkiem nowa, a pierwsza przeglądarka internetowa, która ją obsługuje, została wydana w tym miesiącu . Gdy to się pojawi i, miejmy nadzieję, zostanie w końcu wychwycone przez Chrome i Firefox , programy do przetwarzania obrazu (w tym konwertery RAW) uzyskają wsparcie, a następnie nastąpi bezpośrednie wyjście z kamer.
W przeciwnym razie wszystko upadnie. Czas pokaże. :)
źródło
Dodam kilka notatek wokół Jona ...
Przestrzeń kolorów ma znaczenie w kontekście aparatu tylko w przypadku plików JPEG, ponieważ w przypadku obrazów RAW przestrzeń kolorów stanowi wybór w fazie „rozwoju”. Niektóre aparaty (w niektórych półprofesjonalnych Pentaxach) pozwalają na wybór sRGB lub aRGB dla rozwoju JPEG, więc być może mogą dodać trzeci (lub czwarty dla ProPhoto). Z drugiej strony, dla większości profesjonalistów, przeciągną obraz w pożądanej przestrzeni kolorów dla zamierzonego nośnika wyjściowego.
Przeglądarka (i / lub urządzenie) musi także znać przestrzeń kolorów i być w stanie sobie z nią poradzić. Podczas gdy monitory szerokiej gamy stają się coraz bardziej powszechne, prawdopodobnie nadal stanowią ogromną mniejszość i nadrobienie zaległości zajmie trochę czasu. Cholera, znam sporo osób, które wciąż mają stare monitory CRT podłączone do całkiem przyzwoitych komputerów.
źródło
encoding
. To tak, jakby powiedzieć, że RGB jest przestrzenią kolorów ... nie jest, to po prostu sposób kodowania danych kolorów. Acolor space
określa wartości luminancji i chrominancji każdego koloru za pomocą zestawu mapowań kolorów podstawowych, klucza gamma, punktu bieli i czerni oraz niektórych krzywych.Przestrzeń kolorów xvYCC prawdopodobnie nie jest wykorzystywana do robienia zdjęć, ponieważ opracowano nowe standardy, które są ulepszeniem starszych standardów, i żaden producent nie chce inwestować w standard, który może stracić na wartości, zanim zostanie zastąpiony przez „następną największą rzecz” „. Nauczyli się od VHS vs. Beta.
Format wysokiej wydajności obrazu (HEIF), MPEG-H część 12, to format pliku określający format strukturalny, z którego można uzyskać formaty obrazu specyficzne dla kodeka.
HEIF zawiera również specyfikację enkapsulacji obrazów i sekwencji obrazów zgodnych z kodowaniem wideo o wysokiej wydajności (HEVC, ISO / IEC 23008-2 | ITU-T Rec. H.265 lub MPEG-H część 2).
Jest wspomniany w głównym przemówieniu Apple WWDC 2017: https://youtu.be/oaqHdULqet0?t=58m49s .
IPhone 7 firmy Apple i nowszy bierze to, co jest fotografowane i zapisuje je w formacie JPEG lub HEIF. Korzystanie z HEIF może zapewnić nieskazitelne rozwiązanie Camera to Storage to Display - kompletną infrastrukturę bez strat lub konwersji z wejścia na wyjście (przy użyciu HEIF bez kompresji).
Nie chodzi o to, że w pełni obsługują każdą funkcję (podobnie jak MPEG rzadko jest „w pełni obsługiwany”) lub że nie jest to łatwe dla nikogo innego, po prostu wydaje się, że są pierwszymi z kompletnym rozwiązaniem dla obrazów (dla wideo mieliśmy od lat podzbiór HEVC H.264, H.265, a ostatnio HikVision H.265 +).
Jeśli znasz inne aparaty obsługujące HEIF, skomentuj lub edytuj, dzięki.
Kamery, które rejestrują obrazy i filmy w szczególnie wysokim zakresie dynamicznym (czujnik ma ponad 16 bitów na kolor) często nie przetwarzają danych (tworzą skompresowany plik), ale zamiast tego wyprowadzają dane surowe bezpośrednio, na przykład: http: // www .jai.com / pl / products / at-200ge - ta kamera wysyła 24 do 30 bitów na piksel lub http://www.jai.com/en/products/at-140cl - że kamera wysyła 24 do 36 bitów na piksel .
Można uzyskać kamerę z przestrzenią kolorów CIE 1931 (i prawdopodobnie inne przestrzenie kolorów), jeśli poszukujesz bez końca lub chcesz zapłacić specjalnemu dostawcy aparatu fotograficznego za wykonanie dokładnie tego, czego chcesz, prawdopodobnie sam będziesz pisać oprogramowanie na przekonwertować z Przestrzeni kolorów na przestrzeń używaną przez inne Programy.
Oto link do kamery Condor3 CIE 1931 firmy Quest Innovations: http://www.quest-innovations.com/cameras/C3-CIE-285-USB .
Kamery z 3,4,5 lub 6 czujnikami mogą dzielić widmo na mniejsze części i dostarczać więcej bitów na kanał, dokładniej określając dokładny kolor i intensywność: http://www.optec.eu/en/telecamere_multicanale/telecamere_multicanale.asp .
3CCD lub 3MOS
4CCD lub 4MOS
5CCD lub 5MOS
Referencje:
https://developer.apple.com/videos/play/wwdc2017/503/
https://nokiatech.github.io/heif/technical.html
https://en.wikipedia.org/wiki/High_Efficiency_Image_File_Format
źródło