Co to jest białe lub czarne „obcinanie” i jak tego uniknąć?

12

Powiedziano mi, że to zdjęcie ma „ białe wycinki ”?
Co to są i jakie źródła światła należy umieścić w jaki sposób, aby tego uniknąć?

Przykładowy obraz, który, jak mi powiedziano, został przycięty

Aquarius_Girl
źródło
4
Bardzo ładne zdjęcie.
Craig Walker,
2
Nawiasem mówiąc, ten obraz jest przykładem tego, że jeśli kiedykolwiek odwiedzisz film, zobaczysz, że aktorzy i statystki, którzy noszą „białe” ubrania, zwykle noszą coś, co wygląda nieco obskurnie - czysta biel, szczególnie jeśli zawiera „rozjaśniacze optyczne”, prawie na pewno zdmuchnie się, jeśli wszystko inne zostanie prawidłowo naświetlone.
To fajne zdjęcie. Jeśli nie widzisz strzyżenia, na które wskazują inni, wygląda na to, że biały kołnierzyk koszuli i być może jej kolczyk, a czarny obcięty we włosach w lewym górnym rogu.
niewyjaśnione
3
Bardziej powszechnym terminem na białe obcinanie jest „dmuchane pasemka”. Nie martwiłbym się aż tak bardzo, moim zdaniem jest nieproporcjonalnie zauważany w krytykach fotograficznych, aw wielu przypadkach może poprawić obraz. Zobacz photo.stackexchange.com/questions/13411/…
Matt Grum
Nie powiedziałbym nawet, że ten obraz jest zdmuchnięty - ledwo dostrzegam linie na jej kołnierzu, nawet w najjaśniejszych miejscach.
Evan Krall,

Odpowiedzi:

7

Obcinanie to termin, który zasadniczo odnosi się do utraty danych na przechwyconym obrazie. Innym częstym opisem tego zjawiska jest odniesienie do części obrazu jako „wydmuchanej”. Światło wpadające do aparatu uderza w piksele sensora aparatu i zamienia się w niewielką ilość ładunku elektrycznego. Każdy element może utrzymać tyle ładunków, że gdy jest pełny, podświetlenie jest w pełni nasycone, a gdy cały obszar pikseli jest nasycony, wszelkie szczegóły w tym obszarze są tracone, określane jako przycięte lub rozdmuchane. Podobnie musi być wystarczająca ilość światła uderzającego w piksel, aby wygenerować mierzalny ładunek, a jeśli nie ma wystarczającej ilości w obszarze czujnika, wychwytywana jest tylko czarna czerń i każdy szczegół w tym obszarze jest podobnie tracony. Żadna ilość przetwarzania końcowego nie może przywrócić szczegółów w tych obszarach, ponieważ żaden szczegół nie został przechwycony.

W przypadku kamery filmowej dzieje się to samo, tyle że zamiast przekształcenia światła w ładunek elektryczny na czujniku, reagują na niego światłoczułe cząsteczki. Gdy wszystkie zareagują w obszarze negatywu, nie można uchwycić żadnych szczegółów w tym obszarze.

W kompozycjach, w których występują zarówno bardzo jasne, jak i bardzo ciemne obszary, takie jak twój przykład, bardzo trudne jest uchwycenie szczegółów na całym obrazie. Techniki takie jak HDR zostały opracowane właśnie dla tego scenariusza, w którym kilka zdjęć przy różnych ekspozycjach jest łączonych w celu zwiększenia zakresu dynamicznego. Niemożliwe jest uchwycenie szczegółów na całym obrazie za pomocą jednego zdjęcia bez użycia zewnętrznego oświetlenia w celu oświetlenia ciemniejszych obszarów, dzięki czemu można obniżyć ekspozycję i wprowadzić jaśniejsze obszary. Profesjonalni fotografowie często wykorzystują reflektory, aby to zrobić aby podnieść cienie na tyle, aby uzyskać głębię.

Paul Round
źródło
13

Intensywność lub jasność obiektów w prawdziwym świecie działa znacznie inaczej niż na zdjęciu. W rzeczywistości jasność obiektu dla wszystkich celów i celów jest nieskończona. Potężna żarówka może wyglądać szczególnie jasno, ale w porównaniu do słońca, raczej słaba. Ogólny zakres możliwych poziomów natężenia światła jest ogromny w świecie rzeczywistym, od słabego światła gwiazd (powiedzmy 0,0001 w hipotetycznej skali) do światła słonecznego (100 000 000 w tej samej hipotetycznej skali). Ten zakres intensywności nazywamy zakresem dynamicznym.

Ludzkie oko jest w stanie dostrzec ograniczony zakres dynamiki i nie może jednocześnie dostrzec ciemności światła gwiazd i blasku światła słonecznego ... możesz zobaczyć jedno lub drugie. Jeśli twoje oczy są przystosowane do patrzenia na światło gwiazd, słońce i cokolwiek przez nie oświetlone byłoby skutecznie „przycięte”, jeśli chodzi o twoją wizję i postrzeganie. I odwrotnie, jeśli twoje oczy są przystosowane do oglądania świata oświetlonego światłem słonecznym, ciemność światła gwiazd byłaby znacznie poniżej najciemniejszych części świata wokół ciebie ... skutecznie przyciemniona. Niesamowite jest jednak to, że oko potrafi się przystosować ... całkowity zakres dynamiki, jaki oko jest w stanie funkcjonować, jest niezwykle duży ... mniejszy niż całkowity zakres możliwych intensywności, ale znacznie większy niż typowe urządzenia elektroniczne, takie jak aparaty fotograficzne i monitory komputerowe.

Podobnie czujniki aparatu i ekrany komputerowe mają jeszcze bardziej ograniczony zakres dynamiczny niż ludzkie oko. Różni się jednak od oka faktem, że urządzenia cyfrowe muszą reprezentować zakres dynamiczny jako dyskretne wartości, które mogą być reprezentowane cyfrowo. Urządzenia cyfrowe są również ograniczone w zakresie, który mogą reprezentować ... z całkowitą czernią zwykle reprezentowaną wewnętrznie przez liczbę zero, a całkowitą biel reprezentuje pewne skończone maksimum, takie jak 255 (8 bitów), 4096 (12 bitów), 16384 ( 14 bitów), a być może nawet 65536 (16 bitów) w najnowszych i najlepszych kamerach i monitorach.

Ten zasięg jest znacznie bardziej ograniczony niż możliwy zakres natężenia światła w świecie rzeczywistym, ponad 1500 razy. Eksponując zdjęcie, należy pamiętać o ograniczonym zakresie dynamicznym. Wystaw zbyt długo, a ryzykujesz przechwyceniem większej ilości światła niż jest to możliwe do przedstawienia w 8-16 bitach informacji ... w tym czasie przycinasz nadmiar wartości analogowej do maksymalnej możliwej wartości cyfrowej. Na opublikowanym zdjęciu wygląda na to, że kołnierz góry womans został prześwietlony, w wyniku czego został obcięty. Wydaje się, że jej włosy są nieco niedoświetlone i chociaż nie można wystawić mniej niż 0, możliwe jest naświetlenie zbyt mało, tak że szum elektroniczny samego czujnika przytłacza wszelkie użyteczne dane obrazu.

Przed zrobieniem zdjęcia aparatem cyfrowym można ustalić, czy można przycinać białka (lub podświetlenia, jak zwykle się je nazywa) za pomocą histogramu. Histogram to prosty wykres, który pokazuje, ile każdego tonu (poziom intensywności, od zera do maksimum) jest obecny na zdjęciu. Histogram zwykle przebiega od lewej do prawej (jednak niektóre aparaty znajdują się naprzeciwko), z najciemniejszymi tonami po lewej, półtonami pośrodku i podświetleniami po prawej stronie. Jeśli nadmiernie eksponujesz, dźwięki z prawej strony zostaną maksymalnie zwiększone ... docierając do górnej krawędzi histogramu. Gdy zobaczysz taki histogram, zmniejsz ekspozycję w dół, aż rozjaśnienia będą płaskie lub po prostu zaczną rosnąć w pobliżu prawej krawędzi. Należy zauważyć, że jeśli wystawiasz się na podświetlenia, możesz stracić odpowiednią ekspozycję w innym miejscu.

jrista
źródło
2
Gdy tylko przeczytałem pytanie, wiedziałem, że @jrista udzieliłaby odpowiedzi. +1 ode mnie :)
Francesco
1
TLDR: P ......;)
ElendilTheTall
2
Mój Pentax wysyła do mnie prześwietlone białe fragmenty po zrobieniu zdjęcia, jako ostrzeżenie.
Benjol,
8

Oto histogram tego zdjęcia (Kolory | Informacje | Histogram w GIMP):

histogram oryginalnego zdjęcia

Ten pik po prawej stronie oznacza obcinanie: w tym przypadku było dużo pikseli, które były zbyt jasne dla ustawień ekspozycji i wszystkie miały tę samą (czystą biel) wartość. Zasadniczo chcesz uniknąć piku na obu krawędziach, ponieważ często oznacza to, że ekspozycja nie jest ustawiona odpowiednio dla sceny.

Można to obejść po sprawdzeniu histogramu w aparacie po zrobieniu każdego zdjęcia: jeśli widzisz pik na jednym końcu histogramu, tracisz trochę informacji i powinieneś skorygować ekspozycję (uwaga: jest wspólny kawałek porad, jak „narazić się na prawo”, co faktycznie zrobiliście tutaj), aby to zrekompensować. (Jeśli widzisz pik na obu końcach (a twoje zdjęcie ma mały pik na ciemnym końcu), tracisz zarówno jasne, jak i ciemne odcienie; jednym z rozwiązań jest zastosowanie technik HDR.)

Co to jest zakres dynamiczny i jak ważny jest w fotografii? wyjaśnia nieco tę koncepcję.

Społeczność
źródło
4
Nie zgadzam się z tym, że w przypadku wycinania „wiele informacji jest kompresowanych do bardzo małego zakresu”. Obcinanie oznacza utratę informacji, a nie kompresję. W przeciwnym razie pomocna odpowiedź.
Conor Boyd,
3

Przycinanie bieli ma miejsce wtedy, gdy piksel (lub obszar pikseli) nieprzeznaczony do 100% bieli został naświetlony zbyt jasno i przyciął się przy 100% bieli (255, 255, 255). Kołnierzyk koszuli byłby uważany za zbyt przycięty dla wygody. Biorąc to pod uwagę, jeśli spojrzysz na plik RAW tego zdjęcia (zrobiłeś go na surowo?), Zgaduję, że większość informacji wciąż tam jest i wystarczy trochę korekty ekspozycji przywróć szczegóły.

Prawdziwy problem polega na przycięciu 100% surowego pliku. Nie można tego skorygować i zwykle wygląda to dość nieprzyjemnie.

Nick Bedford
źródło
Nic tam nie przyciąłem. Co miałeś na myśli and have clipped at 100% white (255, 255, 255)?
Aquarius_Girl
0

Odrobina googlingu prawdopodobnie odpowiedziałaby na twoje pytanie.

Oto link do artykułu w Wikipedii na temat obcinania.

Z tego artykułu:

Jasne obszary z powodu prześwietlenia są czasami nazywane rozświetlonymi lub rozjaśnionymi światłami. W skrajnych przypadkach obszar obcięty może wydawać się mieć zauważalną granicę między obszarem obciętym a nieciętym. Obcięty obszar będzie zazwyczaj całkowicie biały, chociaż w przypadku, gdy obcięty został tylko jeden kanał koloru, może przedstawiać się jako obszar o zniekształconym kolorze, taki jak obszar nieba, który jest bardziej zielony lub żółty niż powinien.

Conor Boyd
źródło
0

Obcinanie to kolejny termin nasycenia.

UPDATE : Ja nie odnosząc się tutaj do operatora Nasycenie koloru lub zmiennej (jak w programie Photoshop lub HSV), ale raczej do wyrażenia matematycznego / technicznych. Przepraszam za zamieszanie.

tak
źródło
4
Przycinanie nie jest kolejnym terminem określającym nasycenie. Obcinanie to termin utraty danych. Przycinanie będzie widoczne, gdy rozjaśnienia będą zbyt jasne, aby można je było przedstawić na obrazie lub gdy cienie są zbyt ciemne.
Steve Ross,
@ Steve Ross - dokładnie to jest nasycenie - nasycasz wartości swoich pikseli, aby otrzymały ich ekstremalne wartości, w tym kontekście jest to 0 i 255 (jpeg). Jeśli znasz Matlab / Simulink, wiesz, że blok symulujący to zachowanie nazywa się nasyceniem.
ysap
1
Masz jednak rację, że nie jest to operator ani zmienna Nasycenie kolorów. Powinienem był to wskazać w odpowiedzi, ale z powodu późnej godziny prawdopodobnie nie widziałem tej pułapki ...
ysap
Rozumiane jednak matematyczna definicja nasycenia jest abstrakcyjna i niełatwo ją przełożyć na rozumienie obcinania jako takiego. W szczególności, gdy mówimy „nasycenie”, ludzie myślą o skompresowaniu obszarów cienia w celu zwiększenia intensywności kolorów. Rzadko myślą o zmianach w najważniejszych obszarach, w których występuje problem wskazany przez PO. Tak, nasycenie pikseli w sensie matematycznym powoduje utratę szczegółów, jednak OP poprosił o rozwiązanie oświetleniowe. Takie rozwiązanie (jeśli istnieje) spłaszczyłoby oryginalny obraz, eliminując / zmniejszając przycinanie.
Steve Ross,
Kontynuując ... przepraszam, że jestem nagły w mojej wcześniejszej odpowiedzi. Ten artykuł jest stosunkowo dobry w matematycznej definicji nasycenia: en.wikipedia.org/wiki/Saturation_arithmetic i mówi o „ograniczaniu” wartości - tj. Obcinaniu.
Steve Ross,