Jaka jest różnica między renderowaniem wideo na wysokiej klasy procesorze a niskiej jakości procesorze?

27

W tej chwili robię renderowanie wideo i jedno, co mnie całkowicie nie rozumie, to to, czy ktoś używa taniego laptopa do renderowania wideo.

  1. Czy wideo renderowane na wysokiej klasy laptopie i7 wygląda lepiej niż wideo renderowane na laptopie dwurdzeniowym? (Czy grafika Intel HD ma znaczenie, która jest używana w obu przypadkach?)

  2. Czy renderowanie wideo obniża wydajność procesora po pewnym czasie (100% na minuty)?

Anirudha Gupta
źródło
Mocniejszy procesor może faktycznie pogorszyć (nieco) wyjście wideo, jeśli zamiast wbudowanego oprogramowania jest używane renderowanie wideo wbudowanego procesora graficznego.
Ignacio Vazquez-Abrams
2
@ IgnacioVazquez-Abrams Więc ... gdzie jest różnica między twoim HD4400 w i5-4210U a HD4400 w i7-4600U? Odpowiedź: Szybkość / data procesora nie musi mieć nic wspólnego z tym, czy jest zintegrowany procesor graficzny (co czyni go APU, skutecznie), czy nie. Np. Mój i7-5820k nie oferuje zintegrowanego procesora graficznego - i na pewno nie jest mniej wydajny niż mój i5-4210U.
flolilo
@flolilolilo: Może, nie robi. Oczywiście nie jest to brane pod uwagę, gdy nie ma zintegrowanego procesora graficznego.
Ignacio Vazquez-Abrams,
2
@ IgnacioVazquez-Abrams, to jest jak powiedzenie: „ Mniej wydajny procesor może faktycznie…”. O co chodzi: data wydania procesora i / lub jego moc nie ma nic wspólnego z użyciem oprogramowania (czasami) dostępny układ GPU na chipie, a dostępność procesora graficznego na kości procesora nie ma nic wspólnego z tym, czy oprogramowanie go używa, czy nie. (Cóż, oprócz tego, że jeśli nie ma GPU, to nie można go użyć. Ale to znowu nie odpowiada na pytanie, czy procesor Atom zapewnia renderowanie wyższej jakości niż procesor Core X lub odwrotnie.)
flolilo
1
@ IgnacioVazquez-Abrams: Myślę, że mówisz o sprzętowym kodowaniu wideo , np. H264 z Intel Quick Sync zamiast wysokiej jakości kodera programowego, takiego jak x264 . Ostatnio sprawdziłem, że zauważono różnicę jakości na bitrate między koderami HW i x264 -preset slower; w przypadku wideo, które zostanie raz skompresowane, ale wysłane wiele razy przez Internet lub przechowywane na dysku na zawsze, spędzanie dodatkowego czasu procesora / energii elektrycznej z góry powinno się opłacić na dłuższą metę. Ale to oddzielne od renderowania 3D.
Peter Cordes,

Odpowiedzi:

42

Czy i7 renderuje lepszą jakość obrazu niż dwurdzeniowy (czy grafika Intel HD ma znaczenie, która jest używana w obu)?

Nie, nie ma. Obaj renderują w jakości, którą im każesz, jednak renderowanie jest naprawdę dużym obciążeniem obliczeniowym, więc renderowanie za pomocą i7 będzie znacznie szybsze niż renderowanie z dwurdzeniowym procesorem niskiej klasy .
I nie, wewnętrzny procesor graficzny ( w tym przypadku Intel HD Graphics ) nie będzie miał znaczenia, ponieważ rendering używa tylko procesora. Jednak niektóre aplikacje do renderowania mogą używać twojego IGP (Intel HD) lub GPU (twoja dyskretna karta graficzna, jeśli taka istnieje) do renderowania obrazu, co prowadzi do zupełnie innego wyniku. Większość procesorów klasy konsumenckiej radzi sobie lepiej w renderowaniu niż zwykłe procesory graficzne i jest o wiele lepsza niżIGP (zarówno pod względem jakości [z powodu lepszych algorytmów obliczeniowych], jak i szybkości, jednak nie dotyczy to tego przypadku). Należy o tym pamiętać, ponieważ różni się w zależności od aplikacji. (podziękowania dla @CliffArmstrong za sugestię)


Czy procesor ulega degradacji po krótkim czasie, ponieważ używam ich do renderowania filmów? (filmy używają 100% procesora przez kilka minut)

Nie, procesory nie ulegają degradacji. Są produkowane, więc nie musisz ich regularnie zmieniać. Sprawdź odpowiedź, aby uzyskać bardziej szczegółowe informacje.


Jeśli obecnie renderowana aplikacja korzysta z wielowątkowości , nowsze procesory, które również mają wyższą liczbę rdzeni, mogłyby wykonać to samo zadanie znacznie szybciej.
Powiedzmy na przykład, że mamy nowszy 8-rdzeniowy procesor i7 i jeden starszy zwykły dwurdzeniowy procesor, i powiedzmy, że każdy rdzeń ma 2 wątki . To czyni z nich procesor z 16 wątkami i procesor z 4 wątkami . Teoretycznie, jeśli aplikacja wykorzysta wszystkie rdzenie i określimy, że obraz ma jakość 1080p (Full HD), procesor i7 teoretycznie renderuje obraz4 razy szybszy niż dwurdzeniowy procesor (jeśli wszystkie rdzenie pracują na tej samej częstotliwości w obu procesorach). Jednak jakość obrazu nadal wynosiłaby 1080p, więc będą renderować obraz o tej samej jakości, ale w innym czasie.

I chociaż procesorom przypisywane są tak ciężkie zadania, zaczynają wytwarzać znacznie więcej ciepła , co może być niebezpieczne . Odpowiednie chłodzenie jest koniecznością podczas wykonywania takich zadań, jak wspomniano w jego odpowiedzi @Tetsujin, w przeciwnym razie procesor może zacząć się dławić w celu zmniejszenia ciepła.

Fanatyczna
źródło
5
Przetwarzanie za pomocą wysokiej klasy procesora będzie szybsze, więc możesz być w stanie uzyskać wyższą jakość w tym samym czasie. Jeśli masz krótki termin, może to oznaczać, że szybszy procesor przekłada się na lepszą jakość. Jeśli chodzi o procesor „degradujący”, czy nowsze procesory Intel nie podkręcają się tak długo, jak pozwala na to ciepło? Praca z szybkością 100% przez kilka minut nie uszkodzi procesora, ale spowolni procesor po pewnym czasie, aby zapobiec problemom, co jest rodzajem obniżenia wydajności w porównaniu do krótszego zadania.
ilkkachu
3
jeśli porównanie jest 10-rdzeniowe w porównaniu z 1-rdzeniowym, wówczas teoretycznie skrócenie czasu może być najwyżej dziesięciokrotnie (zwykle znacznie mniejsze). Tylko
nitpicking:)
15
Wszystkie domieszkowane materiały półprzewodnikowe ulegają degradacji termicznej z upływem czasu, ale powinno to zająć dużo czasu, zanim procesor ulegnie awarii z tego powodu, nawet jeśli pracuje z maksymalnym obciążeniem w sposób ciągły (zgodnie ze specyfikacją elektryczną i termiczną), z pewnością dłużej niż trwa procesor na temat Retrokomputing .
David Foerster,
3
Warto wspomnieć, że w zależności od użytego oprogramowania do transkodowania / renderowania może przejść do korzystania ze zintegrowanych możliwości transkodowania GPU / IGP na sprzęcie, na którym jest on dostępny ... co powoduje utratę jakości wizualnej. Większość dobrych programów do renderowania / transkodowania domyślnie tego zapobiega ... ponieważ takie sprzętowe funkcje renderowania są przeznaczone do wydajnego odtwarzania ... a nie renderowania.
Cliff Armstrong,
2
Się wykonać tak. Jednak większość procesorów klasy konsumenckiej z procesorami IGP i dyskretnymi procesorami graficznymi do obliczeń używa mniej precyzyjnej matematyki. Renderuje ramki szybciej ... ale stracą jakość w tej precyzji kolorów, odblokowanie itp. Będzie mniej poprawne niż w przypadku użycia bardziej precyzyjnego algorytmu. Niewidoczny dla przeciętnego użytkownika ... ale znaczący dla twórców treści.
Cliff Armstrong,
22

Tak długo, jak maszyna będzie w stanie utrzymać się wystarczająco chłodna, jedyną różnicą będzie czas potrzebny.

Podczas renderowania wideo nawet na 12-rdzeniowym Xeonie celowo zwiększam fanów do maksimum. Chociaż urządzenie jest w stanie utrzymać się w niskiej temperaturze, uważa, że ​​„wystarczająco chłodny” to 1 ° C w „procHot”, czyli maksymalnej temperaturze procesora określonej przez Intela [98 ° C dla tego konkretnego procesora, trzeba by było sprawdź dane Intela na własne].

Po prostu lubię nadawać temu trochę więcej przestrzeni, ale może to tylko ja jestem trochę paranoikiem.

Z drugiej strony, jeśli nie będzie w stanie utrzymać się pod kontrolą procHot, ostatecznie spowoduje krótkotrwałe awarie / BSOD, a nawet długoterminowe szkody.

Podczas intensywnych zadań chłodzenie jest najważniejsze.

Tetsujin
źródło
3
CPU obniży częstotliwość i napięcie zegara („dławienie”), jeśli osiągnie niebezpieczny poziom temperatury. Oczywiście wpływa to negatywnie na wydajność, ale nie szkodzi procesorowi. Zasadniczo bardzo trudno jest zabić nowoczesne procesory i procesory graficzne z przegrzaniem. Teoretycznie wysokie temperatury są złe przez cały okres istnienia krzemu, ale nie widziałem żadnych liczb na temat tego, jak naprawdę jest zły (tj. Czy rozmawiamy 3 tygodnie lub 3 lata do awarii podczas ciągłej pracy w temperaturze np. 90 ° C?).
Michael
3
Wolałbym tego nie ryzykować. Znam teorię, ale fani są tani, Xeony nie ;-) Nigdy nie straciłem wentylatora ani zasilacza przez co najmniej 10 lat.
Tetsujin
4
@Michael Zasada ogólna, którą słyszałem w przypadku układów scalonych (a nie CPU), polega na tym, że możesz skrócić żywotność o połowę za każde dodatkowe 10C. Ale tylko Intel wie, od jakiej temperatury / czasu życia powinniśmy zacząć.
mbrig
Żywotność w połowie działalności jest specyficzna dla kondensatorów elektrolitycznych, mają one wewnątrz ciecz, która może wyschnąć lub w inny sposób ulec degradacji. Czapki elektrolityczne są stosowane tylko na płytce drukowanej, gdzie potrzebna jest duża pojemność o niskim koszcie, nie znajdują się one w procesorze ani nawet nie są bardzo blisko niego. Żywotność procesora nie ulega znaczącej zmianie, dopóki nie zostanie osiągnięty próg wysokiej temperatury (zwykle ponad 80-90 ° C, w zależności od modelu), który powoduje, że elektrony w materiałach izolacyjnych tańczą szybciej niż pewien poziom krytyczny lub jeśli zastosuje się napięcie wyższe niż projektowe. (albo wywołuje „awarię elektryczną”, zwykle nieodwracalną)
Max Power
@Michael Spaliłem rdzeń na moim i7 6700k po roku, więc nie sądzę, że to niemożliwe. Intel był świetny z RMA! Ponadto system operacyjny musi być świadomy i dławić procesor, ESXi nie robi tego zawsze, na przykład dlatego przeniosłem się do KVM.
FreeSoftwareServers
13

Gdy uruchomisz dokładnie ten sam programowy koder (program) z dokładnie tymi samymi opcjami i konfiguracją na dwóch różnych procesorach, uzyskasz dokładnie ten sam wynik. Jedyną różnicą będzie czas potrzebny na wykonanie kodowania.

Używanie dokładnie tego samego programu z dokładnie taką samą konfiguracją z dokładnie takim samym wejściem powinno dawać tę samą jakość wyjściową, gdy działa na procesorze Xeon, i7, i3 lub nawet Celeron.

Jeśli korzystasz z wbudowanych sprzętowych koderów lub dekoderów wideo, możesz uzyskać różne wyniki, ponieważ mogą one zostać skonfigurowane lub zoptymalizowane w różny sposób między generacjami procesorów, a nowszy sprzęt może obsługiwać nowsze funkcje. W ten sam sposób, że używanie 5-letniej kopii ffmpeg może być wolniejsze lub dawać nieco inne wyniki dla danej konfiguracji niż nowsza wersja, różne sprzętowe kodery wideo można traktować jako równoważne różnym wersjom „oprogramowania”, aczkolwiek wersje, których nie można zaktualizować bez wymiany sprzętu.

Sam procesor najprawdopodobniej nie ulegnie degradacji, ale ponieważ procesor będzie gorętszy, wentylatory będą działać mocniej, zasilacz będzie pracował ciężej, a ogólnie system będzie pracował ciężej i cieplej niż w przeciwnym razie, gdybyś nie wykonywał kodowania. Teoretycznie można uznać, że ta dodatkowa praca stanowi dodatkowe obciążenie dla twojego systemu, ale w praktyce twój system powinien być zaprojektowany na tyle dobrze, aby różnica między korzystaniem z niego w ten sposób a jego niestosowaniem w ogóle oznaczała, że ​​okres użytkowania system będzie tak blisko, jak nie ma znaczenia.

Jeśli masz zasilacz lub układ chłodzenia, który nie został zaprojektowany lub określony na tyle dobrze, aby pasował do obciążenia twojego systemu, możesz spowodować awarię wcześniej niż powinien.

Uruchamianie wymagających zadań na słabo zasilanym zasilaczu może spowodować jego przegrzanie i wypalenie elementów w zasilaczu lub „rozjaśnienie się”, powodując niestabilność systemu. O ile nie kupiłeś okazyjnie zbudowanej maszyny w piwnicy lub nie zbudowałeś jej z najmniejszym zapasem, jaki możesz znaleźć, nie powinno tak być.

Mokubai
źródło
Witaj @Mokubai, używam kompilacji binarnej ffmpeg z ffmpeg.org na platformie Windows, sprawdź, czy uruchomiona komenda w ffmpeg nie używa kodowania sprzętowego.
Anirudha Gupta
2
O ile w wierszu poleceń nie ma wzmianki o „nvenc” (nvidia), libmfx (Intel) lub jednym z innych koderów sprzętowych wymienionych na trac.ffmpeg.org/wiki/HWAccelIntro, to wierzę, że użyje programowego kodera libx264. Ffmpeg domyślnie koduje oprogramowanie. Uważam, że w takim przypadku powinieneś uzyskać taki sam wynik na różnych platformach. Po uruchomieniu koderów sprzętowych kodowanie może być znacznie szybsze, ale wyniki będą się różnić.
Mokubai
Nie całkiem; Na przykład x264 może generować niedeterministyczny wynik, gdy używa się więcej niż jednego wątku, a także istnieje szansa bardzo niewielkiego pogorszenia jakości / rozmiaru, gdy używa się więcej niż jednego wątku, co zwiększa się z większą liczbą wątków, ale to tylko teoria, a nie warto się martwić. mimo to pliki nie będą dokładnie takie same na poziomie strumienia bitów. Więc jeśli używa się deterministycznego kodera, to prawda, ale nie wszystkie wielowątkowe kodery są deterministyczne.
Sarge Barszcz
3

Na laptopie generalnie nie. Jednak wiele laptopów nie jest zbudowanych z myślą o trwałości. Procesor może nie ulec degradacji, ale coś ulegnie zmianie. Używanie laptopa w ten sposób, a nawet laptopa do gier, jest niewłaściwe.

Przebieg napięcia i przekroczenie częstotliwości taktowania skróci żywotność wielu stacji roboczych i komponentów pulpitu. Dotyczy to również kart graficznych. Nie musi to oznaczać degradacji procesora, ale awarię.

Karta graficzna może opuścić fabrykę z ukrytymi problemami, a ciężka praca może ujawnić usterki. dlatego mamy teraz ECC Ram w kartach graficznych. Nie zamierzam wymieniać żadnych marek, ale istnieje powód, dla którego istnieje gwarancja.

mckenzm
źródło
Czy z ciekawości te „ukryte problemy” są związane z „błędem 43”?
Mehrdad
Faktycznie powodem ECC RAM jest to, że ludzie mucho GPU obliczyć te dni, a w przeciwieństwie do grafiki, gdzie nikt nie zauważy błąd bitowy (nikt nawet nie zauważy, kiedy zmiennoprzecinkowych matematyki jest kilka bitów krótki precyzji, lub gdy pochodne są obliczane niepoprawnie) wykonując zadania obliczeniowe, potrzebujesz nieco większej niezawodności. Choć zgadzam się z ogólnym stanowiskiem, że na pewno jest zużycie na procesorach po uruchomieniu przy 100% obciążeniu, zwłaszcza na laptopach.
Damon
-2

Będzie to zależeć od tego, ile obliczeń dzieje się na procesorze i ile dzieje się na GPU.

Ogólnie rzecz biorąc, procesory wykonają więcej pracy szeregowej, w której dzieje się dużo rozgałęzień, a procesory graficzne wykonają więcej pracy, która wykonuje tę samą operację na dużej ilości danych (tj. Na każdym pikselu).

Ponadto liczba rdzeni pomaga tylko wtedy, gdy renderowanie korzysta z wielu rdzeni. Wiele aplikacji nie wykorzystuje w pełni wszystkich rdzeni. Tak więc 8-rdzeniowy procesor (lub quadcore z hyperthreading) prawie nigdy nie da 8-krotnego wzrostu prędkości.

Aplikacja, która w ogóle nie jest zoptymalizowana pod kątem wielowątkowości, nawet nie przyspieszy.

Aby odpowiedzieć na twoje pytania:

  1. Nie, będzie wyglądać dokładnie tak samo, ponieważ wykonywane są dokładnie te same operacje.

  2. Biorąc pod uwagę to, co napisałem powyżej, zależy to od tego, czy temperatura twojego procesora wzrośnie powyżej pewnego progu, co spowoduje, że procesor się obniży, aby nie zwiększać dalej temperatury. Więc jeśli procesor wykonuje dużo pracy, zwolni się po pewnym czasie pełnego obciążenia, szczególnie w laptopach (mała obudowa, złe chłodzenie). Jeśli przez degradację rozumiesz degradację długoterminową, to zapoznaj się z powyższymi odpowiedziami (tl dr; nie degradują one znacznie).

Dorian Appeldoorn
źródło
2
twoja odpowiedź nie odpowiada na pytanie OP, w szczególności czy nastąpi utrata jakości. To nie jest pytanie o szybkość.
Ahmed Masud