Mam monitor Dell U2312HM podłączony do laptopa Dell Latitude E7440. Kiedy podłączę je przez laptop -> HDMI cable -> HDMI-DVI adaptor -> monitor
(monitor nie ma gniazda HDMI), obraz jest znacznie ostrzejszy niż w przypadku laptop -> miniDisplayPort-VGA adaptor -> VGA cable -> monitor
. Różnica jest trudna do uchwycenia za pomocą aparatu, ale patrz moja próba poniżej. Próbowałem grać z ustawieniami jasności, kontrastu i ostrości, ale nie mogę uzyskać tej samej jakości obrazu. Rozdzielczość to 1920x1080, używam Ubuntu 14.04.
VGA:
HDMI:
Dlaczego jakość jest inna? Czy jest to zgodne z tymi standardami, czy powinienem podejrzewać, że uszkodzony jest kabel VGA lub adapter mDP-VGA?
Odpowiedzi:
VGA jest jedynym sygnałem analogowym z wyżej wymienionych, więc jest już wyjaśnieniem różnicy. Korzystanie z adaptera może dodatkowo pogorszyć twoją sytuację.
dalsze informacje: http://www.digitaltrends.com/computing/hdmi-vs-dvi-vs-displayport-vs-vga/
źródło
Zakładając, że jasność, kontrakty i ostrość są takie same w obu przypadkach, mogą istnieć 2 inne powody, dla których tekst jest ostrzejszy w przypadku DVI / HDMI:
Pierwszy został już stwierdzony, VGA jest analogowy, więc będzie musiał przejść przez konwersję analogowo-cyfrową wewnątrz monitora, co teoretycznie obniży jakość obrazu.
Po drugie, zakładając, że używasz systemu Windows, istnieje technika o nazwie ClearType (opracowana przez Microsoft), która poprawia wygląd tekstu poprzez manipulację subpikselami monitora LCD. VGA zostało opracowane z myślą o monitorach CRT, a pojęcie subpiksela nie jest takie samo. Ze względu na wymóg korzystania z ekranu LCD przez ClearType oraz fakt, że standard VGA nie informuje hosta o specyfikacji wyświetlacza ClearType zostałby wyłączony przy połączeniu VGA.
Źródło: Pamiętam, że słyszałem o ClearType od jednego z jego twórców w podcastie dla This (). Developers (). Life () IIRC, ale http://en.wikipedia.org/wiki/ClearType również popiera moją teorię. Również HDMI jest wstecznie kompatybilny z DVI, a DVI obsługuje elektroniczną identyfikację wyświetlacza (EDID)
źródło
Inni robią dobre rzeczy, ale głównym powodem jest oczywiste niedopasowanie zegara i fazy. VGA jest analogowy i podlega zakłóceniom i niedopasowaniu analogowej strony nadawczej i odbiorczej. Zwykle używa się takiego wzoru:
http://www.lagom.nl/lcd-test/clock_phase.php
Dostosuj zegar i fazę monitora, aby uzyskać najlepsze dopasowanie i najostrzejszy obraz. Ponieważ jednak jest analogowy, zmiany te mogą się zmieniać w czasie, dlatego idealnie jest po prostu użyć sygnału cyfrowego.
źródło
Istnieje kilka odpowiedzi wskazujących, że sygnał cyfrowy kontra analogowy jest poprawny. Ale to nie odpowiada dlaczego? Kilka wspomnianych warstw tłumaczących, to również trochę prawda, konwersja A / D głównego nurtu może spowodować utratę wierności, ale trzeba to zmierzyć, ponieważ trudno dostrzec różnice gołym okiem. Tania konwersja i wszystkie zakłady są wyłączone.
Dlaczego więc cyfrowy jest lepszy niż analogowy?
Analogowy sygnał RGB (taki jak VGA) wykorzystuje amplitudę sygnału (0,7 V między szczytami w przypadku VGA). Podobnie jak wszystkie sygnały ma szum, który, jeśli jest wystarczająco duży, spowoduje nieprawidłowe tłumaczenie poziomów.
Odbicia w kablu (niedopasowania impedancji) są w rzeczywistości największym spadkiem analogowego sygnału wideo. Wprowadza to dodatkowy szum i pogarsza się przy dłuższych kablach (lub tańszych), im wyższa rozdzielczość wideo, tym większy stosunek sygnału do szumu. Co ciekawe, nie powinno być widać żadnej różnicy w sygnale 800x600, chyba że kabel VGA jest zbyt długi.
W jaki sposób sygnał cyfrowy pozwala uniknąć tych pułapek? Cóż, dla jednego poziom nie jest już istotny. Również DVI-D / HDMI wykorzystuje sygnał różnicowy, a także korekcję błędów, aby zapewnić prawidłowe przesyłanie zer i jedynek. Do sygnału cyfrowego dodano również dodatkowe warunkowanie, które nie jest praktycznym dodatkiem do analogowego sygnału wideo.
Przepraszam za facetów z mydłem, ale to fakty.
źródło
Kolejną kwestią jest to, że wiele kabli VGA jest śmieci. Jeśli kabel VGA jest mniejsza niż 1/4" grubości, to będzie prawdopodobnie obwieszczeniu zjawy na większych monitorach (wyższa rez, co bardziej prawdopodobne wypaleniem). Mam nawet nie zauważył zjawy na dołączonym kablem VGA na niektórych 19" montitors CRT. Moje kable VGA mają grubość około 1/3 "i to naprawdę pomaga w ostrości (grubsze przewody, więcej ekranowania)
źródło
HDMI i DVI są bardzo podobne. Oba są cyfrowe; główne różnice polegają na tym, że HDMI obsługuje audio i HDCP. Podczas przełączania między HDMI i DVI konwersja jest niewielka, ale raczej podłączenie pasujących styków na złączach. Display Port to protokół cyfrowy, ale VGA jest analogowy, a konwerter prawdopodobnie wprowadza niewielkie wady i zmniejszenie ostrości sygnału. Monitor prawdopodobnie przekształca sygnał z powrotem na cyfrowy, powodując kolejną konwersję, która negatywnie wpływa na jakość.
Podsumowując, komputer-> HDMI-> DVI-> monitor ma mniej rzeczywistych konwersji niż komputer-> DisplayPort-> VGA-> monitor i nigdy nie konwertuje sygnału na analogowy, co daje ostrzejszy obraz.
źródło
HDMI i DVI są w rzeczywistości jednym i tym samym (przynajmniej w twoim kontekście). Złącza DVI to tak naprawdę tylko złącza HDMI z innym wyprowadzeniem (rzędy pinów), a także złącza VGA z innym wyprowadzeniem (piny ułożone wokół kształtu krzyża). Jeśli spojrzysz na konwerter HDMI-DVI, prawdopodobnie zauważysz, że brakuje części w kształcie krzyża.
Porównujesz więc obraz HDMI z obrazem VGA i, jak wskazał @Josh, taki, który wiąże się z faktyczną konwersją.
W rzeczywistości istnieje różnica między HDMI a DVI, ale to nie dotyczy ciebie. HDMI może przenosić dodatkowe sygnały, w tym sygnał szyfrowania w celu ochrony zawartości, dźwięku, Ethernetu itp.
źródło