Ich habe einen Dell U2312HM-Monitor an einen Dell Latitude E7440-Laptop angeschlossen. Wenn ich sie über laptop -> HDMI cable -> HDMI-DVI adaptor -> monitor
(der Monitor hat keine HDMI-Buchse) anschließe, ist das Bild viel schärfer als mit laptop -> miniDisplayPort-VGA adaptor -> VGA cable -> monitor
. Der Unterschied ist mit einer Kamera schwer zu erfassen, aber siehe meinen Versuch unten. Ich habe versucht, mit den Einstellungen für Helligkeit, Kontrast und Schärfe zu spielen, aber ich kann nicht die gleiche Bildqualität erzielen. Die Auflösung ist 1920x1080, ich benutze Ubuntu 14.04.
VGA:
HDMI:
Warum ist die Qualität anders? Entspricht es diesen Standards oder sollte ich ein fehlerhaftes VGA-Kabel oder einen mDP-VGA-Adapter vermuten?
Antworten:
VGA ist das einzige analoge Signal von den oben genannten, daher ist es bereits eine Erklärung für den Unterschied. Die Verwendung des Adapters kann Ihre Situation weiter verschlechtern.
Weitere Informationen: http://www.digitaltrends.com/computing/hdmi-vs-dvi-vs-displayport-vs-vga/
quelle
Unter der Annahme, dass Helligkeit, Kontraktion und Schärfe in beiden Fällen gleich sind, kann es zwei weitere Gründe geben, warum der Text bei DVI / HDMI schärfer ist:
Die erste wurde bereits erwähnt. VGA ist analog, daher muss im Monitor eine Analog-Digital-Wandlung durchgeführt werden, die theoretisch die Bildqualität beeinträchtigt.
Angenommen, Sie verwenden Windows, gibt es ein von Microsoft entwickeltes Verfahren namens ClearType, das die Darstellung von Text durch Manipulation der Subpixel eines LCD-Monitors verbessert. VGA wurde unter Berücksichtigung von CRT-Monitoren entwickelt und die Vorstellung eines Subpixels ist nicht dieselbe. Aufgrund der Anforderung, dass ClearType einen LCD-Bildschirm verwenden muss, und der Tatsache, dass der VGA-Standard dem Host nicht mitteilt, dass die Spezifikationen des Bildschirms ClearType würde mit einer VGA-Verbindung deaktiviert.
Quelle: Ich erinnere mich, dass ich von einem seiner Schöpfer in einem Podcast für This (). Developers (). Life () IIRC von ClearType gehört habe, aber http://en.wikipedia.org/wiki/ClearType unterstützt auch meine Theorie. Auch HDMI ist abwärtskompatibel mit DVI und DVI unterstützt Electronic Display Identification (EDID).
quelle
Die anderen machen einige gute Punkte, aber der Hauptgrund ist eine offensichtliche Takt- und Phasenfehlanpassung. Der VGA ist analog und unterliegt Störungen und Fehlanpassungen der analogen Sende- und Empfangsseite. Normalerweise würde man ein Muster wie dieses verwenden:
http://www.lagom.nl/lcd-test/clock_phase.php
Stellen Sie die Uhr und die Phase des Monitors ein, um die beste Übereinstimmung und das schärfste Bild zu erzielen. Da es sich jedoch um ein analoges Signal handelt, können sich diese Einstellungen mit der Zeit verschieben. Daher sollten Sie idealerweise nur ein digitales Signal verwenden.
quelle
Es gibt einige Antworten, die auf ein korrektes digitales Signal im Vergleich zu einem analogen Signal hinweisen. Aber das beantwortet das Warum nicht? Ein paar der erwähnten Übersetzungsebenen, das ist auch so, eine normale A / D-Wandlung kann zu einem Verlust an Wiedergabetreue führen, aber Sie müssen dies messen, da es schwierig ist, die Unterschiede mit bloßem Auge zu erkennen. Ein billiger Umtausch und alle Wetten sind aus.
Warum ist digital besser als analog?
Ein analoges RGB-Signal (z. B. VGA) verwendet die Amplitude des Signals (0,7 Volt Spitze-Spitze bei VGA). Wie bei allen Signalen tritt Rauschen auf, das, wenn es groß genug ist, dazu führt, dass die Pegel falsch übersetzt werden.
Reflexionen im Kabel (Impedanzfehlanpassungen) sind tatsächlich der größte Nachteil eines analogen Videosignals. Dies führt zu zusätzlichen Störungen und wird bei längeren Kabeln (oder billigeren Kabeln) umso schlimmer, je höher die Auflösung des Videos ist, umso höher ist das Signal-Rausch-Verhältnis. Interessanterweise sollten Sie bei einem 800x600-Signal keinen Unterschied feststellen können, es sei denn, das VGA-Kabel ist zu lang.
Wie vermeidet ein digitales Signal diese Fallstricke? Gut für einen ist das Niveau nicht mehr relevant. Auch DVI-D / HDMI verwendet ein Differenzsignal sowie eine Fehlerkorrektur, um sicherzustellen, dass Einsen und Nullen korrekt übertragen werden. Ein digitales Signal wird zusätzlich aufbereitet, was für ein analoges Videosignal nicht sinnvoll ist.
Tut mir leid für die Seifenkisten-Jungs, aber das sind die Fakten.
quelle
Ein weiteres Problem ist, dass viele VGA-Kabel Junk sind. Wenn das VGA - Kabel weniger als 1/4" dick, Sie werden wahrscheinlich feststellen , Ghosting auf größeren Monitoren (je höher die rez, eher Ghosting). Ich habe sogar beachteten Ghosting auf dem angeschlossenen VGA - Kabel auf etwa 19" CRT montitors. Meine VGA-Kabel sind ca. 1/3 "dick und es hilft wirklich bei der Schärfe (dickere Drähte, mehr Abschirmung)
quelle
HDMI und DVI sind sehr ähnlich. Beide sind digital; Die Hauptunterschiede sind, dass HDMI Audio und HDCP unterstützt. Beim Umschalten zwischen HDMI und DVI wird nur wenig konvertiert, sondern es werden nur die passenden Stifte an den Anschlüssen angeschlossen. Display Port ist ein digitales Protokoll, aber VGA ist analog, und der Konverter führt wahrscheinlich zu kleinen Fehlern und einer Verringerung der Schärfe des Signals. Der Monitor wandelt das Signal wahrscheinlich wieder in ein digitales Signal um, wodurch eine weitere Umwandlung erfolgt, die sich nachteilig auf die Qualität auswirkt.
Insgesamt hat Computer-> HDMI-> DVI-> Monitor weniger tatsächliche Konvertierungen als Computer-> DisplayPort-> VGA-> Monitor und konvertiert das Signal niemals in Analog, was ein schärferes Bild ergibt.
quelle
HDMI und DVI sind eigentlich ein und dasselbe (zumindest in Ihrem Kontext). DVI-Anschlüsse sind eigentlich nur HDMI-Anschlüsse mit einer anderen Pinbelegung (die Pinreihen) sowie VGA-Anschlüsse mit einer anderen Pinbelegung (die Pins sind kreuzförmig angeordnet). Wenn Sie sich Ihren HDMI-zu-DVI-Konverter ansehen, werden Sie wahrscheinlich feststellen, dass der kreuzförmige Teil fehlt.
Sie vergleichen also ein HDMI-Bild mit einem VGA-Bild und, wie @Josh betont hat, eines, das eine tatsächliche Konvertierung beinhaltet.
Es gibt tatsächlich einen Unterschied zwischen HDMI und DVI, aber er ist für Sie nicht relevant. HDMI kann zusätzliche Signale übertragen, einschließlich des Verschlüsselungssignals für Inhaltsschutz, Ton, Ethernet usw.
quelle