Warum ist HDMI-> DVI-Bild schärfer als VGA?

20

Ich habe einen Dell U2312HM-Monitor an einen Dell Latitude E7440-Laptop angeschlossen. Wenn ich sie über laptop -> HDMI cable -> HDMI-DVI adaptor -> monitor(der Monitor hat keine HDMI-Buchse) anschließe, ist das Bild viel schärfer als mit laptop -> miniDisplayPort-VGA adaptor -> VGA cable -> monitor. Der Unterschied ist mit einer Kamera schwer zu erfassen, aber siehe meinen Versuch unten. Ich habe versucht, mit den Einstellungen für Helligkeit, Kontrast und Schärfe zu spielen, aber ich kann nicht die gleiche Bildqualität erzielen. Die Auflösung ist 1920x1080, ich benutze Ubuntu 14.04.

VGA:

VGA

HDMI:

HDMI

Warum ist die Qualität anders? Entspricht es diesen Standards oder sollte ich ein fehlerhaftes VGA-Kabel oder einen mDP-VGA-Adapter vermuten?

Alkamid
quelle
6
Sie spielen wahrscheinlich mit den falschen Einstellungen. Verwenden Sie ein Programm (oder eine Website ), mit dem ein Testmuster generiert und die Einstellungen für Takt und Phase angepasst werden können.
David Schwartz
11
Denken Sie daran, dass sowohl HDMI als auch DVI dasselbe Signal / Protokoll verwenden - TMDS . Die erste Option ist also bitgenau (verlustfrei).
Offensichtliche Lösung: Holen Sie sich einen HDMI-Monitor
Steven Penny
Die meisten modernen VGA-Ausgänge sind von minderer Qualität. Das liegt daran, dass es niemanden mehr interessiert. Oh, und Sie haben die Auto-Taste bei der Verwendung von VGA ausprobiert, richtig?
Daniel B
1
@StevenPenny - Wie würde das helfen? Mit einem HDMI-DVI-Adapter hat er bereits ein schärferes Bild. Warum ist ein HDMI-Eingang erforderlich, da der Monitor bereits über einen DVI-Eingang verfügt? Bitte erläutern Sie die Gründe für Ihren Kommentar.
Greenonline

Antworten:

44

VGA ist das einzige analoge Signal von den oben genannten, daher ist es bereits eine Erklärung für den Unterschied. Die Verwendung des Adapters kann Ihre Situation weiter verschlechtern.

Weitere Informationen: http://www.digitaltrends.com/computing/hdmi-vs-dvi-vs-displayport-vs-vga/

Máté Juhász
quelle
2
Ein wichtiger Punkt dabei ist, dass fast alle VGA-Kabel Müll sind. Mit VGA erhalten Sie eine relativ gute Bildqualität, aber das Kabel muss ungefähr 3x dicker sein als das, was normalerweise mit Displays / Fernsehern gebündelt wird.
Analytik
@analytik Ich werde einfach weitermachen und sagen, dass Sie fast falsch liegen. Damit das Kabel dicker wird, muss es zuerst ein Kabel geben ... Sie versenden nur den Fernseher und (manchmal) die Bildschirme mit nur dem Stromkabel, und Sie sind bereits ein Glückspilz. Wenn sie könnten, würden sie es ohne verkaufen jedes Kabel!
Ismael Miguel
@IsmaelMiguel Nun, ich denke, das hängt davon ab, wo du wohnst, also irren wir uns beide in gewisser Weise. Bei allen CRT- und LCD-Bildschirmen, die ich in 3 verschiedenen europäischen Ländern gekauft und verkauft habe, wird gewöhnlich ein D-SUB-Kabel mitgeliefert, auch wenn der Bildschirm DVI / HDMI / DisplayPort unterstützt. Obwohl ich zugebe, dass ich nicht viele LCD-Fernseher verkauft habe, könnte der Brauch dort anders sein.
analytik
@analytik Ich lebe in Portugal und normalerweise war an den CRT-Bildschirmen ein Kabel angeschlossen, und es war selten, dass ein Bildschirm mit einem abnehmbaren Kabel zu sehen war. Manchmal werden die LCD-Bildschirme mit einem VGA-Kabel von sehr geringer Qualität geliefert. LCD-Fernseher, Plasma-Fernseher und andere Geräte werden nur mit dem Netzkabel / -adapter geliefert. Manchmal ist das Netzkabel angeschlossen und kann nicht entfernt werden. Das ist aber selten.
Ismael Miguel
@IsmaelMiguel, Sie haben Recht - mein Freund, der im IT-Einzelhandel tätig war, sagte, dass LCD-Bildschirme normalerweise mit 1 oder 2 Kabeln (D-Sub / DVI) geliefert werden, Fernseher jedoch so gut wie nie.
Analytik
12

Unter der Annahme, dass Helligkeit, Kontraktion und Schärfe in beiden Fällen gleich sind, kann es zwei weitere Gründe geben, warum der Text bei DVI / HDMI schärfer ist:

Die erste wurde bereits erwähnt. VGA ist analog, daher muss im Monitor eine Analog-Digital-Wandlung durchgeführt werden, die theoretisch die Bildqualität beeinträchtigt.

Angenommen, Sie verwenden Windows, gibt es ein von Microsoft entwickeltes Verfahren namens ClearType, das die Darstellung von Text durch Manipulation der Subpixel eines LCD-Monitors verbessert. VGA wurde unter Berücksichtigung von CRT-Monitoren entwickelt und die Vorstellung eines Subpixels ist nicht dieselbe. Aufgrund der Anforderung, dass ClearType einen LCD-Bildschirm verwenden muss, und der Tatsache, dass der VGA-Standard dem Host nicht mitteilt, dass die Spezifikationen des Bildschirms ClearType würde mit einer VGA-Verbindung deaktiviert.

Quelle: Ich erinnere mich, dass ich von einem seiner Schöpfer in einem Podcast für This (). Developers (). Life () IIRC von ClearType gehört habe, aber http://en.wikipedia.org/wiki/ClearType unterstützt auch meine Theorie. Auch HDMI ist abwärtskompatibel mit DVI und DVI unterstützt Electronic Display Identification (EDID).

youngwt
quelle
4
"... und DVI unterstützt Electronic Display Identification (EDID)", ebenso VGA. Ich konnte nicht herausfinden, ob es in EDID ein Feld gibt, das den Anzeigetyp tatsächlich identifiziert. Haben Sie diese Informationen?
Random832
7

Die anderen machen einige gute Punkte, aber der Hauptgrund ist eine offensichtliche Takt- und Phasenfehlanpassung. Der VGA ist analog und unterliegt Störungen und Fehlanpassungen der analogen Sende- und Empfangsseite. Normalerweise würde man ein Muster wie dieses verwenden:

http://www.lagom.nl/lcd-test/clock_phase.php

Stellen Sie die Uhr und die Phase des Monitors ein, um die beste Übereinstimmung und das schärfste Bild zu erzielen. Da es sich jedoch um ein analoges Signal handelt, können sich diese Einstellungen mit der Zeit verschieben. Daher sollten Sie idealerweise nur ein digitales Signal verwenden.

Jarrod Christman
quelle
Netter Link !! :-)
Peque
5

Es gibt einige Antworten, die auf ein korrektes digitales Signal im Vergleich zu einem analogen Signal hinweisen. Aber das beantwortet das Warum nicht? Ein paar der erwähnten Übersetzungsebenen, das ist auch so, eine normale A / D-Wandlung kann zu einem Verlust an Wiedergabetreue führen, aber Sie müssen dies messen, da es schwierig ist, die Unterschiede mit bloßem Auge zu erkennen. Ein billiger Umtausch und alle Wetten sind aus.

Warum ist digital besser als analog?

Ein analoges RGB-Signal (z. B. VGA) verwendet die Amplitude des Signals (0,7 Volt Spitze-Spitze bei VGA). Wie bei allen Signalen tritt Rauschen auf, das, wenn es groß genug ist, dazu führt, dass die Pegel falsch übersetzt werden.

Reflexionen im Kabel (Impedanzfehlanpassungen) sind tatsächlich der größte Nachteil eines analogen Videosignals. Dies führt zu zusätzlichen Störungen und wird bei längeren Kabeln (oder billigeren Kabeln) umso schlimmer, je höher die Auflösung des Videos ist, umso höher ist das Signal-Rausch-Verhältnis. Interessanterweise sollten Sie bei einem 800x600-Signal keinen Unterschied feststellen können, es sei denn, das VGA-Kabel ist zu lang.

Wie vermeidet ein digitales Signal diese Fallstricke? Gut für einen ist das Niveau nicht mehr relevant. Auch DVI-D / HDMI verwendet ein Differenzsignal sowie eine Fehlerkorrektur, um sicherzustellen, dass Einsen und Nullen korrekt übertragen werden. Ein digitales Signal wird zusätzlich aufbereitet, was für ein analoges Videosignal nicht sinnvoll ist.

Tut mir leid für die Seifenkisten-Jungs, aber das sind die Fakten.

Zameru
quelle
3

Ein weiteres Problem ist, dass viele VGA-Kabel Junk sind. Wenn das VGA - Kabel weniger als 1/4" dick, Sie werden wahrscheinlich feststellen , Ghosting auf größeren Monitoren (je höher die rez, eher Ghosting). Ich habe sogar beachteten Ghosting auf dem angeschlossenen VGA - Kabel auf etwa 19" CRT montitors. Meine VGA-Kabel sind ca. 1/3 "dick und es hilft wirklich bei der Schärfe (dickere Drähte, mehr Abschirmung)

matt
quelle
1
Vom Kabeldurchmesser kann man eigentlich nichts sagen. Schwere Drähte und mehr Abschirmung können größer sein, oder größer kann nur dickere Isolierung bedeuten, oder kleiner kann besser sein, wenn dünnere, aber wirksame Abschirmung und dünnere Isolierung verwendet werden.
Fixer1234
2

HDMI und DVI sind sehr ähnlich. Beide sind digital; Die Hauptunterschiede sind, dass HDMI Audio und HDCP unterstützt. Beim Umschalten zwischen HDMI und DVI wird nur wenig konvertiert, sondern es werden nur die passenden Stifte an den Anschlüssen angeschlossen. Display Port ist ein digitales Protokoll, aber VGA ist analog, und der Konverter führt wahrscheinlich zu kleinen Fehlern und einer Verringerung der Schärfe des Signals. Der Monitor wandelt das Signal wahrscheinlich wieder in ein digitales Signal um, wodurch eine weitere Umwandlung erfolgt, die sich nachteilig auf die Qualität auswirkt.

Insgesamt hat Computer-> HDMI-> DVI-> Monitor weniger tatsächliche Konvertierungen als Computer-> DisplayPort-> VGA-> Monitor und konvertiert das Signal niemals in Analog, was ein schärferes Bild ergibt.

Josh der Aussenseiter
quelle
Sie können HDCP auch mit DVI haben.
Carsten S
1

HDMI und DVI sind eigentlich ein und dasselbe (zumindest in Ihrem Kontext). DVI-Anschlüsse sind eigentlich nur HDMI-Anschlüsse mit einer anderen Pinbelegung (die Pinreihen) sowie VGA-Anschlüsse mit einer anderen Pinbelegung (die Pins sind kreuzförmig angeordnet). Wenn Sie sich Ihren HDMI-zu-DVI-Konverter ansehen, werden Sie wahrscheinlich feststellen, dass der kreuzförmige Teil fehlt.

Sie vergleichen also ein HDMI-Bild mit einem VGA-Bild und, wie @Josh betont hat, eines, das eine tatsächliche Konvertierung beinhaltet.

Es gibt tatsächlich einen Unterschied zwischen HDMI und DVI, aber er ist für Sie nicht relevant. HDMI kann zusätzliche Signale übertragen, einschließlich des Verschlüsselungssignals für Inhaltsschutz, Ton, Ethernet usw.

Kevin Keane
quelle