Connect with us

Wie man

Warum liefert HDMI-DVI ein schärferes Bild als VGA?

Warum liefert HDMI-DVI ein schärferes Bild als VGA?

Bei all der großartigen Hardware, die wir heutzutage zur Verfügung haben, sollten wir, egal was passiert, eine hervorragende Anzeigequalität genießen, aber was ist, wenn dies nicht der Fall ist? Der heutige SuperUser Q & A-Beitrag versucht, die Dinge für einen verwirrten Leser zu klären.

Die Frage

SuperUser Reader Alkamid möchte wissen, warum es einen spürbaren Qualitätsunterschied zwischen HDMI-DVI und VGA gibt:

Ich habe einen Dell U2312HM-Monitor an einen Dell Latitude E7440-Laptop angeschlossen. Wenn ich sie über Laptop -> HDMI-Kabel -> HDMI-DVI-Adapter -> Monitor anschließe (der Monitor hat keine HDMI-Buchse), ist das Bild viel schärfer als wenn ich über Laptop -> miniDisplayPort-VGA-Adapter -> VGA verbinde Kabel -> Monitor.

Der Unterschied ist mit einer Kamera schwer zu erfassen, aber siehe meinen Versuch unten. Ich habe versucht, mit den Einstellungen für Helligkeit, Kontrast und Schärfe zu spielen, aber ich kann nicht die gleiche Bildqualität erzielen. Die Auflösung beträgt 1920 * 1080 mit Ubuntu 14.04 als meinem Betriebssystem.

VGA:

HDMI:

Warum ist die Qualität anders? Ist es diesen Standards eigen? Könnte ich ein fehlerhaftes VGA-Kabel oder einen fehlerhaften mDP-VGA-Adapter haben?

Warum gibt es einen Qualitätsunterschied zwischen den beiden?

Die Antwort

Die SuperUser-Mitarbeiter Mate Juhasz, youngwt und Jarrod Christman haben die Antwort für uns. Zuerst Mate Juhasz:

VGA ist das einzige analoge Signal unter den oben genannten, daher ist es bereits eine Erklärung für den Unterschied. Die Verwendung des Adapters kann die Qualität weiter verschlechtern.

Einige weiterführende Literatur: HDMI vs. DisplayPort vs. DVI vs. VGA

Gefolgt von der Antwort von youngwt:

Unter der Annahme, dass Helligkeit, Kontrast und Schärfe in beiden Fällen gleich sind, kann es zwei weitere Gründe geben, warum der Text bei HDMI-DVI schärfer ist.

Das erste wurde bereits erwähnt, VGA ist analog, daher muss im Monitor eine Analog-Digital-Wandlung durchgeführt werden. Dies verschlechtert theoretisch die Bildqualität.

Zweitens gibt es unter der Annahme, dass Sie Windows verwenden, eine Technik namens ClearType (von Microsoft entwickelt), die das Erscheinungsbild von Text durch Manipulieren der Subpixel eines LCD-Monitors verbessert. VGA wurde unter Berücksichtigung von CRT-Monitoren entwickelt, und die Vorstellung eines Subpixels ist nicht dieselbe. Aufgrund der Anforderung, dass ClearType einen LCD-Bildschirm verwenden muss, und der Tatsache, dass der VGA-Standard dem Host die Spezifikationen des Displays nicht mitteilt, wird ClearType mit einer VGA-Verbindung deaktiviert.

Ich erinnere mich, dass ich von einem seiner Schöpfer in einem Podcast für This (). Developers (). Life () IIRC von ClearType gehört habe, aber dies Wikipedia-Artikel unterstützt auch meine Theorie. Auch HDMI ist abwärtskompatibel mit DVI und DVI unterstützt die elektronische Anzeigeidentifikation (EDID).

Mit unserer endgültigen Antwort von Jarrod Christman:

Die anderen machen einige gute Punkte, aber der Hauptgrund ist eine offensichtliche Fehlanpassung von Uhr und Phase. VGA ist analog und unterliegt Interferenzen und Fehlanpassungen der analogen Sende- und Empfangsseite. Normalerweise würde man ein Muster wie dieses verwenden:

Uhr und Phase

Stellen Sie dann die Uhr und die Phase des Monitors ein, um die beste Übereinstimmung und das schärfste Bild zu erzielen. Da es sich jedoch um eine analoge Einstellung handelt, können sich diese Einstellungen im Laufe der Zeit verschieben. Daher sollten Sie idealerweise nur ein digitales Signal verwenden.

Haben Sie der Erklärung etwas hinzuzufügen? Ton aus in den Kommentaren. Möchten Sie weitere Antworten von anderen technisch versierten Stack Exchange-Benutzern lesen? Den vollständigen Diskussionsthread finden Sie hier.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Tendencia