Pourquoi l'image HDMI-> DVI est-elle plus nette que VGA?


20

J'ai un moniteur Dell U2312HM connecté à un ordinateur portable Dell Latitude E7440. Lorsque je les connecte via laptop -> HDMI cable -> HDMI-DVI adaptor -> monitor(le moniteur n'a pas de prise HDMI), l'image est beaucoup plus nette qu'avec laptop -> miniDisplayPort-VGA adaptor -> VGA cable -> monitor. La différence est difficile à capturer avec un appareil photo, mais voyez ma tentative ci-dessous. J'ai essayé de jouer avec les paramètres de luminosité, de contraste et de netteté, mais je ne peux pas obtenir la même qualité d'image. La résolution est de 1920x1080, j'utilise Ubuntu 14.04.

VGA:

VGA

HDMI:

HDMI

Pourquoi la qualité est-elle différente? Est-ce intrinsèque à ces normes ou dois-je suspecter un câble VGA ou un adaptateur mDP-VGA défectueux?


6
Vous jouez probablement avec les mauvais paramètres. Utilisez un programme (ou un site Web ) qui peut générer un motif de test et ajuster les paramètres d' horloge et de phase .
David Schwartz

11
Gardez à l'esprit que HDMI et DVI utilisent le même signal / protocole - TMDS , donc la première option est parfaite (sans perte).

Solution évidente: obtenez un moniteur HDMI
Steven Penny

La plupart des sorties VGA modernes sont de faible qualité. C'est parce que plus personne ne s'en soucie. Oh, et vous avez essayé le bouton Auto lors de l'utilisation de VGA, non?
Daniel B

1
@StevenPenny - Comment cela aiderait-il? Il a déjà une image plus nette en utilisant un adaptateur HDMI-DVI. Le moniteur ayant déjà une entrée DVI, pourquoi une entrée HDMI serait-elle nécessaire? Veuillez développer le raisonnement derrière votre commentaire.
Greenonline

Réponses:


44

Le VGA est le seul signal analogique parmi ceux mentionnés ci-dessus, c'est donc déjà une explication de la différence. L'utilisation de l'adaptateur peut encore aggraver votre situation.

quelques lectures supplémentaires: http://www.digitaltrends.com/computing/hdmi-vs-dvi-vs-displayport-vs-vga/


2
Un gros point à souligner ici est que presque les câbles VGA sont des déchets. Vous pouvez obtenir une qualité d'image relativement décente avec VGA, mais le câble devrait être environ 3 fois plus épais que ce qu'il propose généralement avec les écrans / téléviseurs.
analytik

@analytik Je vais juste aller de l'avant et dire que vous avez presque tort. Pour que le câble soit plus épais, il doit d'abord y avoir un câble ... Ils expédient simplement les téléviseurs et (parfois) les écrans avec uniquement le câble d'alimentation et vous avez déjà de la chance. Si elles le pouvaient, ils le vendre sans tout câble!
Ismael Miguel

@IsmaelMiguel eh bien, je suppose que cela dépend de l'endroit où vous vivez, nous avons donc tous les deux tort en quelque sorte. Pour tous les écrans CRT et LCD que j'ai achetés et vendus dans 3 pays européens différents, l'habitude est de conditionner un câble D-SUB, même lorsque l'écran prend en charge DVI / HDMI / DisplayPort. Bien que j'avoue que je n'ai pas vendu de nombreux téléviseurs LCD, la coutume pourrait donc être différente.
analytik

@analytik J'habite au Portugal et généralement les écrans CRT étaient reliés par un câble et il était rare de voir un écran avec un câble détachable. Parfois, les écrans LCD sont livrés avec un câble VGA de très faible qualité. Mais les téléviseurs LCD et les téléviseurs plasma et autres ne sont fournis qu'avec le câble d'alimentation / l'adaptateur. Parfois, le câble d'alimentation est attaché et ne peut pas être retiré. Mais c'est rare.
Ismael Miguel

@IsmaelMiguel, vous avez raison - mon ami qui travaillait dans le commerce de détail informatique a déclaré que les écrans LCD sont généralement livrés avec 1 ou 2 câbles (D-Sub / DVI), mais les téléviseurs ne le font presque jamais.
analytik

12

En supposant que la luminosité, le contrat et la netteté sont les mêmes dans les deux cas, il pourrait y avoir 2 autres raisons pour lesquelles le texte est plus net avec DVI / HDMI:

Le premier a déjà été dit, le VGA est analogique et devra donc passer par une conversion analogique-numérique à l'intérieur du moniteur, cela dégradera théoriquement la qualité de l'image.

Deuxièmement, en supposant que vous utilisez Windows, il existe une technique appelée ClearType (développée par Microsoft) qui améliore l'apparence du texte en manipulant les sous-pixels d'un moniteur LCD. VGA a été développé avec des moniteurs CRT à l'esprit et la notion de sous-pixel n'est pas la même. En raison de la nécessité pour ClearType d'utiliser un écran LCD et du fait que la norme VGA ne dit pas à l'hôte les spécifications de l'affichage, ClearType serait désactivé avec une connexion VGA.

Source: Je me souviens avoir entendu parler de ClearType par l'un de ses créateurs sur un podcast pour This (). Developers (). Life () IIRC, mais http://en.wikipedia.org/wiki/ClearType soutient également ma théorie. HDMI est également rétrocompatible avec DVI et DVI prend en charge l'identification électronique de l'affichage (EDID)


4
«... et DVI prend en charge l'identification électronique de l'affichage (EDID)», tout comme VGA. Je n'ai pas pu savoir s'il y a un champ dans EDID qui identifie réellement le type d'affichage; avez-vous cette information?
Random832

7

Les autres soulèvent de bons points, mais la raison principale est un décalage évident d'horloge et de phase. Le VGA est analogique et est soumis à des interférences et à une non-concordance des côtés d'émission et de réception analogiques. Normalement, on utiliserait un modèle comme celui-ci:

http://www.lagom.nl/lcd-test/clock_phase.php

Et ajustez l'horloge et la phase du moniteur pour obtenir la meilleure correspondance et l'image la plus nette. Cependant, comme il est analogique, ces ajustements peuvent changer au fil du temps, et donc vous devriez idéalement utiliser simplement un signal numérique.


Bon lien !! :-)
Peque

5

Il y a quelques réponses indiquant un signal numérique vs analogique qui est correct. Mais cela ne répond pas au pourquoi? Quelques couches de traduction mentionnées, cela est également vrai, une conversion A / N traditionnelle peut entraîner une perte de fidélité, mais vous devrez mesurer cela car il est difficile de voir les différences à l'œil nu. Une conversion bon marché et tous les paris sont désactivés.

Alors pourquoi le numérique est-il meilleur que l'analogique?

Un signal RVB analogique (tel que VGA) utilise l'amplitude du signal (0,7 Volts crête à crête dans le cas de VGA). Comme tous les signaux, il y a du bruit qui, s'il est suffisamment grand, entraînera une conversion incorrecte des niveaux.

Les réflexions dans le câble (asymétries d'impédance) sont en fait la plus grande chute d'un signal vidéo analogique. Cela introduit du bruit supplémentaire et s'aggrave avec des câbles plus longs (ou moins chers), plus la résolution de la vidéo augmente également le rapport signal / bruit. Fait intéressant, vous ne devriez pas voir de différence dans un signal 800x600 à moins que le câble VGA ne soit trop long.

Comment un signal numérique évite-t-il ces pièges? Eh bien pour l'un, le niveau n'est plus pertinent. Le DVI-D / HDMI utilise également un signal différentiel ainsi qu'une correction d'erreur pour garantir que les uns et les zéros sont fidèlement transmis correctement. Il y a aussi un conditionnement supplémentaire ajouté à un signal numérique qui n'est pas pratique à ajouter à un signal vidéo analogique.

Désolé pour les gars de la boîte à savon, mais ce sont les faits.


3

Un autre problème est que beaucoup de câbles VGA sont indésirables. Si le câble VGA est inférieure à 1/4" d' épaisseur, vous aurez probablement remarquerez des images fantômes sur les écrans plus grands (supérieur au rez, ghosting plus probable). J'ai même ghosting remarqué sur le câble VGA fixé sur certains 19" CRT montitors. Mes câbles VGA mesurent environ 1/3 "d'épaisseur et cela aide vraiment à la netteté (Fils plus épais, plus de blindage)


1
Vous ne pouvez pas vraiment dire quoi que ce soit avec certitude du diamètre du câble. Des fils plus lourds et plus de blindage pourraient bien être plus gros, ou plus gros pourrait signifier simplement une isolation plus épaisse, ou plus petits pourraient être meilleurs en utilisant un blindage plus mince mais efficace et une isolation plus mince.
fixer1234

2

HDMI et DVI sont très similaires. Les deux sont numériques; les principales différences sont que HDMI prend en charge l'audio et le HDCP. Lors de la commutation entre HDMI et DVI, il y a peu de conversion réelle, mais plutôt la connexion des broches correspondantes sur les connecteurs. Le port d'affichage est un protocole numérique, mais le VGA est analogique, et le convertisseur introduit probablement de petits défauts et la réduction de la netteté dans le signal. Le moniteur reconvertit probablement le signal en numérique, entraînant une autre conversion qui affecte négativement la qualité.

Dans l'ensemble, l'ordinateur-> HDMI-> DVI-> moniteur a moins de conversions réelles que l'ordinateur-> DisplayPort-> VGA-> moniteur et ne convertit jamais le signal en analogique, donnant une image plus nette.


Vous pouvez également avoir HDCP avec DVI.
Carsten S

1

HDMI et DVI sont en fait une seule et même chose (du moins dans votre contexte). Les connecteurs DVI ne sont en réalité que des connecteurs HDMI avec un brochage différent (les rangées de broches), plus des connecteurs VGA avec un brochage différent (les broches disposées autour d'une forme de croix). Si vous regardez votre convertisseur HDMI-DVI, vous remarquerez probablement que la partie en forme de croix manque.

Vous comparez donc une image HDMI avec une image VGA et, comme l'a souligné @Josh, une image qui implique une conversion réelle.

Il y a en fait une différence entre HDMI et DVI, mais cela ne vous concerne pas. HDMI peut transporter des signaux supplémentaires, y compris le signal de cryptage pour la protection du contenu, le son, Ethernet, etc.

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.