Aller au contenu

[CG] Cordon DVI utile ou inutile?


Cordon DVI utile ou inutile?  

41 membres ont voté

Vous n’avez pas la permission de voter dans ce sondage, ou de voir les résultats du sondage. Veuillez vous connecter ou vous inscrire pour voter dans ce sondage.

Messages recommandés

Cordon DVI utile ou inutile?, Par rapport au bon vieux VGA

IBM-VGA-MM_LARGE.gifVS 10208.jpg

Bon, biensur ne faites pas que voter, donnez aussi des avis plus précis :eeek2: .

Parlez des changements dans les jeux-vidéos, les vidéos de fesses, sur le bureau, ect, ect.

Si vous avez des bons plan de cordons pas cher et de qualité n'ésitez pas :mdr:

:incline:

Lien vers le commentaire
Partager sur d’autres sites

Faux, ce sont des arguments marketting de merde...l'utilisation d'une prise DVI permet aux constructeurs de faire des économies...et pas que des petites...même si tom's a l'air de dire que le DVI est mieux que le VGA, ce qui en un certain sens est vrai...il n'en faut néanmoins pas oublier toutes les contraintes générée par son utilisation...je vous laisse lire l'article...

http://www.tomshardware.fr/qualite-des-con...e-3d-820-1.html

Il faut savoir également que pour faire la promotion du tout DVI, certains constructeurs afin de justifier son utilisation on réduit la qualité des ADC utilisés dans leurs écran...introduisant par là même un flou artificiel lors de l'utilisation de l'entrée VGA...leur permettant ainsi de cracher dans la soupe...

En réalité, le DVI ne se justifie que sur des très hautes résolutions...mais là, c'est générallement les cartes graphiques et les cables qui constituent le maillon faible...surtout si les CG sont issues de la firme au caméléon (cf l'article précédemment cité)...

Lien vers le commentaire
Partager sur d’autres sites

Du marketing bof. Le DVI est forcément supérieur ou égal en qualité par rapport au VGA sur un écran plat, après tout dépend de la qualité du convertisseur anologie->numérique de l'écran. Enfin quand on en a l'occasion vaut mieux prendre du DVI ( surtout s'il est fourni avec l'écran :D )

Lien vers le commentaire
Partager sur d’autres sites

1/Acer ne doit pas utiliser des DAC de qualité...d'ailleurs le LCD ayant le meilleur rapport qualité/prix/perf du moment n'embarque pas de port DVI...je parle bien évidemment du best seller de samsung, le SyncMaster 913N...

2/La qualité du signal recu par l'écran dépend grandement des composants embarqués sur la CG, comme le montre l'article de Tom's, ainsi que de la qualité du cable employé...au dela de 3 mètres, si le cable n'est pas blindé correctement, la qualité d'affichage est bien pire que ce que l'on a en utilisant du VGA...

En fait, le DVI n'est réellement utile que sur des très hautes résolutions...et encore, générallement en réduisant la fréquence...ce qui en réduit l'intéret...à moins bien évidemment de disposer d'une carte graphique professionnelle supportant le mode dual link...

Lisez l'article de tom's avant de faire des réponses...

Lien vers le commentaire
Partager sur d’autres sites

Perso, le DVI ca me gonfle... J'ai acheter un BENQ FP91G+ dans l'espoir que le rendu serait meilleur surtout pour les photos.... mais que dal, rien niet, nada.... Par rapport a mon Samsung 913V pourtant juste à côter je vois zéro différence..... Mais le pire dans ces écrans, ce n'est pas que le DVI, mais la course aux MS.... Je me suis arrêter sur un 8MS.... Au même prix y'avait un 4MS.... Mais.... Allés joués à des jeux après... une horreur.... C'est tellement rapide, que les 4/2/1ms coupes littéralement les images dans les jeux, ca en devient carrement injouable...

Bref le DVi pour moi, c'est une pure arnaque.

Lien vers le commentaire
Partager sur d’autres sites

Ben à la base, un adaptateur sert à adapter :censored:

Donc c'est pas toujours génial comme résultat...

huor -> Je n'ai jamais testé d'écrans en descendant en dessous des 8ms...mais bon, il est clair que la rapidité se fait au détriment de la qualité...le meilleur compromis actuellement reste le 8ms...

Lien vers le commentaire
Partager sur d’autres sites

Franchement, le DVI est de loin supérieur au VGA dans les mêmes conditions!

Bon c'est sur qu'avec un ptit 17" on voit presque pas de différence (et encors y'a interret a faire une bonne synchro en VGA alors qu'en DVI hop sa marche direct)

Mais moi sur mon vidéoproj 16/9 avec une diagonale affichée de 109" en 1280x720, ben on la vois la différence entre le VGA et le DVI.

Certes il est possible d'avoir la qualitée du DVI en étant en VGA en ayant un excellent cable court avec ferrites a chaque bout et bon blindage mais faut passer quelques minutes a calibrer la synchro sur des mires de test, et au bout de 30min il faut tout refaire car la température des DAC et ADC ont changés.

En DVI on branche et roule, les mire sont nickel et ont a bien un pixel mapping de 1:1.

En plus avec le DVI il y a forcement le DDC avec alors qu'en VGA c'est pas tout le temps.

Bref le DVI ca se branche et sa marche direct sans reglage de façon nickel (et en plus windows prend directement la resolution native de l'ecran car il lit les infos DDC)

Dernière chose, vous pourrez toujours vous grattez pour avoir l'HDCP sur une prise VGA :transpi: Donc aurevoir les films HD (de façon légal biensur lol)

Lien vers le commentaire
Partager sur d’autres sites

2/La qualité du signal recu par l'écran dépend grandement des composants embarqués sur la CG, comme le montre l'article de Tom's, ainsi que de la qualité du cable employé...au dela de 3 mètres, si le cable n'est pas blindé correctement, la qualité d'affichage est bien pire que ce que l'on a en utilisant du VGA...

Lisez l'article de tom's avant de faire des réponses...

C'est du numérique, donc soit ça passe, soit ça passe pas. La qualité n'est pas modifiée, c'est juste la résolution maxi atteignable qui diminue avec un TMDS ou un cable de mauvaise qualité, contrairement au VGA ( analogique ).

Perso, le DVI ca me gonfle... J'ai acheter un BENQ FP91G+ dans l'espoir que le rendu serait meilleur surtout pour les photos.... mais que dal, rien niet, nada.... Par rapport a mon Samsung 913V pourtant juste à côter je vois zéro différence..... Mais le pire dans ces écrans, ce n'est pas que le DVI, mais la course aux MS.... Je me suis arrêter sur un 8MS.... Au même prix y'avait un 4MS.... Mais.... Allés joués à des jeux après... une horreur.... C'est tellement rapide, que les 4/2/1ms coupes littéralement les images dans les jeux, ca en devient carrement injouable...

Bref le DVi pour moi, c'est une pure arnaque.

Active la vsync, le fait que l'image soit coupée n'a rien à voir avec le temps de réponse de l'écran ( et encore moins avec le DVI ).

Il n'y aucune raison de cracher sur le DVI, c'est juste une interface bien plus adaptée au fonctionnement d'un écran TFT, le VGA est là pour conserver la compatibilité avec les anciens matériels, car dans l'absolu mettre du VGA sur un écran TFT qui ne cause qu'en numérique n'a aucun intérêt.

Lien vers le commentaire
Partager sur d’autres sites

  • 3 semaines après...
Celle retenue consiste à proposer un petit frère du 10 20 35W, dépourvu de prise DVI. Le 10 20 30W n´est qu´en VGA. Un coup d´oeil sur les forums permet de se rendre compte que cette interface véhicule une image assez négative. Il paraît que le rendu des couleurs serait moins bon, que l´image est un peu floue, que la réactivité est moindre... Sornettes ! Ça ne change rien, heureusement. Au pire l´image peut manquer de netteté au démarrage. Dans ce cas sélectionnez l´option d´auto ajustement de l´image et ce sera parfait en deux secondes.

http://www.hardware.fr/articles/619-3/comp...-6-8-16-ms.html

Après, ce n'est pas parceque "c'est du numérique" que le signal ne peut pas être altéré...le TEB, ca te dis quelque chose :transpi:

S'il est trop important, ca m'étonnerais que la réception du signal soit optimale :francais:

Enfin, pour faire "causer" un TFT en analogique, il suffit de lui mettre des composants adaptés (DAC entre autres) et de bonne qualité (de préférence)...

Lien vers le commentaire
Partager sur d’autres sites

Non le signal n'est pas altéré, soit ça passe ou ça passe pas. Mais en tous cas on n'a pas une perte de qualité progressive comme en analogique.

C'est un peu comme la différence entre la tv hertzienne analogique et la tnt.

Enfin tu ne trouves pas ça dommage de perdre son temps à convertir 2 fois le signal ? Le VGA c'était bon pour les écrans à tube, maintenant ce n'est plus vraiment adapté.

Lien vers le commentaire
Partager sur d’autres sites

La perte de temps est négligeable...et si la qualité est la même, je ne vois pas le problème...d'autant qu'il ne faut pas perdre de vue l'argument financier...les meilleurs LCD sont produits en Asie, et la plupart des fabriquants n'ont pas d'usine en Europe...ces écrans sont donc sujets à une taxe injuste de 14% (20% pour l'utilisateur final)...a qualité équivalente, un écran avec DVI vaudra donc 20% plus cher que le même écran équipé d'une simple prise VGA...et vu que tout le monde n'est pas crésus...ben...

Ensuite, en numérique, il y a aussi une progressivité de la perte de qualité, même s'il est vrai qu'elle est plus "raide" qu'en analogique...si un symbole est transformé en un autre symbole très éloigné du symbole originel, c'est quasi indétectable...et pourtant l'image est altérée...donc oui, il peut y avoir de la perte de qualité en numérique...

Enfin, je veux bien que tu arrive a trouver une quelconque différence entre la version VGA et la version DVI de mon écran (Samsung SyncMaster 913N - VGA) :eeek2:

Lien vers le commentaire
Partager sur d’autres sites

Charles.w -> Je disais juste que c'était aberrant d'utiliser une entrée VGA au lieu d'une DVI d'un point de vue technique, après il est évident que les taxes ont un impact économique.

Mais une chose est sûre dans le cadre d'une utilisation standard le DVI permet d'avoir une image d'une qualité supérieure ou égale au VGA.

Lien vers le commentaire
Partager sur d’autres sites

Salut,

Moi j'ai jamais entendu parler de "meilleur qualité d'image" mais plutôt d'un meilleur débit.

Et ce débit nous sert à avoir de meilleur taux de rafraichissement. On peut donc avoir une grosse résolution avec un meilleur taux de rafraichissement.

Je ne parle pas sens savoir car j'ai changé de sortie et j'ai vu que je pouvais monter en 1280*1024 à 100hz alors qu'en vga avec la même résolution j'ai 85hz max.

La différence n'est pas énorme mais les yeux se fatigue moins.

C'est aussi vrai que 1 et 1 font 2. :transpi:

Lien vers le commentaire
Partager sur d’autres sites

Archivé

Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.

×
×
  • Créer...