diseqc Posté(e) le 6 avril 2006 Partager Posté(e) le 6 avril 2006 Cordon DVI utile ou inutile?, Par rapport au bon vieux VGA VS Bon, biensur ne faites pas que voter, donnez aussi des avis plus précis . Parlez des changements dans les jeux-vidéos, les vidéos de fesses, sur le bureau, ect, ect. Si vous avez des bons plan de cordons pas cher et de qualité n'ésitez pas Lien vers le commentaire Partager sur d’autres sites More sharing options...
ZyriK Posté(e) le 6 avril 2006 Partager Posté(e) le 6 avril 2006 Lorsque j'avais ma X850 XT, j'avais un écran en DVI, j'autre en VGA et j'ai jamais fais la difference ! Conclusion : Ca change rien ... Lien vers le commentaire Partager sur d’autres sites More sharing options...
Quarky Posté(e) le 6 avril 2006 Partager Posté(e) le 6 avril 2006 Normalement la qualité d'affichage doit etre meilleure avec le DVI car son débit est plus important ... Lien vers le commentaire Partager sur d’autres sites More sharing options...
Charles.w Posté(e) le 6 avril 2006 Partager Posté(e) le 6 avril 2006 Faux, ce sont des arguments marketting de merde...l'utilisation d'une prise DVI permet aux constructeurs de faire des économies...et pas que des petites...même si tom's a l'air de dire que le DVI est mieux que le VGA, ce qui en un certain sens est vrai...il n'en faut néanmoins pas oublier toutes les contraintes générée par son utilisation...je vous laisse lire l'article... http://www.tomshardware.fr/qualite-des-con...e-3d-820-1.html Il faut savoir également que pour faire la promotion du tout DVI, certains constructeurs afin de justifier son utilisation on réduit la qualité des ADC utilisés dans leurs écran...introduisant par là même un flou artificiel lors de l'utilisation de l'entrée VGA...leur permettant ainsi de cracher dans la soupe... En réalité, le DVI ne se justifie que sur des très hautes résolutions...mais là, c'est générallement les cartes graphiques et les cables qui constituent le maillon faible...surtout si les CG sont issues de la firme au caméléon (cf l'article précédemment cité)... Lien vers le commentaire Partager sur d’autres sites More sharing options...
diseqc Posté(e) le 6 avril 2006 Auteur Partager Posté(e) le 6 avril 2006 Merci pour cette reponse. Encore du marketing, pfff Je vais quand même lire l'article de Tom's ça a l'air interréssant. Et continuez à votez Lien vers le commentaire Partager sur d’autres sites More sharing options...
paulez Posté(e) le 6 avril 2006 Partager Posté(e) le 6 avril 2006 Du marketing bof. Le DVI est forcément supérieur ou égal en qualité par rapport au VGA sur un écran plat, après tout dépend de la qualité du convertisseur anologie->numérique de l'écran. Enfin quand on en a l'occasion vaut mieux prendre du DVI ( surtout s'il est fourni avec l'écran ) Lien vers le commentaire Partager sur d’autres sites More sharing options...
Morbid069 Posté(e) le 6 avril 2006 Partager Posté(e) le 6 avril 2006 Je pensais que c'était inutile jusqu'a ce qu'un pote qui fait du dual screen change d'ecran et prenne deux tft acer (je sais plus la ref) et il y en a un branché en dvi et l'autre pas et la qualite d'image est meilleur avec le dvi Lien vers le commentaire Partager sur d’autres sites More sharing options...
Charles.w Posté(e) le 6 avril 2006 Partager Posté(e) le 6 avril 2006 1/Acer ne doit pas utiliser des DAC de qualité...d'ailleurs le LCD ayant le meilleur rapport qualité/prix/perf du moment n'embarque pas de port DVI...je parle bien évidemment du best seller de samsung, le SyncMaster 913N... 2/La qualité du signal recu par l'écran dépend grandement des composants embarqués sur la CG, comme le montre l'article de Tom's, ainsi que de la qualité du cable employé...au dela de 3 mètres, si le cable n'est pas blindé correctement, la qualité d'affichage est bien pire que ce que l'on a en utilisant du VGA... En fait, le DVI n'est réellement utile que sur des très hautes résolutions...et encore, générallement en réduisant la fréquence...ce qui en réduit l'intéret...à moins bien évidemment de disposer d'une carte graphique professionnelle supportant le mode dual link... Lisez l'article de tom's avant de faire des réponses... Lien vers le commentaire Partager sur d’autres sites More sharing options...
RaphAstronome Posté(e) le 6 avril 2006 Partager Posté(e) le 6 avril 2006 Avec un DVI l'écran ce re-synchronise mieux et plus vite. Toutefois c'est pas franchement utile lorsqu'on reste sur la même résolution. Le DVI permettrait (peut-être) de lire les vidéos HD DRMisés. Ben oui l'avenir quoi :prison: Lien vers le commentaire Partager sur d’autres sites More sharing options...
Charles.w Posté(e) le 6 avril 2006 Partager Posté(e) le 6 avril 2006 Le VGA ne pose aucun problème là dessus... Sinon, sur un LCD, 99,99% du temps (hors boot de Windows), je suis en 1280x1024... Lien vers le commentaire Partager sur d’autres sites More sharing options...
Invité Posté(e) le 6 avril 2006 Partager Posté(e) le 6 avril 2006 Perso, le DVI ca me gonfle... J'ai acheter un BENQ FP91G+ dans l'espoir que le rendu serait meilleur surtout pour les photos.... mais que dal, rien niet, nada.... Par rapport a mon Samsung 913V pourtant juste à côter je vois zéro différence..... Mais le pire dans ces écrans, ce n'est pas que le DVI, mais la course aux MS.... Je me suis arrêter sur un 8MS.... Au même prix y'avait un 4MS.... Mais.... Allés joués à des jeux après... une horreur.... C'est tellement rapide, que les 4/2/1ms coupes littéralement les images dans les jeux, ca en devient carrement injouable... Bref le DVi pour moi, c'est une pure arnaque. Lien vers le commentaire Partager sur d’autres sites More sharing options...
diseqc Posté(e) le 6 avril 2006 Auteur Partager Posté(e) le 6 avril 2006 Ce que je déconseille c'est les adaptateur DVI>VGA Loresque j'utilise ça mon écran est tou flou. Mais je sais pas si c'est le cas avec tout les écran et/ou CG. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Charles.w Posté(e) le 6 avril 2006 Partager Posté(e) le 6 avril 2006 Ben à la base, un adaptateur sert à adapter Donc c'est pas toujours génial comme résultat... huor -> Je n'ai jamais testé d'écrans en descendant en dessous des 8ms...mais bon, il est clair que la rapidité se fait au détriment de la qualité...le meilleur compromis actuellement reste le 8ms... Lien vers le commentaire Partager sur d’autres sites More sharing options...
Morbid069 Posté(e) le 7 avril 2006 Partager Posté(e) le 7 avril 2006 Ce que je déconseille c'est les adaptateur DVI>VGA Loresque j'utilise ça mon écran est tou flou. Mais je sais pas si c'est le cas avec tout les écran et/ou CG. Sur le pc de mon frere il y en a un mais je n'ai jamais remarqué que c'était flou Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alois54 Posté(e) le 7 avril 2006 Partager Posté(e) le 7 avril 2006 Franchement, le DVI est de loin supérieur au VGA dans les mêmes conditions! Bon c'est sur qu'avec un ptit 17" on voit presque pas de différence (et encors y'a interret a faire une bonne synchro en VGA alors qu'en DVI hop sa marche direct) Mais moi sur mon vidéoproj 16/9 avec une diagonale affichée de 109" en 1280x720, ben on la vois la différence entre le VGA et le DVI. Certes il est possible d'avoir la qualitée du DVI en étant en VGA en ayant un excellent cable court avec ferrites a chaque bout et bon blindage mais faut passer quelques minutes a calibrer la synchro sur des mires de test, et au bout de 30min il faut tout refaire car la température des DAC et ADC ont changés. En DVI on branche et roule, les mire sont nickel et ont a bien un pixel mapping de 1:1. En plus avec le DVI il y a forcement le DDC avec alors qu'en VGA c'est pas tout le temps. Bref le DVI ca se branche et sa marche direct sans reglage de façon nickel (et en plus windows prend directement la resolution native de l'ecran car il lit les infos DDC) Dernière chose, vous pourrez toujours vous grattez pour avoir l'HDCP sur une prise VGA Donc aurevoir les films HD (de façon légal biensur lol) Lien vers le commentaire Partager sur d’autres sites More sharing options...
paulez Posté(e) le 7 avril 2006 Partager Posté(e) le 7 avril 2006 2/La qualité du signal recu par l'écran dépend grandement des composants embarqués sur la CG, comme le montre l'article de Tom's, ainsi que de la qualité du cable employé...au dela de 3 mètres, si le cable n'est pas blindé correctement, la qualité d'affichage est bien pire que ce que l'on a en utilisant du VGA... Lisez l'article de tom's avant de faire des réponses... C'est du numérique, donc soit ça passe, soit ça passe pas. La qualité n'est pas modifiée, c'est juste la résolution maxi atteignable qui diminue avec un TMDS ou un cable de mauvaise qualité, contrairement au VGA ( analogique ). Perso, le DVI ca me gonfle... J'ai acheter un BENQ FP91G+ dans l'espoir que le rendu serait meilleur surtout pour les photos.... mais que dal, rien niet, nada.... Par rapport a mon Samsung 913V pourtant juste à côter je vois zéro différence..... Mais le pire dans ces écrans, ce n'est pas que le DVI, mais la course aux MS.... Je me suis arrêter sur un 8MS.... Au même prix y'avait un 4MS.... Mais.... Allés joués à des jeux après... une horreur.... C'est tellement rapide, que les 4/2/1ms coupes littéralement les images dans les jeux, ca en devient carrement injouable...Bref le DVi pour moi, c'est une pure arnaque. Active la vsync, le fait que l'image soit coupée n'a rien à voir avec le temps de réponse de l'écran ( et encore moins avec le DVI ). Il n'y aucune raison de cracher sur le DVI, c'est juste une interface bien plus adaptée au fonctionnement d'un écran TFT, le VGA est là pour conserver la compatibilité avec les anciens matériels, car dans l'absolu mettre du VGA sur un écran TFT qui ne cause qu'en numérique n'a aucun intérêt. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Charles.w Posté(e) le 25 avril 2006 Partager Posté(e) le 25 avril 2006 Celle retenue consiste à proposer un petit frère du 10 20 35W, dépourvu de prise DVI. Le 10 20 30W n´est qu´en VGA. Un coup d´oeil sur les forums permet de se rendre compte que cette interface véhicule une image assez négative. Il paraît que le rendu des couleurs serait moins bon, que l´image est un peu floue, que la réactivité est moindre... Sornettes ! Ça ne change rien, heureusement. Au pire l´image peut manquer de netteté au démarrage. Dans ce cas sélectionnez l´option d´auto ajustement de l´image et ce sera parfait en deux secondes. http://www.hardware.fr/articles/619-3/comp...-6-8-16-ms.html Après, ce n'est pas parceque "c'est du numérique" que le signal ne peut pas être altéré...le TEB, ca te dis quelque chose S'il est trop important, ca m'étonnerais que la réception du signal soit optimale Enfin, pour faire "causer" un TFT en analogique, il suffit de lui mettre des composants adaptés (DAC entre autres) et de bonne qualité (de préférence)... Lien vers le commentaire Partager sur d’autres sites More sharing options...
paulez Posté(e) le 25 avril 2006 Partager Posté(e) le 25 avril 2006 Non le signal n'est pas altéré, soit ça passe ou ça passe pas. Mais en tous cas on n'a pas une perte de qualité progressive comme en analogique. C'est un peu comme la différence entre la tv hertzienne analogique et la tnt. Enfin tu ne trouves pas ça dommage de perdre son temps à convertir 2 fois le signal ? Le VGA c'était bon pour les écrans à tube, maintenant ce n'est plus vraiment adapté. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Charles.w Posté(e) le 26 avril 2006 Partager Posté(e) le 26 avril 2006 La perte de temps est négligeable...et si la qualité est la même, je ne vois pas le problème...d'autant qu'il ne faut pas perdre de vue l'argument financier...les meilleurs LCD sont produits en Asie, et la plupart des fabriquants n'ont pas d'usine en Europe...ces écrans sont donc sujets à une taxe injuste de 14% (20% pour l'utilisateur final)...a qualité équivalente, un écran avec DVI vaudra donc 20% plus cher que le même écran équipé d'une simple prise VGA...et vu que tout le monde n'est pas crésus...ben... Ensuite, en numérique, il y a aussi une progressivité de la perte de qualité, même s'il est vrai qu'elle est plus "raide" qu'en analogique...si un symbole est transformé en un autre symbole très éloigné du symbole originel, c'est quasi indétectable...et pourtant l'image est altérée...donc oui, il peut y avoir de la perte de qualité en numérique... Enfin, je veux bien que tu arrive a trouver une quelconque différence entre la version VGA et la version DVI de mon écran (Samsung SyncMaster 913N - VGA) Lien vers le commentaire Partager sur d’autres sites More sharing options...
X-System Posté(e) le 26 avril 2006 Partager Posté(e) le 26 avril 2006 Ce que je déconseille c'est les adaptateur DVI>VGA Loresque j'utilise ça mon écran est tou flou. Mais je sais pas si c'est le cas avec tout les écran et/ou CG. Mon écran n'a pas besoin un adaptateur car il a dual connection : DVI et D-Sub Lien vers le commentaire Partager sur d’autres sites More sharing options...
paulez Posté(e) le 26 avril 2006 Partager Posté(e) le 26 avril 2006 Charles.w -> Je disais juste que c'était aberrant d'utiliser une entrée VGA au lieu d'une DVI d'un point de vue technique, après il est évident que les taxes ont un impact économique. Mais une chose est sûre dans le cadre d'une utilisation standard le DVI permet d'avoir une image d'une qualité supérieure ou égale au VGA. Lien vers le commentaire Partager sur d’autres sites More sharing options...
seblink Posté(e) le 27 avril 2006 Partager Posté(e) le 27 avril 2006 Salut, Moi j'ai jamais entendu parler de "meilleur qualité d'image" mais plutôt d'un meilleur débit. Et ce débit nous sert à avoir de meilleur taux de rafraichissement. On peut donc avoir une grosse résolution avec un meilleur taux de rafraichissement. Je ne parle pas sens savoir car j'ai changé de sortie et j'ai vu que je pouvais monter en 1280*1024 à 100hz alors qu'en vga avec la même résolution j'ai 85hz max. La différence n'est pas énorme mais les yeux se fatigue moins. C'est aussi vrai que 1 et 1 font 2. Lien vers le commentaire Partager sur d’autres sites More sharing options...
cloudff7 Posté(e) le 27 avril 2006 Partager Posté(e) le 27 avril 2006 Moi j'ai voté la 1ere, j'ai noté un contraste plus net qu'avec mon cable VGA sur mon LCD L90D+ et ce malgrés la différence de fréquence entre l'analogique et le numérique (75 vs 60) Simple remarque donc DVI @ 60Hz pour ma part Lien vers le commentaire Partager sur d’autres sites More sharing options...
Charles.w Posté(e) le 27 avril 2006 Partager Posté(e) le 27 avril 2006 seblink -> Sur un LCD, le taux de rafraichissement n'a aucune importance... cloudff7 -> Ca dépend de la qualité des DAC intégrés à ton écran...y'avais un article de PPC sur le sujet, montrant que nombreux sont les constructeurs qui en intègrent un de mauvaise facture... Lien vers le commentaire Partager sur d’autres sites More sharing options...
seblink Posté(e) le 27 avril 2006 Partager Posté(e) le 27 avril 2006 C'est vrai mais moi je suis encore au tube(crt) Trop cher lcd de qualité. Hors sujet: en plus vous saviez que les tubes émettent des rayons X!!! Lien vers le commentaire Partager sur d’autres sites More sharing options...
Messages recommandés
Archivé
Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.