Aller au contenu

[CG] Cordon DVI utile ou inutile?


Cordon DVI utile ou inutile?  

41 membres ont voté

Vous n’avez pas la permission de voter dans ce sondage, ou de voir les résultats du sondage. Veuillez vous connecter ou vous inscrire pour voter dans ce sondage.

Messages recommandés

Salut

pour le moment, c'est pas telement DVI ou VGA la question, ça viendra quand on aura des vidéos HDTV en 1080 et des ecrans capables de les afficher en résolution native...

le truc c'est le blindage des cables, on trouve des VGA de très bonne qualité, utilisé sur des LCD, aucun probleme, et on trouve aussi des cables mal blindés qui provoquent des perturbations sur les ecrans qu'ils soient LCD ou CRT ! (j'en ai acheté un, je me suis bien fais :iloveyou: )

enfin, j'imagine que les cables DVI qui sont fournis avec les écrans neufs sont de très bonne qualité, mais les cordons premier prix vendus au détails sont tout de même à proscrire...

Lien vers le commentaire
Partager sur d’autres sites

L'argument meilleure image c'est du flan.

Par contre l'utilisation d'un cable DVI supprime le bosoin d'adapter l'image à la taille de l'écran à chaque changement de résolution / fréquence, que ce soit manuelement, automatiquement par l'appui sur un bouton ou "full auto".

C'est donc une question de confort d'utilisation et rien d'autre.

seblink -> Sur un LCD, le taux de rafraichissement n'a aucune importance...

Là je ne suis pas tout à fait d'accord.

Avec un taux de rafraichissement de 60 Hz, on va demander à ton écran de dessiner une image toutes les 1/60 sec, soit toutes les 16.6 miliseconde. A 75 Hz on tombe à 13.3 ms.

Or je pense qu'il existe une corélation entre la réactivité de l'écran et le nombre d'images par seconde qu'on lui demande d'afficher. L'écran ne peut pas afficher quelque chose plus vite qu'on lui demande, c'est même le contraire.

Certes quand on va demander à l'écran de passer un pixel du blanc au noir, il va mettre "son temps de réactivité" pour le faire... mais si on lui demande "moins souvent" qu'il ne peut le faire ?

Intuitivement je me dis donc qu'il vaut mieux avoir un taux de rafraichissement qui induit des demandes à une vitesse proche de la réactivé.

Je me souviens d'un article chez Hardware.fr ou Tomshardware, datant de 2004 qui parlait de ça, mais j'ai du mal à remettre la main dessus.

Lien vers le commentaire
Partager sur d’autres sites

Pour ce qui est du reglage automatique de l'écran en fonction de la résolution...ca le fait aussi en utilisant un port VGA...ca ne dépend aucunement du cable utilisé...si tu veux je peux te faire une petite vidéo d'un passage de 1280x1024 à 800x600 et inversement :cartonrouge:

Pour l'argument de la qualité d'image, ca dépend aussi énormément du nombre de bits sur lequel sont codées les couleurs...

Ensuite, pour le taux de raffraichissement...je te rappelle que sur les écrans LCD, il n'y a pas de balayage, donc pas de scintillement, contrairement à ce qui se passe sur les CRT...et c'est justement pour combattre le scintillement que l'on était obligés d'augmenter le taux de raffraichissement...enfin, l'électronique des LCD est conçue pour fonctionner de manière optimale à 60Hz, quelque soit la résolution...alors que les 75Hz que l'on trouve parfois correspondent à la limite maximale atteignable par l'écran, et ce pas nécessairement dans la résolution maximale (sur ce point, c'est la même chose qu'avec les CRT), c'est d'ailleurs pour cela que certains constructeurs de cartes graphiques (ATI) proposent une option permettant de réduire la fréquence DVI dans les hautes résolutions...sinon, il faut aussi voir que les cable n'ont pas une bande passante infinie...

Enfin, pour les temps de réponse, qui descend maintenant en dessous des 1/60s...à priori, d'après ce que j'ai pu voir, les images manquantes sont obtenues en se servant de l'image précédente...après dire de quelle manière elle est utilisée, je pense que cela doit varier fortement d'un constructeur à un autre...ce ne sont pas des choses sur lesquelles ils communiquent...puisque c'est un facteur déterminant pour la qualité d'un écran et que seul le résultat affiché compte...

Pour étayer mes propos, une petite citation d'un article de tom's

Sur un CRT récent, il n'est plus concevable de travailler avec un rafraîchissement inférieur à 85 Hz. Concrètement, cela signifie que l'écran dessinera 85 images par secondes. Si la fréquence de rafraîchissement des CRT traduit souvent la qualité d'un écran, ce n'est absolument pas le cas sur les LCD. Dans un CRT, un faisceau d'électrons vient balayer l'écran. Plus souvent ce faisceau viendra dessiner l'image sur la dalle, meilleur sera lŽaffichage et plus haute sera la fréquence de rafraîchissement. On admet souvent que l'idéal est de travailler en 85 ou en 100 Hz.

Sur un moniteur LCD, l'image est fixe et composée non pas par un faisceau mais par des cellules rouges, vertes et bleues juxtaposées. La qualité d'affichage dépendra de leur rapidité à s'allumer et à s'éteindre. Ce facteur est représenté par le temps de réponse. Sur les écrans testés, il oscille entre 25 et 50 ms. Ce qui signifie aussi que le nombre maximal d’images affichées varie de 20 à 40 images par seconde suivant les moniteurs.

Source : http://www.tomshardware.fr/comparatif-de-1...iteur-53-1.html (2002)

Lien vers le commentaire
Partager sur d’autres sites

C'est normal que ton écran n'aille pas besoin de ce recalibrer puisque tu l'as surement déjà calibré dans cette résolution... (a moins que tu n'aille jamais été en 800x600 (j'en doutes par ex a l'install d'XP il passe en 800x600...) Et donc l'écran enregistre les infos de synchro.

En DVI même au tout premier allumage ou avec n'importe quel PC/Resolution/frequences supportés ben c'est directement parfait...

Change de PC (ou de carte graphique) voir juste de fréquence de rafraichissement et hop tu devras recalibrer l'écran, sans compter qu'on ne voit absolument pas sur la video si la synchro est correcte...

http://www.monitortest.net/ télécharge le programme de test des moniteurs, et fait les test "horizontal" et "vertical", la tu verras si ta synchro est bonne...

Lien vers le commentaire
Partager sur d’autres sites

On a jamais dis que c'était dur, juste qu'il fallait qu'il ce calibre auto quand c'est la première fois qu'il va dans cette resolution pas en DVI...

Quand a la qualitée de synchro je demande a voir le test horizontal ou vertical avec un bon APN même si y'a de fortes chances que sa soit bon...

Lien vers le commentaire
Partager sur d’autres sites

Sauf que même avec un très bon APN (un Canon PowerShot G6 (7 mega pixel) @ 3072x2304...tout le problème est de se caller exactement à la perpendiculaire du centre de la dalle, pour ne pas avoir de déformations...et ca, même avec la meilleure volonté du monde j'aurais du mal à le faire, sans pied pour mon APN...et encore, même avec cela, il y aura toujours de déformations liées à l'optique de l'APN...

Ensuite, tous les écrans se calibrent, même ceux utilisant une prise DVI...ca n'a rien à voir avec la connectique employée...si tu prend un écran bas de gamme, doté d'une connectique DVI, il ne se reglera jamais correctement (a moins que le constructeur ait oublié de faire des économies sur ce point)...et je pense que l'on a suffisament de mal avec ce genre d'écran à la fac...à chaque fois, on est obligés de regler les écrans manuellement...

Pour ton écran, le problème est le même qu'avec le mien...si tu va dans un couple résolution-fréquence que tu n'as jamais utilisé avant, l'écran fait un autoset (cf la deuxième vidéo) et mémorise les settings, et n'a donc plus besoin de le faire par la suite (cf la première vidéo)...

Lien vers le commentaire
Partager sur d’autres sites

Sauf que même avec un très bon APN (un Canon PowerShot G6 (7 mega pixel) @ 3072x2304...tout le problème est de se caller exactement à la perpendiculaire du centre de la dalle, pour ne pas avoir de déformations...et ca, même avec la meilleure volonté du monde j'aurais du mal à le faire, sans pied pour mon APN...et encore, même avec cela, il y aura toujours de déformations liées à l'optique de l'APN...

Ensuite, tous les écrans se calibrent, même ceux utilisant une prise DVI...ca n'a rien à voir avec la connectique employée...si tu prend un écran bas de gamme, doté d'une connectique DVI, il ne se reglera jamais correctement (a moins que le constructeur ait oublié de faire des économies sur ce point)...et je pense que l'on a suffisament de mal avec ce genre d'écran à la fac...à chaque fois, on est obligés de regler les écrans manuellement...

Pour ton écran, le problème est le même qu'avec le mien...si tu va dans un couple résolution-fréquence que tu n'as jamais utilisé avant, l'écran fait un autoset (cf la deuxième vidéo) et mémorise les settings, et n'a donc plus besoin de le faire par la suite (cf la première vidéo)...

1) même si la photo est prise sur le coté et que y'a de la déformation, c'est pas ça qui va m'empecher de voir si la synchro est bonne (enfin plutot je verrais facilement si elle est mauvaise et je verrais rien si c'est bon...) étant donnés qu'une mauvaise synchro ne donne pas de déformations mais des "agglutinement de lignes" ou des zones "floues" (en général sa donnes des couleurs un peu orangés... alors que le test c'est des ligne rgb 0,0,0 et 255,255,255...)

2) Je ne sais pas où tu a vus qu'il fallait regler un ecran en DVI, mais tu as complètement fummé, d'ailleur prend n'importe quel ecran branché en DVI et tu verras qu'on ne peut pas faire de "auto" et encors moins regler la synchro (je peut te faire une photo si tu veut... sur mes deux TFT le menu est soit "grisé" soit il disparait carrement). Le seul moyen que le DVI ne soit pas parfaitement reglé c'est de dépasser la synchro maximale de l'écran (76.5Hz pour le mien par exemple)

3)Peut importe que la resolution, la fréquence (en restant dans les specs de l'ecran evidemment), qu'il soit neuf ou pas, que tu ailles déjà utilisé les fréquences ou non, jamais tu n'auras a regler l'ecran lorsqu'il est en DVI (sauf la colorimétrie mais on parle pas de ça, surtout que c'est pareil en VGA...). Chez moi j'ai 3 diffuseurs DVI (dont un vidéoproj 1280x720 avec une diag de 109" lol) + 2 potes qui ont un TFT en DVI...

La raison pour laquel il n'y a pas besoin de faire de synchro en DVI c'est que l'electronique distingue parfaitement les paquets de blanking des paquets de vidéo (voir de data si c'est de l'HDMI...) Donc forcement l'écran il ne va pas afficher un paquet de blanking puisqu'ils sont identifiés en tant que tel (et de façon très clair un peu comme avec les paquets IP...)

Edit: Pour comparer avec le VGA, ce dernier n'a que la synchro H+V sur tout la surface d'affichage+la zone de blanking, donc l'écran doit essayer de deviner où est la zone image exacte sans le blanking pour chaque coté pour cela il regarde jusqu'ou tout les pixels ont pour valeur 0,0,0 (blanking) et dès qu'un pixel n'a plus cette valeur, il considère ca comme la zone image (enfin il doit y avoir un petit % d'erreur car l'analogique...) d'ailleur essaye de faire un auto lorsque tu affiche une image tout noir, l'ecran ne détectant pas de zone image, il va se calibrer sur un standart de synchro genre GTF, DMT ou SVC... Donc il suffit que la carte graphique ne soit pas sur le bon standart ou dans un mode "custom" et la synchro est complètement mauvaise...

Voilà si t'as des questions n'hésite pas :transpi: lol

Lien vers le commentaire
Partager sur d’autres sites

l'optique déforme les coté de l'image, donc les bord de l'écran...et l'image fait 4Mo...sur un coté de la photo, j'ai de la purée de pixel grise, alors que ca ne le fait pas sur l'écran...alors que l'APN est resté parfaitement stable...

Si tu n'a pas de correspondance exacte (ou une correspondance standard) 1 pixel transmis = 1 pixel affiché, les écran équipés d'une connectique DVI sont bien souvent incapable d'afficher l'image correctement, ce qui ne se produit jamais avec des écrans analogique...j'avais une démo qui avait été présenté à la mekka symposium il y a quelques année et qui resizait en dynamique la surface affichable, dans des résolutions hautement exotiques...sur les écrans analogique, ca ne pose aucun problème...par contre sur des écrans full numérique...

Je vais essayer de la retrouver (ie faut que je regarde la centaine de démo que j'ai sur mes disque durs, si je l'ai encore)...en tout cas, les déformations étaient assez flagrantes sur un CRT, puisque l'on pouvait nettement distinguer que certaines zone de l'écran n'étaient plus "arosées" par le canon à électron...c'était assez impressionnant...

Ensuite, le numérique n'est pas nécessairement synonyme de mieux disant...les meilleurs amplis sont des amplis à lampe...les calculettes de poche dotée de la meilleure précision interne sont mécanique (15 chiffre après la virgule, contre seulement 12 pour une calculette classique)...chacun a ses avantages et ses inconvénients...sufffit juste de le savoir...

Lien vers le commentaire
Partager sur d’autres sites

1/ l'optique déforme les coté de l'image, donc les bord de l'écran...et l'image fait 4Mo...sur un coté de la photo, j'ai de la purée de pixel grise, alors que ca ne le fait pas sur l'écran...

Comme tu le dis, la purée de pixel est grise ce qui n'est pas le cas avec une mauvaise synchro...

Attan j'avais des photos de ça sur la net je regarderais si je les retrouves, si oui je fais un edit...

2/ Si tu n'a pas de correspondance exacte (ou une correspondance standard) 1 pixel transmis = 1 pixel affiché, les écran équipés d'une connectique DVI sont bien souvent incapable d'afficher l'image correctement, ce qui ne se produit jamais avec des écrans analogique...j'avais une démo qui avait été présenté à la mekka symposium il y a quelques année et qui resizait en dynamique la surface affichable, dans des résolutions hautement exotiques...sur les écrans analogique, ca ne pose aucun problème...par contre sur les écrans qui ne connaissent que le numérique, il y a des artefact qui apparaissent...je vais essayer de la retrouver (ie faut que je regarde la centaine de démo que j'ai sur mes disque durs)...en tout cas, les déformations étaient assez flagrantes sur un CRT, puisque l'on pouvait nettement distinguer que certaines zone de l'écran n'étaient plus "arosées" par le canon à électron...c'était assez impressionnant...

Déjà 1) avec une carte ATI ou Nvidia quand tu allumes le PC avec un écran DVI, la carte lit le DDC et se met automatiquement dans la resolution native et scale l'image. (par exemple moi si je vais dans le bios mon ecran me dit que je suis en 1280x1024...), et c'est toujours la carte qui fait la mise a l'échelle par defaut (mais on peut biensur le desactiver et le faire faire par l'ecran... supersimple avec nvidia d'ailleur c'est marqué en énorme dans les drivers lol)

2) même quand c'est le moniteur qui fait la mise a l'échelle, je n'ai jamais eu de pb de qualitée même avec le 1920x1080 interpollé en 1280x720 sur mon videoproj, c'est sur en DVI l'interpollation est un peu plus "brutale" et nette car numérique alors qu'en vga c'est moin net mais plus doux car analogique. (perso j'aime bien l'interpollation du VGA...)

3)on parlais de synchro en résolution native au départ, je ne sais pas comment on c'est retrouvé de parler d'interpollation lol

4) même dans le pire de tes cas cités (c'est vrai que ca arrive vachement souvent chez un particulier mdrr) je crois pas que y'aille besion de regler l'ecran pour avoir la zone d'affichage correctement reglé en numérique...

Ensuite, le numérique n'est pas nécessairement synonyme de mieux disant...les meilleurs amplis sont des amplis à lampe...les calculettes de poche dotée de la meilleure précision interne sont mécanique (15 chiffre après la virgule, contre seulement 12 pour une calculette classique)...chacun a ses avantages et ses inconvénients...sufffit juste de le savoir...

Et oui par la bonne raison que nous humains nous vivonts dans un monde 100% analogique, nos sens le sont aussi...

Mais ca dépent aussi des gouts, moi par exemple je préfère de loin le rendu "brutale" et net d'un ampli a transistor plutot que la "chaleur" d'un ampli a lampe...

Lien vers le commentaire
Partager sur d’autres sites

Pour la dernière remarque on est d'accord...

Pour la démo dont je parle, à l'époque, j'avais un 19CRT iiyama qui faisait un degauss à chaque fois que l'on changeait de résolution via Windows...alors qu'avec cette démo, ca ne le faisait pas, alors que la forme et la taille de la surface affichable changeait bien au dela de ce qui était possible avec les reglages combinés et de l'écran et des drivers ATI (une 7500 à l'époque)...de plus lors du visionnement de cette démo, il était impossible d'afficher la résolution de l'écran via l'OSD...alors que cela n'a jamais posé problème avec d'autres applications...par conséquent, je doute que ce soit de l'interpolation...ensuite, il ne faut pas perdre de vue que les demomakers sont une espèce à part...faire tenir une démo de 5 minutes avec musique en 64ko relève de l'exploit...ce sont des gens qui étudient soigneusement les composant des diverses cartes, afin d'aller bien au dela de leurs limites imposées...

Lien vers le commentaire
Partager sur d’autres sites

de plus lors du visionnement de cette démo, il était impossible d'afficher la résolution de l'écran via l'OSD...alors que cela n'a jamais posé problème avec d'autres applications...par conséquent, je doute que ce soit de l'interpolation...

Une carte graphique ne fait de l'interpolation qu'en DVI (ou avec la sortie TV). Je n'ai jamais vu de carte graphique faire de l'interpollation en VGA (normal puisque le vga est fait al'origine pour les CRT qui vont niquel pour afficher n'importe quel résolution car ils ont pas une matrice fixe comme les LCD ou plasma etc...), d'ailleur lorsque tu branches un écran en VGA le drivers ne te dis presque jamais que c'est un ecran plat. Alors qu'en DVI le drivers affirme que c'est un ecran plat (en tous cas chez nvidia), même avec mon vidéoprojecteur sa me dit que c'est un ecran plat lol. C'est normal puisque le DVI a obligatoirement le DDC avec, donc plug and play, donc lecture de la resolution native etc.. (en revanche en VGA c'est rarement le cas...)

Mais bon on s'en fout y'a bientot l'UDI qui va sortir et là aurevoir le VGA et le DVI... :transpi:

Histoire de devoir encors changé d'écrans de carte graphiques et de cables :yes:

Bon au moin on sera plus limité au foutu 8bit par canal... (même si dans la norme DVI on peut utiliser le Dual-Link pour passer en 16bits par canal, mais personne ne l'as fait (puisque la pluspart des LCD sont en 6bits mdrr mon videoproj parcontre lui est en 10bits par canal...)

Lien vers le commentaire
Partager sur d’autres sites

Archivé

Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.

×
×
  • Créer...