djdavidc Posté(e) le 25 novembre 2008 Partager Posté(e) le 25 novembre 2008 Bonjour, Je fais de la musique par ordinateur et souhaiterais m'équiper de 2 moniteurs 30''. J'ai une carte graphique Geforce 8600GT. J'ai cru lire sur les descriptions des moniteurs qu'il fallait 2 sorties VGA ou DVI pour alimenter un 30''. Je voulais savoir si c'était exact, et dans ce cas, si mettre 2 Geforce 8600GT résoudrait mon problème. Merci de votre aide David Lien vers le commentaire Partager sur d’autres sites More sharing options...
LukeSkyPator Posté(e) le 25 novembre 2008 Partager Posté(e) le 25 novembre 2008 Je sais pas s'il faut les deux (ce qui m'étonnerait franchement). En tout cas, ya une chose dont je suis sûre, c'est que la résolution maxi supportée par la 8600GT est celle d'un 30". Donc dans tous les cas, une 8600GT ne peut pas afficher plus qu'un 30", ce qui t'oblige par là-même à mettre deux 8600GT en parallèle. LSP, le manchot qui aimerait une confimation ou infirmation de l'assertion 'Un 30" requiert deux DVI' Lien vers le commentaire Partager sur d’autres sites More sharing options...
kgabou Posté(e) le 25 novembre 2008 Partager Posté(e) le 25 novembre 2008 Pour afficher la résolution native d'un 30" (2560 x 1600) il faut soit que ta carte graphique ait une prise Dual DVI (DVI-D), soit utiliser 2 prises DVI avec un adaptateur. Donc comme tu l'auras deviné, si tu veux mettre deux écrans 30 en dual screen, il te faut deux prises DVI-D sur ta carte graphique, ou 4 prises DVI. Dans ton cas, la 8600GT a bien deux prises DVI-D, donc c'est bon. Par contre un détail pour les films, l'HDCP n'est pas intégré de série sur la 8600GT. A toi de vérifier si le constructeur de ta carte (ASUS, Gigabyte, Palit, etc.) l'a mis. Dans le cas contraire ne compte pas lire de film HD sur Blu-Ray avec cette carte. Lien vers le commentaire Partager sur d’autres sites More sharing options...
djdavidc Posté(e) le 25 novembre 2008 Auteur Partager Posté(e) le 25 novembre 2008 Merci les gars !!! Lien vers le commentaire Partager sur d’autres sites More sharing options...
kgabou Posté(e) le 25 novembre 2008 Partager Posté(e) le 25 novembre 2008 Mais de rien c'est un plaisir Lien vers le commentaire Partager sur d’autres sites More sharing options...
jonathanhh Posté(e) le 26 novembre 2008 Partager Posté(e) le 26 novembre 2008 Comme le dit LukeSkyPator, surtout ne pas oublier la résolution maxi supporter par la carte graphique. Lien vers le commentaire Partager sur d’autres sites More sharing options...
kgabou Posté(e) le 26 novembre 2008 Partager Posté(e) le 26 novembre 2008 Comme le dit LukeSkyPator, surtout ne pas oublier la résolution maxi supporter par la carte graphique. DVI-D = 2560*1600 Lien vers le commentaire Partager sur d’autres sites More sharing options...
jonathanhh Posté(e) le 26 novembre 2008 Partager Posté(e) le 26 novembre 2008 Oui mais la résolution est par carte graphique? ou par sorti qu'il faut calculer ? Donc en gros soit 2560*1600 pour les 2 DVI-D ou 2560*1600 par DVI-D (donc 2 fois 2560*1600) Lien vers le commentaire Partager sur d’autres sites More sharing options...
kgabou Posté(e) le 26 novembre 2008 Partager Posté(e) le 26 novembre 2008 La rrréponse B, comme dirait notre ami Gad Elmaleh Mais suffit de réfléchir deux secondes : DVI-D ça veut dire DVI Dual, donc un port DVI-D affiche deux fois le nombre de pixels d'un DVI, dont la résolution maximale est de 1920*1200, soit 2 300 000 pixels. Si on multiplie par deux ça donne 4 600 000, soit à peu près du 2560*1600. Lien vers le commentaire Partager sur d’autres sites More sharing options...
jonathanhh Posté(e) le 26 novembre 2008 Partager Posté(e) le 26 novembre 2008 Merci de ses renseignements, je m'endormirais moins idiot. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Messages recommandés
Archivé
Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.