pierrot78 Posté(e) le 12 novembre 2009 Partager Posté(e) le 12 novembre 2009 Bonjour, Je possède actuellement une carte mère équipée d'un bus PCI-E 16x mais avec une interface PCI-Express 1.1. De ce que j'en sais, la bande passante est ainsi diminuée de moitié (4 Go/s) tout comme l'alimentation électrique du bus (75 Watts) par rapport à un bus PCI-E 16x avec une interface PCI-Express 2.0. Pour info, voici le reste de ma configuration : Core 2 Quad Q8200 et 4 Go PC2-6400 DDR2. Ma question est donc la suivante, dois-je changer de carte mère pour ne pas brider les performances 3D si je veux prendre une carte graphique récente (de type HD58x0)? Merci d'avance pour les réponses Lien vers le commentaire Partager sur d’autres sites More sharing options...
Amour Posté(e) le 12 novembre 2009 Partager Posté(e) le 12 novembre 2009 Etant donné que le PCIe x16 1.1 n'est pas saturé par les cartes actuelles apparemment, pas de souci à mon avis Lien vers le commentaire Partager sur d’autres sites More sharing options...
pierrot78 Posté(e) le 16 novembre 2009 Auteur Partager Posté(e) le 16 novembre 2009 J'ai envoyé un petit mail à AMD/ATI pour en savoir plus. Et je me suis vu répondre que le bus pouvait être saturé en cas de stress de la carte graphique et qu'il valait mieux que je change de carte mère pour des performances optimales Je pensais comme toi mais j'ai maintenant des doutes... Le problème est que je n'arrive pas à trouver de sources pour tirer ça au clair... Du coup, j'ai demandé au support technique d'AMD/ATI de répondre à cette question : "Existe-t-il une donnée chiffrée dans les spécifications des cartes graphiques indiquant à quelle hauteur la bande passante du bus PCI-E est utilisée ?". En espérant une réponse. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Amour Posté(e) le 16 novembre 2009 Partager Posté(e) le 16 novembre 2009 Soit c'est vrai sur les cartes bi-GPU (là oui) voire certaines haut de gamme et là je serais étonné, soit ils aiment bien vendre des cartes mère Lien vers le commentaire Partager sur d’autres sites More sharing options...
chikenkilr Posté(e) le 17 novembre 2009 Partager Posté(e) le 17 novembre 2009 Pour saturer le bus PCI-e 1.1, il te faut un jeu qui bouffe noir de memoire et une carte graphique avec un bus mémoire hyper rapide. Pour te donner une idée, avec ma feu 9600GT (avec 512 embarqué) qui faisait le yoyo avec les lignes PCI-e en 1.0, je commencais a avoir des pertes de perfs quand le bus descendait en dessous du x4. donc je pense qu'il y a encore de la marge avant de le saturer. Bon j'etais aussi achement CPU limited (le CPU qui tournait avec était un A64 3000+), mais je pense qu'actuellement, meme avec la 5870, surtout si t'en prend une avec 2Go (plus t'a de mémoire sur la CG, moins t'aura a faire des appels memoires via le bus PCI-e), t'aura pas de soucis de bridage du port. P-e d'ici 2 ans et encore... Edit: après c'est sur les gars de AMD vont te conseiller d'acheter une nouvelle carte graphique, car 1 ca fait faire du chiffre a la division chipset et puis, pour les ingés AMD, pour eux, comme la CG a un bus PCI-e 2.0 ben l'utilisation optimale sera avec un bus PCI-E 2.0. Faut pas aller chercher plus loin. Lien vers le commentaire Partager sur d’autres sites More sharing options...
pierrot78 Posté(e) le 17 novembre 2009 Auteur Partager Posté(e) le 17 novembre 2009 J'ai continué à "enquêter" et au final tout le monde a raison Il y a en effet un très très léger bridage par le bus PCI-E 16x 1.1 (qui correspond à du PCI-E 8x 2.0) pour les cartes graphiques récentes. Voici d'ailleurs un test à ce propos avec une Radeon HD 5870 : http://www.techpowerup.com/reviews/AMD/HD_..._Scaling/1.html Maintenant, ce bridage (si on peut l'appeler ainsi) est de l'ordre de 1 à 2% par rapport aux performances d'un bus PCI-E 16x 2.0. Ce n'est donc absolument pas gênant (pour moi en tout cas). La différence de performance entre les bus PCI-E 4x 2.0 (ou PCI-E 8x 1.1), PCI-E 8x 2.0 (ou PCI-E 16x 1.1) et PCI-E 16x 2.0 est d'ailleurs très faible avec l'utilisation d'une HD 5870. @chikenkilr : Au final, le gars de chez AMD avait raison même s'il a été incapable d'expliquer pourquoi Lien vers le commentaire Partager sur d’autres sites More sharing options...
Messages recommandés
Archivé
Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.