Aller au contenu

Un 3700+ pour deux 7800 GTX en SLI ?


micnic

Messages recommandés

Tu dis dans le futur...

Moi j'ai une X1900XT 512MB, qui dépotte à fond, dans quelques semaines une autre CG viendra la battre, dans 6 mois ce seront des autres et dans un an, je n'achèterai pas de deuxième X1900XT 512MB, pourtant ma CM est une SLI Premium, je prendrai plutôt une plus performante de dernière génération, parce qu'en dans un an, les nouvelles cartes supporteront DirectX 12 et les Shaders 4.0 et Full Deep MacroSyzing et encore plein de choses que j'invente mais qui seront peut-être réelles dans un an et pas supporté par deux X1900XT ou deux 7800GTX en SLI :transpi:

Lien vers le commentaire
Partager sur d’autres sites

De nos jours, les X800XL ne représente plus le meilleur choix prix/performance.

C'était vrai à l'époque où la 6800GT se trouvait entre 350 et 400€, contre une X800XL entre 300 et 350€.

Aujourd'hui, la 6800GT est moins chere tout en étant plus puissante.

Et en élargissant aux autres modèles, tu en trouveras d'autre meilleur compromis.

Lien vers le commentaire
Partager sur d’autres sites

de toute facon ce n'est pas grave que le proco bride la carte graphique (pas trop quand même, faut quand même 40-50 fps).

j'explique :

le proco gère le jeu et envoie les informations sur les images au GPU qui se charge de les traiter

si le proco est capable de d'envoyer les informations de 50 images/s et que le CG est capable d'en traiter 150, le CPU bride le proco. à ce moment là on peut récupérer la puissance perdue en appliquant des effets qui sont gérés uniquement par la carte graphique, car ca ne fait pas perdre de performances au CPU. par contre augmenter le niveau de détails peut faire pardre des perfs au CPU.

Lien vers le commentaire
Partager sur d’autres sites

de toute facon ce n'est pas grave que le proco bride la carte graphique (pas trop quand même, faut quand même 40-50 fps).

j'explique :

le proco gère le jeu et envoie les informations sur les images au GPU qui se charge de les traiter

si le proco est capable de d'envoyer les informations de 50 images/s et que le CG est capable d'en traiter 150, le CPU bride le proco. à ce moment là on peut récupérer la puissance perdue en appliquant des effets qui sont gérés uniquement par la carte graphique, car ca ne fait pas perdre de performances au CPU. par contre augmenter le niveau de détails peut faire pardre des perfs au CPU.

:transpi:

Exactement ce que j'ai l'habitude de répondre lorsqu'une personne me dit que cette carte graphique risque d'être bridée par le processeur.

Il n'y a pas que le nombre de fps.

Il y a la QUALITE GRAPHIQUE aussi !

Lien vers le commentaire
Partager sur d’autres sites

de toute facon ce n'est pas grave que le proco bride la carte graphique (pas trop quand même, faut quand même 40-50 fps).

j'explique :

le proco gère le jeu et envoie les informations sur les images au GPU qui se charge de les traiter

si le proco est capable de d'envoyer les informations de 50 images/s et que le CG est capable d'en traiter 150, le CPU bride le proco. à ce moment là on peut récupérer la puissance perdue en appliquant des effets qui sont gérés uniquement par la carte graphique, car ca ne fait pas perdre de performances au CPU. par contre augmenter le niveau de détails peut faire pardre des perfs au CPU.

:mdr:

Exactement ce que j'ai l'habitude de répondre lorsqu'une personne me dit que cette carte graphique risque d'être bridée par le processeur.

Il n'y a pas que le nombre de fps.

Il y a la QUALITE GRAPHIQUE aussi !

ouais ^^

mais si t'as un proco qui envoie pas assez d'infos sur les images et que la carte graphique puisse sortir que 25-30 fps, c'est pas top là :transpi:

Lien vers le commentaire
Partager sur d’autres sites

per contre, il me semble qu'augmenter le niveau de détails influe sur les performances du proc, mais j'en suis pas sur, t'en penses quoi?

car en augmentant le niveau de détails (par exemple qu'il y ait plus d'objets dans le décor, de la fumée etc) le cpu doit envoyer plus d'infos à la carte graphique non? alors que pour l'anti-aliasing par exemple, c'est la carte graphique qui le gère toute seule.

Lien vers le commentaire
Partager sur d’autres sites

Le CPU calcule l'image brute (sous forme de maillage fil de fer) et envoie ça à la CG.

La CG se charge de "colorier" selon le niveau de détail demandé.

http://www.vtr-hardware.com/articles/a4518_2.html

niveau bas, l'herbe est représenté par des taches vertes au sol.

niveau très élevé, on voit bien que c'est une touffe d'herbe dense.

Ça ne change rien pour le cpu. Seul le GPU s'en occupe de manière hardware (si possible selon ses spécifications T&L, DX, PS...)

Anecdote rigolo.

J'avais découvert farcry sur le machine d'un pote qui avait à l'époque une vieille machine. Ça lagguait bien sur mais je ne comprennais pas pourquoi je ralentissais encore plus à certains endroits alors qu'il n'y avait pas d'obstacle.

Ce n'était qu'après avoir installé sur ma machine que j'avais pigé le problème. La brousse d'herbe est devenue visible.

Sur un jeu réaliste, on court moins vite dans la végétation dense !

Lien vers le commentaire
Partager sur d’autres sites

Archivé

Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.

×
×
  • Créer...