Aller au contenu

Un 3700+ pour deux 7800 GTX en SLI ?

Featured Replies

Posté(e)

C'est suffisant ???

c'est super cher le SLI, faut investier à mort dans le proco et l'alim.

merci :transpi:

Posté(e)
C'est suffisant ???

c'est super cher le SLI, faut investier à mort dans le proco et l'alim.

merci :transpi:

Tes CG vont etre un peu bridées je pense.

Posté(e)

Faudrait un CPU plus puissant pour exploiter à fond.

Franchement, le SLI, c'est marketing, c'est pour petter des scores énormes à 3DMark.

Une 7800GTX ou une 1900XT fera très très bien l'affaire, surtout si tu joues en 1280*1024 :transpi:

Posté(e)
  • Auteur

Uhm mais dans le futur, ça seriera le SLI ???

oui je pense que ça sert à rien.

Je vais prendre uen X800 XL De club 3D à la palce :transpi: et rester avec mon 3700+ :mdr:

Posté(e)

Tu dis dans le futur...

Moi j'ai une X1900XT 512MB, qui dépotte à fond, dans quelques semaines une autre CG viendra la battre, dans 6 mois ce seront des autres et dans un an, je n'achèterai pas de deuxième X1900XT 512MB, pourtant ma CM est une SLI Premium, je prendrai plutôt une plus performante de dernière génération, parce qu'en dans un an, les nouvelles cartes supporteront DirectX 12 et les Shaders 4.0 et Full Deep MacroSyzing et encore plein de choses que j'invente mais qui seront peut-être réelles dans un an et pas supporté par deux X1900XT ou deux 7800GTX en SLI :transpi:

Posté(e)

De nos jours, les X800XL ne représente plus le meilleur choix prix/performance.

C'était vrai à l'époque où la 6800GT se trouvait entre 350 et 400€, contre une X800XL entre 300 et 350€.

Aujourd'hui, la 6800GT est moins chere tout en étant plus puissante.

Et en élargissant aux autres modèles, tu en trouveras d'autre meilleur compromis.

Posté(e)
  • Auteur

Oui mais c pas grand chose niveau perf 6800 GT vs X800 XL et je trouve plus belel ma X800 Club 3D :transpi:

Modifié par micnic

Posté(e)

de toute facon ce n'est pas grave que le proco bride la carte graphique (pas trop quand même, faut quand même 40-50 fps).

j'explique :

le proco gère le jeu et envoie les informations sur les images au GPU qui se charge de les traiter

si le proco est capable de d'envoyer les informations de 50 images/s et que le CG est capable d'en traiter 150, le CPU bride le proco. à ce moment là on peut récupérer la puissance perdue en appliquant des effets qui sont gérés uniquement par la carte graphique, car ca ne fait pas perdre de performances au CPU. par contre augmenter le niveau de détails peut faire pardre des perfs au CPU.

Posté(e)

de toute facon ce n'est pas grave que le proco bride la carte graphique (pas trop quand même, faut quand même 40-50 fps).

j'explique :

le proco gère le jeu et envoie les informations sur les images au GPU qui se charge de les traiter

si le proco est capable de d'envoyer les informations de 50 images/s et que le CG est capable d'en traiter 150, le CPU bride le proco. à ce moment là on peut récupérer la puissance perdue en appliquant des effets qui sont gérés uniquement par la carte graphique, car ca ne fait pas perdre de performances au CPU. par contre augmenter le niveau de détails peut faire pardre des perfs au CPU.

:transpi:

Exactement ce que j'ai l'habitude de répondre lorsqu'une personne me dit que cette carte graphique risque d'être bridée par le processeur.

Il n'y a pas que le nombre de fps.

Il y a la QUALITE GRAPHIQUE aussi !

Posté(e)

de toute facon ce n'est pas grave que le proco bride la carte graphique (pas trop quand même, faut quand même 40-50 fps).

j'explique :

le proco gère le jeu et envoie les informations sur les images au GPU qui se charge de les traiter

si le proco est capable de d'envoyer les informations de 50 images/s et que le CG est capable d'en traiter 150, le CPU bride le proco. à ce moment là on peut récupérer la puissance perdue en appliquant des effets qui sont gérés uniquement par la carte graphique, car ca ne fait pas perdre de performances au CPU. par contre augmenter le niveau de détails peut faire pardre des perfs au CPU.

:mdr:

Exactement ce que j'ai l'habitude de répondre lorsqu'une personne me dit que cette carte graphique risque d'être bridée par le processeur.

Il n'y a pas que le nombre de fps.

Il y a la QUALITE GRAPHIQUE aussi !

ouais ^^

mais si t'as un proco qui envoie pas assez d'infos sur les images et que la carte graphique puisse sortir que 25-30 fps, c'est pas top là :transpi:

Posté(e)

per contre, il me semble qu'augmenter le niveau de détails influe sur les performances du proc, mais j'en suis pas sur, t'en penses quoi?

car en augmentant le niveau de détails (par exemple qu'il y ait plus d'objets dans le décor, de la fumée etc) le cpu doit envoyer plus d'infos à la carte graphique non? alors que pour l'anti-aliasing par exemple, c'est la carte graphique qui le gère toute seule.

Posté(e)

cela va de soi bien entendu :transpi:

à un XP1600+, je déconseillerai vivement l'achat d'une 6800GT

Par contre, un XP3200+ et pourquoi pas un peu d'OC, je ne déconseillerai pas l'achat d'une 6800GT pour remplacer une Ti4200.

Posté(e)

Le CPU calcule l'image brute (sous forme de maillage fil de fer) et envoie ça à la CG.

La CG se charge de "colorier" selon le niveau de détail demandé.

http://www.vtr-hardware.com/articles/a4518_2.html

niveau bas, l'herbe est représenté par des taches vertes au sol.

niveau très élevé, on voit bien que c'est une touffe d'herbe dense.

Ça ne change rien pour le cpu. Seul le GPU s'en occupe de manière hardware (si possible selon ses spécifications T&L, DX, PS...)

Anecdote rigolo.

J'avais découvert farcry sur le machine d'un pote qui avait à l'époque une vieille machine. Ça lagguait bien sur mais je ne comprennais pas pourquoi je ralentissais encore plus à certains endroits alors qu'il n'y avait pas d'obstacle.

Ce n'était qu'après avoir installé sur ma machine que j'avais pigé le problème. La brousse d'herbe est devenue visible.

Sur un jeu réaliste, on court moins vite dans la végétation dense !

Posté(e)

à un XP1600+, je déconseillerai vivement l'achat d'une 6800GT

cela va de soi bien entendu :zarb:

:transpi:

Meme il faut tout overclocker... :yes:

Archivé

Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.