micnic Posté(e) le 22 février 2006 Partager Posté(e) le 22 février 2006 C'est suffisant ??? c'est super cher le SLI, faut investier à mort dans le proco et l'alim. merci Lien vers le commentaire Partager sur d’autres sites More sharing options...
Space Posté(e) le 22 février 2006 Partager Posté(e) le 22 février 2006 C'est suffisant ??? c'est super cher le SLI, faut investier à mort dans le proco et l'alim. merci Tes CG vont etre un peu bridées je pense. Lien vers le commentaire Partager sur d’autres sites More sharing options...
K-Lee Posté(e) le 22 février 2006 Partager Posté(e) le 22 février 2006 Faudrait un CPU plus puissant pour exploiter à fond. Franchement, le SLI, c'est marketing, c'est pour petter des scores énormes à 3DMark. Une 7800GTX ou une 1900XT fera très très bien l'affaire, surtout si tu joues en 1280*1024 Lien vers le commentaire Partager sur d’autres sites More sharing options...
alex_ssj3 Posté(e) le 22 février 2006 Partager Posté(e) le 22 février 2006 7900 powered Lien vers le commentaire Partager sur d’autres sites More sharing options...
micnic Posté(e) le 22 février 2006 Auteur Partager Posté(e) le 22 février 2006 Uhm mais dans le futur, ça seriera le SLI ??? oui je pense que ça sert à rien. Je vais prendre uen X800 XL De club 3D à la palce et rester avec mon 3700+ Lien vers le commentaire Partager sur d’autres sites More sharing options...
K-Lee Posté(e) le 22 février 2006 Partager Posté(e) le 22 février 2006 Tu dis dans le futur... Moi j'ai une X1900XT 512MB, qui dépotte à fond, dans quelques semaines une autre CG viendra la battre, dans 6 mois ce seront des autres et dans un an, je n'achèterai pas de deuxième X1900XT 512MB, pourtant ma CM est une SLI Premium, je prendrai plutôt une plus performante de dernière génération, parce qu'en dans un an, les nouvelles cartes supporteront DirectX 12 et les Shaders 4.0 et Full Deep MacroSyzing et encore plein de choses que j'invente mais qui seront peut-être réelles dans un an et pas supporté par deux X1900XT ou deux 7800GTX en SLI Lien vers le commentaire Partager sur d’autres sites More sharing options...
wizz Posté(e) le 22 février 2006 Partager Posté(e) le 22 février 2006 De nos jours, les X800XL ne représente plus le meilleur choix prix/performance. C'était vrai à l'époque où la 6800GT se trouvait entre 350 et 400€, contre une X800XL entre 300 et 350€. Aujourd'hui, la 6800GT est moins chere tout en étant plus puissante. Et en élargissant aux autres modèles, tu en trouveras d'autre meilleur compromis. Lien vers le commentaire Partager sur d’autres sites More sharing options...
micnic Posté(e) le 22 février 2006 Auteur Partager Posté(e) le 22 février 2006 Oui mais c pas grand chose niveau perf 6800 GT vs X800 XL et je trouve plus belel ma X800 Club 3D Lien vers le commentaire Partager sur d’autres sites More sharing options...
alex_ssj3 Posté(e) le 22 février 2006 Partager Posté(e) le 22 février 2006 de toute facon ce n'est pas grave que le proco bride la carte graphique (pas trop quand même, faut quand même 40-50 fps). j'explique : le proco gère le jeu et envoie les informations sur les images au GPU qui se charge de les traiter si le proco est capable de d'envoyer les informations de 50 images/s et que le CG est capable d'en traiter 150, le CPU bride le proco. à ce moment là on peut récupérer la puissance perdue en appliquant des effets qui sont gérés uniquement par la carte graphique, car ca ne fait pas perdre de performances au CPU. par contre augmenter le niveau de détails peut faire pardre des perfs au CPU. Lien vers le commentaire Partager sur d’autres sites More sharing options...
wizz Posté(e) le 22 février 2006 Partager Posté(e) le 22 février 2006 de toute facon ce n'est pas grave que le proco bride la carte graphique (pas trop quand même, faut quand même 40-50 fps). j'explique : le proco gère le jeu et envoie les informations sur les images au GPU qui se charge de les traiter si le proco est capable de d'envoyer les informations de 50 images/s et que le CG est capable d'en traiter 150, le CPU bride le proco. à ce moment là on peut récupérer la puissance perdue en appliquant des effets qui sont gérés uniquement par la carte graphique, car ca ne fait pas perdre de performances au CPU. par contre augmenter le niveau de détails peut faire pardre des perfs au CPU. Exactement ce que j'ai l'habitude de répondre lorsqu'une personne me dit que cette carte graphique risque d'être bridée par le processeur. Il n'y a pas que le nombre de fps. Il y a la QUALITE GRAPHIQUE aussi ! Lien vers le commentaire Partager sur d’autres sites More sharing options...
alex_ssj3 Posté(e) le 22 février 2006 Partager Posté(e) le 22 février 2006 de toute facon ce n'est pas grave que le proco bride la carte graphique (pas trop quand même, faut quand même 40-50 fps). j'explique : le proco gère le jeu et envoie les informations sur les images au GPU qui se charge de les traiter si le proco est capable de d'envoyer les informations de 50 images/s et que le CG est capable d'en traiter 150, le CPU bride le proco. à ce moment là on peut récupérer la puissance perdue en appliquant des effets qui sont gérés uniquement par la carte graphique, car ca ne fait pas perdre de performances au CPU. par contre augmenter le niveau de détails peut faire pardre des perfs au CPU. Exactement ce que j'ai l'habitude de répondre lorsqu'une personne me dit que cette carte graphique risque d'être bridée par le processeur. Il n'y a pas que le nombre de fps. Il y a la QUALITE GRAPHIQUE aussi ! ouais ^^ mais si t'as un proco qui envoie pas assez d'infos sur les images et que la carte graphique puisse sortir que 25-30 fps, c'est pas top là Lien vers le commentaire Partager sur d’autres sites More sharing options...
wizz Posté(e) le 22 février 2006 Partager Posté(e) le 22 février 2006 cela va de soi bien entendu Lien vers le commentaire Partager sur d’autres sites More sharing options...
alex_ssj3 Posté(e) le 22 février 2006 Partager Posté(e) le 22 février 2006 per contre, il me semble qu'augmenter le niveau de détails influe sur les performances du proc, mais j'en suis pas sur, t'en penses quoi? car en augmentant le niveau de détails (par exemple qu'il y ait plus d'objets dans le décor, de la fumée etc) le cpu doit envoyer plus d'infos à la carte graphique non? alors que pour l'anti-aliasing par exemple, c'est la carte graphique qui le gère toute seule. Lien vers le commentaire Partager sur d’autres sites More sharing options...
wizz Posté(e) le 22 février 2006 Partager Posté(e) le 22 février 2006 cela va de soi bien entendu à un XP1600+, je déconseillerai vivement l'achat d'une 6800GT Par contre, un XP3200+ et pourquoi pas un peu d'OC, je ne déconseillerai pas l'achat d'une 6800GT pour remplacer une Ti4200. Lien vers le commentaire Partager sur d’autres sites More sharing options...
alex_ssj3 Posté(e) le 22 février 2006 Partager Posté(e) le 22 février 2006 à un XP1600+, je déconseillerai vivement l'achat d'une 6800GT cela va de soi bien entendu Lien vers le commentaire Partager sur d’autres sites More sharing options...
wizz Posté(e) le 22 février 2006 Partager Posté(e) le 22 février 2006 Le CPU calcule l'image brute (sous forme de maillage fil de fer) et envoie ça à la CG. La CG se charge de "colorier" selon le niveau de détail demandé. http://www.vtr-hardware.com/articles/a4518_2.html niveau bas, l'herbe est représenté par des taches vertes au sol. niveau très élevé, on voit bien que c'est une touffe d'herbe dense. Ça ne change rien pour le cpu. Seul le GPU s'en occupe de manière hardware (si possible selon ses spécifications T&L, DX, PS...) Anecdote rigolo. J'avais découvert farcry sur le machine d'un pote qui avait à l'époque une vieille machine. Ça lagguait bien sur mais je ne comprennais pas pourquoi je ralentissais encore plus à certains endroits alors qu'il n'y avait pas d'obstacle. Ce n'était qu'après avoir installé sur ma machine que j'avais pigé le problème. La brousse d'herbe est devenue visible. Sur un jeu réaliste, on court moins vite dans la végétation dense ! Lien vers le commentaire Partager sur d’autres sites More sharing options...
Space Posté(e) le 22 février 2006 Partager Posté(e) le 22 février 2006 à un XP1600+, je déconseillerai vivement l'achat d'une 6800GT cela va de soi bien entendu Meme il faut tout overclocker... Lien vers le commentaire Partager sur d’autres sites More sharing options...
Messages recommandés
Archivé
Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.