Aller au contenu

[CG] 6800 ULTRA VS X800XT lakel choisir ?


Walooo

Messages recommandés

  • Réponses 283
  • Créé
  • Dernière réponse

Bon ben je sens que je vais attendre pour acheter ma nouvelle carte alors lol

Parce que visiblement la balance est pas pret de pencher de tel ou tel coté :(

Mais bon sur le dernier test de clubic la xt pe est quand meme souvent devant sauf dans farcry 1.2 et doom , Bref ca m'aide pas tout ca :roll:

Lien vers le commentaire
Partager sur d’autres sites

Ultra, Korrigan et le autres si les cartes ATI ont planté, c'est que Crytec a tenté d'implanter les SM2.0b à la dernière minute, ce qui explique le clignotement de certains objets...c'est leur implémentation du geometry instancing qui bugge, et c'est pour cela que le patch 1.2 a été retiré...donc ce n'est certainement pas le dernier patch 1.2 comme clubic tente de le faire croire...c'est pour cela que j'ai dit qu'il était stupide de prendre le patch 1.2 tel qu'il est actuellement...on ne peut plus le trouver que via P2P...

De toute façon changer de cg maintenant est stupide...il vaut mieux attendre la fin de l'année voire le milieu de l'année prochaine...et changer carrément toute la config...ce que je vais faire...pour l'instant mon 2400+ et ma Radeon 9800Pro font tourner 100% des jeux actuels, et je n'ai donc aucune raison de la changer...

Lien vers le commentaire
Partager sur d’autres sites

Charles..

Je n'est pas donné mon avis sur le SM2.0_b.....je n'aime pas tiré de conclusion trop attive....

Ce que tu dit est vrai...le SM2.0_b a était implanté au dernier moment....mais il n'embéche que cela est bizard....je m'explique.

Les optimistaions marché trés bien sur certaine X800 (Pro et XT)....elle n'apporté rien...pas de perf en plus mais marché correctement.

Pourtant sur certaine autre X800 (Pro et XT) ces optimisation fesai lamentablement planté les carte....

Toute les X800 son censé être identique non??

Bref difficile de ce faire un avis......

Non....le patch est encore disponible sur BEAUCOUP de site internet...(3Dchips-fr par exemple)..et ce patch est plutot sympatique...mais il est maleureusement résservé au possésseur de carte Nvidia...puisque qu'environ 60% des carte ATI plante.

Lien vers le commentaire
Partager sur d’autres sites

De toute façon changer de cg maintenant est stupide.....pour l'instant mon 2400+ et ma Radeon 9800Pro font tourner 100% des jeux actuels, et je n'ai donc aucune raison de la changer...

Il est claire que pour les possesseur de 9800Pro/Xt ou de FX5900XT/ /Ultra l'intéré de changé de carte est limité....

En comparaison a ces carte une X800 ou une 6800 ne va apporté qu'un meilleur rendu dans les jeux....

Donc a moin d'être acros au haut résolution et à l'anti-aliasing....aucune raison de changé...

Sans compté qu'il faut un proc trés puissant pour pouvoir exploité ses cartes...

Lien vers le commentaire
Partager sur d’autres sites

Voui ^^

Au fait pour FarCry, je me suis trompé, le patch 1.2 supporte correctement les SM2.0b, mais pas le geometry instancing, qui est une chose totalement indépendante des SM et encore heureux...sinon, pour le fait que ca n'apporte pas de perf sur les ATI, c'est un peu normal vu que ca a été fait avec les pieds...cf les clignotements...personnellement, je pense que le problème du clignotement et du au fait que Crytec n'a pas désactivé l'ancien rendering path...et donc l'ancien et le nouveau entrent en concurrence...l'un rend les brins d'herbe un par un alors que l'autre tente de les rendre collectivement...il se produit un problème de raffraichissement de ces objets et donc crée un clignotement fort génant...ce n'est bien évidemment qu'une hypothèse, mais elle me semble plausible...

Sinon, dès que Crytec aura résolu le problème du geometry instancing sur les cartes ATI, les possesseurs de Radeons 9500 et + vont voir leurs perf augmenter, vu que tout les dérivés du R300 supportent cette technique...

Sinon, Troller sur des cartes hors de prix ne sert a rien...qui plus est les rare possesseurs de ce type de cartes n'ont générallement pas le materiel qui va avec...

Lien vers le commentaire
Partager sur d’autres sites

Sur les tests, il faut voir les conditions aussi les gars.

Objectifs, pas objectifs, mouais, c'est juste CERTAINS sites, certainement pas tous.

Si les résultats, bougent entre l'une et l'autre carte, cela signifie juste qu'elles sont quasi identiques, et que les perfs varient selon le CPU, la RAM, les drivers, le chipset de la carte mère etc.

Lien vers le commentaire
Partager sur d’autres sites

c pour ca qu'il faut faire gaffe a certains tests,bcp de sites ne sont pas objectifs...  :reflechis:

Aucun testeur n'est objectif...on est tous influencé par ses a priori...qui plus est les tests dans les jeux ne sont plus vraiment a prendre en compte par les temps qui courent, vu que les développeurs se font acheter par les fabriquants de cartes graphiques afin de défavoriser ceux qui possèdent la carte du concurrent...cf FarCry (NVidia), DooM III (NVidia), Tomb Raider Angel of Darkness (ATI), HL² (ATI), ...

--Edit--

+1 Nil

Lien vers le commentaire
Partager sur d’autres sites

oui bon y'a une certaine limite aussi a la subjectivité,on ne peut pas etre completement impartial,mais des testeurs qui savent reconnaitre les atouts et inconvenients de chaque marques c pas bien dur non plus hein,c pas de la politique la...

sinon tu veux qu'on teste les cartes avec quoi si ce n'est les jeux? :reflechis:

c bien pour ca qu'il faut tester les cartes sur bcp de jeux et faire une moyenne a la fin...

si on compare les cartes sur une scene precie d'un jeuc completement debile...

n'allez pas chercher les cas extremes... :eeek2:

Lien vers le commentaire
Partager sur d’autres sites

Pour les tests avec les jeux, je n'ai pas dit qu'il faille les abandonner completement...je dit juste que beaucoup de testeurs tirent des conclusions trop hatives...ils effectuent des tests sur les jeux et se permettent de dire que telle ou telle archi est meilleure...ce qui est totalement stupide...vu le nombre d'optimisations...en ce moment il n'y a plus personne qui fasse des tests poussés afin de mettre en évidence les avantages et les inconvénients des diverses archi...avec des logiciels développés spécialement pour l'occasion...

Qui plus est faut aussi voir que, comme le dit Nil, les conditions de tests bougent beaucoup...prendre un Athlon64 et un chipset NForce 3 pour faire un comparatif entre NVidia et ATI revient a avantager NVidia, vu que les NForce 3 disposent d'un AGP 16x (en fait un bus AGP symétrique offrant des débits équivalents dans les deux sens), seulement lorsqu'une carte NVidia est détectée...alors qu'il y a de fortes chance pour que ce cheat marche aussi sur les ATI...en ce moment, le monde de l'informatique manque cruellement de véritable challenger au bilatéralisme ambiant (ATI vs NVidia et AMD vs Intel, par exemple...)...cela fait monter les prix alors que les coût n'augmentent pas autant que ce que l'on veut bien nous faire croire et prend en otage le consommateur...

IBM a laissé son architecture (le PC) volontairement ouverte, afin qu'à terme le monde de l'informatique soit unifié derrière une banière et force est de constater que depuis que les businessman sont venu fourrer leur sale nez dedans, tout part...exactement comme pour l'industrie du disque...bientot, on ne pourra plus jouer a un jeu estampillé NVidia - Intel que sur un PC équipé d'un processeur Intel et d'une carte graphique NVidia...le monde du PC est en train de se refermer sur lui même alors qu'il ne demandait qu'a s'épanouir avant l'arrivée du marketting et de l'argent...

Lien vers le commentaire
Partager sur d’autres sites

...prendre un Athlon64 et un chipset NForce 3 pour faire un comparatif entre NVidia et ATI revient a avantager NVidia, vu que les NForce 3 disposent d'un AGP 16x (en fait un bus AGP symétrique offrant des débits équivalents dans les deux sens), seulement lorsqu'une carte NVidia est détectée...

??

C'est serieu sa? Un port AGP 16X??

A ma connaissance...seul le PCI-E peu géré des débit éqivalent dans les 2 sens en symultané.

D'ailleur....en parlant de band passant...malgré tout se qu'on a pu dire sur le net....une 6800 ou une X800 à du mal a saturé un port AGP8X. J'ai déja testé ma 6800U en AGP4X....impossible de voir la différence avec le port AGP8X!

Les scores sous les 3DM200X son équivalent....à 10pts prés et pareille sur les jeux que j'ai testé (notament Farcry...)

Lien vers le commentaire
Partager sur d’autres sites

Lis ca...Le bridge HSI est ce qui permet de transformer un GPU PCI-Express en AGP...et ce bridge est utilisé dans les GF6800...sinon utiliser un tel système permet de limiter la compression de certaines coordonnées de textures et donc de faciliter le travail du GPU...

De l'AGP 16x chez NVIDIA

Publié le 25/02/2004 par Julien

NVIDIA Graphics AnandTech rélève dans son compte-rendu de l'IDF une très intéressante et surprenante découverte. NVIDIA utiliserait en effet dans son chipset nForce 3 et dans ses dernières GeForce FX une connexion AGP de type 16x. Dans les faits l'AGP 16x n'a rien d'une norme officielle. Il devrait toutefois permettre au fameux bridge HSI que NVIDIA compte utiliser avec ses cartes PCI-Express de prendre une toute nouvelle ampleur. Plutôt que d'interfacer de l'AGP 8x en PCI-Express 16x, la puce HSI (High Speed Interconnect) interfacera un GPU AGP 16x en PCI-Express 16x.

Avec un débit atteignant 4 Go par seconde (et non 2 Go par seconde) les transferts avec le reste du système devraient être naturellement plus rapides. Bien sûr le support natif du PCI-Express demeure préférable puisque les 4 Go par seconde de bande passante s'entendent dans les deux sens : 4 Go/s en flux montant et 4 Go/s en flux descendant. Reste que cette trouvaille de nos confrères américains éclaire d'un nouveau jour le bridge PCI-Express de NVIDIA qui a pour autre avantage de fonctionner dans les deux sens en transformant une interface AGP vers PCI-Express et inversement.

Source : http://www.clubic.com/n/n11722.html

J'ai pas pu te mettre l'original, vu que AnandTech est down pour le moment...

The site are currently offline for system maintenance.

Check back occasionally, as soon as maintenance is complete the site will be back online.

Source : http://www.anandtech.com/

Lien vers le commentaire
Partager sur d’autres sites

??

C'est serieu sa? Un port AGP 16X??

A ma connaissance...seul le PCI-E peu géré des débit éqivalent dans les 2 sens en symultané.

D'ailleur....en parlant de band passant...malgré tout se qu'on a pu dire sur le net....une 6800 ou une X800 à du mal a saturé un port AGP8X. J'ai déja testé ma 6800U en AGP4X....impossible de voir la différence avec le port AGP8X!

Les scores sous les 3DM200X son équivalent....à 10pts prés et pareille sur les jeux que j'ai testé (notament Farcry...)

c bien possible dans ton cas,mais si jamais tu pousses les FSAA et AA a fond ainsi qu'une grosse resolution je sais pas ce que ca pourrai donner,meme si je suis sur que ca changerai rien!

Lien vers le commentaire
Partager sur d’autres sites

Pas besoin d'avoir l'AA...ce cheat marche aussi avec les FX et il y a eu des benchs effectués par des sites habituellement serieux...

Un test Radeon 9800XT vs FX5950 sur KT800 et NForce3 250...

http://www.techreport.com/reviews/2004q2/n...fx/index.x?pg=1

Dans certains benchs, y'a une grosse différence...la j'ai juste mis les plus flagrantes...

spec-proe.gif

q3.gif

wolf.gif

Les écarts les plus flagrants se font sur les moteurs d'ID software...et il y a de grande chances que DooM III profite de cette "petite" amélioration...

Lien vers le commentaire
Partager sur d’autres sites

Trés intéréssant ton truc Charles...

Je connaissé le AGP vers PCI-E....mais pas le PCI-E vers AGP....

--> korrigan.

j'ai pensé comme toi. Pour qu'une carte graphique utilise le max de bande passant...il faut chargé les option aux max...

Ces teste que j'ai réalisé (AGP4X vs APG8X) on était fait en 1600*1200 avec AA4X et AF8X avec ma 6800Ultra à @461/1124 (400/1100 d'origine).

Bref les difference son trés limité. Peu être que le port AGP 4X sature mais a de trés rare moment....ce qui finalement ne change rien aux perf des cartes....

J'ai pas fait de teste avec AA8X et AF16X....peut être que là ya des différence...mais cela ne change rien car personne n'utilise ce type de réglage...

Lien vers le commentaire
Partager sur d’autres sites

ouai,ca prouve seulement que pour l'instant l'apg 8X et encore plus le PCIE sont totalement inutile...

enfin bon charles je pense pas que ce soit des cheats faisant marcehr moins fort les geforce sur les chipsets concurrents que les leurs,parce que d'une ce serai a double tranchant:

tes CM sont mieux notés mais tes CG moins bien!

je pense plutot que comme tu es le fabricant de chipsets et de CG,c bcp plus simple d'ooptimiser les deux pour qu'ils fonctionnent en symbiose parfaite,c plus une optimisation totale des deux qu'une desoptimisation pour les chipsets adverses!

Lien vers le commentaire
Partager sur d’autres sites

Presence-PC a testé les X800 VS 6800...

"Le résultat de ces tests est de bon augure, car il prouve indéniablement que nous sommes en présence de deux architectures solides et aux performances pas si éloignées, malgré deux conceptions assez différentes."

Lien vers le commentaire
Partager sur d’autres sites

Oui, la différence est essentiellement marketting...en tout cas, NVidia s'est ruiné a sortir une nouvelle archi qui a une espérance de vie de 6 mois...et ca ca ne peut que faire plaisir à ATI

Korrigan et Ultra -> L'AGP n'est pas saturé, certes, mais dans un sens seulement...la bande passante CPU->GPU n'est pas saturée mais dans le sens GPU->CPU si...la carte ne peut presque rien envoyer au processeur...mais pour l'instant, les algos de compression sont encore à l'oeuvre et limitent les dégats...mais lorsque les vraies solutions PCI-Express sortirons, je doute que les constructeurs se penchent beaucoup sur le cas des utilisateurs de cartes AGP et la différence se fera sentir, sans forcément avoir besoin de monter en résolution...

Lien vers le commentaire
Partager sur d’autres sites

C'est claire....même si le port AGP8X ne sére pas a grand chose....le PCI-E a quelque atout. Il est totalement bidirectionel (même flux montant que descendant et en simultané en plus).

D'aprés les teste effectué (PCI-E vs AGP8X) les différence ne son pas enorme (même pas 5%)...mais sa va surement évolué..

Pour les sytéme de comprésion....se n'est pas vrai.

Avec Doom3 en "Ultra qualité" les texture ne son même pas compréssé...mais stocké tel quel dans la mémoire graphique ...OUCHH...c'est d'ailleur pour cela qu'il recommande une CG 512Mo...même si sa marche quand même trés bien sur ma 6800U....

Bref....ce jeu ne sature pas non plus le port AGP4X..sur ma config..

Pour mes teste...il ne faut pas non plus généralisé. J'ai un proc pas trés puissant (2.9GHz)...autant dire qu'il sature pas mal la 6800U. Donc peu être que sur une grosse config (FX par ex) le port AGP4X sature.....

Pour le fait que Nvidia c'est ruiné sur une nouvelle archi....c'est un peu leur jeté la pierre!

Les évolutution qu'ATI devra faire pour leur prochaine génération de carte....et bien Nvidia en aura déja fait un GROS morceau....ce qui n'est finalement pas une mauvaise affaire pour eux....

Lien vers le commentaire
Partager sur d’autres sites

Je ne parle pas de compression de texture mais de méthode pour supprimer les coordonnées de certains vertex...

Pour ce qui de NVidia qui c'est runié avec cette nouvelle archi, j'aurais plutot du dire qu'ils s'étaient ruinés avec l'archi des FX...NVidia a du pondre deux archis totalement nouvelles alors qu'ATi n'a du avoir qu'a en développer une puis à l'étendre un peu...ce n'est pas moi qui tire ces infos de mon chapeau...mais les actionnaires de NVidia lui reproche de n'avoir pas su prendre les bonnes décisions...en même temps on peut les comprendre, vu que NVidia a bien entamé la cagnote qu'ils avaient accumulés avec les générations précédentes...

Sinon, en ce qui concerne l'archi de la prochaine génération de cartes ATI, il y a de grandes chances qu'elle soit utilisée dans la X-Box 2...qui plus est, celle-ci est développée par l'équipe à l'origine du R300...et quand on sait la claque que NVidia s'est prise...

Pour ce qui est des archis a venir, je pense que les deux firmes seront obligées de repondre une nouvelle archi pour DX-neXt qui sort en 2006...et ATI aura eu le temps de tester ses choix techniques sur le R520...mais de toutes façons, je ne suis pas madame soleil...tient d'ailleurs il pleut en ce moment... :pleure:

--PS--

Enfin j'aimerais bien être madame soleil quand même pour deviner les numéros du loto et pouvoir passer ma vie a ne rien faire :pleure:

Lien vers le commentaire
Partager sur d’autres sites

J'ai lu une partie du teste de Présence-PC....et je ne peu m'enpéché de critiqué certain choix qu'il on fait.....

Notament au niveau du gain en overclock.

Il on pri Doom3 pour mesuré ces gain. C'est sa qui n'est pas tré judicieu. Comme on a pu le voir sur de nombreux comparatif de Doom3 le gain entre une 6800Gt et une 6800Ultra est trés minime. Pareille entre une 6800Ultra et une 6800UED.

Ce que je veu dir c'est que ce jeu est télement optimisé pour les 6800 qu'un gain de frequence ne provoque pas de gros changement.....ce qui n'est pas le cas sous l'ensemble des autre jeux! (ou une 6800UED est beaucoup plus rapide qu'une 6800Ultra).

J'ai pu vérifié sa avec la mienne. Le gain sous Doom3 entre ma 6800U à 400/1100 et @461/1224 est trés faible en comparaison au gain sous UT2004 ou Farcry.

Bref je ne veu pas remétre "l'objectivité" de Présence-PC en cause....mais il serai un erreur de prendre le gain en Overclock des 6800Ultra sous Doom3...comme le gain moyen sous l'emsemble des jeux!

...il n'on surment pas fait ecxpré mais un comparatif de gain en OC sous un autre jeux, ou les perf des X800 et 6800 son trés proch, aurait était BEAUCOUP plus logique et plus parlant...(Farcry 1.1, UT2004, Spliter cell PT,.......).....

Lien vers le commentaire
Partager sur d’autres sites

je suis d'accord avec toi que le PCIE est certainement l'avenir,mais pour l'instant il ne sert a rien,alors paas besoin de l'imposer,vu que ca gonfle le prix des cartes pour aucun gain.

autant developper une techno quand elle apporte qq chose,mais la c pas utile du tout!

il aurai fallu sortir le PCIE en meme temps que les CG faites pour.

Lien vers le commentaire
Partager sur d’autres sites

Archivé

Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.


×
×
  • Créer...