Aller au contenu

[CG] 6800 ULTRA VS X800XT lakel choisir ?


Walooo

Messages recommandés

:D:D

C'est bizard...pasque moi j'ai vu des testes sous Hl2...qui disai le contraire....encore un coup des sectaire ATI/Nvidia...inutile de replôngé dans un débat....attendon plutot la sortie du jeux. Du concré quoi... :mdr:

Les seul avantage de la X800Xt...se son ces meiileur condition d'utilisation. Elle chauff beacoup moin, consomme moin de Watt et elle est beaucoup plus petite..

Mais c'est bien la 6800Ultra qui est la plus perf...et ya pas 2 ou 3fps de différence...dans la majorité des jeux et des bench!!.... :-D:non:

Et je parle même pas de l'overclock(ou la X800Xt n'arrive même pas a rivalisé!!!!).....ni du SM3.0.....

Waloo-->je ne dis pas que tu a fait le mauvai choix. Aparament tu n'est pas un overclocker et tu recherche plus le confort que les perf brut. Donc comme la X800Xt est moin chére....pourquoi pas.

Pour le P4....2.8 c'est limite pour une X800Xt....elle va trés bien marché mais bien en dessous de ces perf max....

Lien vers le commentaire
Partager sur d’autres sites

  • Réponses 283
  • Créé
  • Dernière réponse
C'est bizard...pasque moi j'ai vu des testes sous Hl2...qui disai le contraire....encore un coup des sectaire ATI/Nvidia...inutile de replôngé dans un débat....attendon plutot la sortie du jeux. Du concré quoi... :keskidit:

Faux...les NVidia et les ATI sont très proches sous le CS Source Stress Test...et non sous le HL² stress test...ce qui s'explique par le faible nombre d'objets a rendre et le peu d'effets qui leur sont appliqués...Le premier test que je met concerne bien le HL² StressTest...et non le CS Source StressTest (qui est distribué massivement)...ATI est meilleur que NVidia sous les jeux DirectX9.0 et de loin...les cartes ATI doivent leur bonnes performances à l'énorme Fillrate qu'elles possèdent.../b]

Les seul avantage de la X800Xt...se son ces meiileur condition d'utilisation. Elle chauff beacoup moin, consomme moin de Watt et elle est beaucoup plus petite...

Oui, la X800XT chauffe moins, est plus petite et consomme beaucoup moins que les cartes NVidia...qui semble ces derniers temps être atteint du mal de 3DFX...

Mais c'est bien la 6800Ultra qui est la plus perf...et ya pas 2 ou 3fps de différence...dans la majorité des jeux et des bench!!.... :ouioui:  :keskidit:

Faux, tu confond avec la GF6800Ultra Extrème, que beaucoup de testeurs présentent comme étant une GF6800Ultra...ce qui n'est pas le cas...les GF6800UE sont bien plus chère (900€) que les GF6800U (600€), et fonctionnent a une fréquence légèrement plus élevé (50Mhz de plus qu'une Ultra), juste histoire de dire que ATI n'est pas le meilleur sous DX...mais a quel prix...la carte chauffe tellement que sous DooM III, il est impossible de la laisser a sa fréquence d'origine (et ce même si elle est watercoolée)...y'a plein d'artefacts qui apparaissent et on est obligé de baisser les fréquences...

Et je parle même pas de l'overclock(ou la X800Xt n'arrive même pas a rivalisé!!!!).....ni du SM3.0.....

Oh le beau troll...t'est au courant que les PS3.0 ne servent à rien...ATI supporte ce qui devait être la grande nouveauté des SM3.0...à savoir le geometry instancing et ce depuis le R300 (Radeon 9700)...qui plus est en couplant la technique de compression 3Dc, geometry instancing et SM2.0b, ATI met dans le vent NVidia...sinon, pour l'oc des Radeons X800, t'est au courant qu'une GF6800 ne peut pas prendre plus de 50Mhz...la ou une X800XT supporte plutot bien le fait de monter à plus de 80Mhz au dessus des fréquences de base et ce avec le refroidissement d'origine...qui plus est, du fait de certaines "optimisations" les GF supportent très mal les montées en fréquence sous DooM III, alors que les ATI ne rencontrent pas ce problème...

Waloo-->je ne dis pas que tu a fait le mauvai choix. Aparament tu n'est pas un overclocker et tu recherche plus le confort que les perf brut. Donc comme la X800Xt est moin chére....pourquoi pas.

Sur le papier, la X800XT dispose d'un fillrate deux fois plus élevé que les GF6800 (on peut arriver au même résultat en utilisant comme toujours chez NVidia des optimisations spécifiques)...les performances en calcul de shaders...ATI est loin devant...NVidia travaille toujours en FP16 alors que ATI travaille en FP24...conformément aux spécifications de DirectX...sous FarCry, par exemple, ATI est loin, loin devant les NVidia...une simple Radeon 9700Pro fait parfois aussi bien qu'une monstrueuse GF6800Ultra Extrème...pourtant 4 fois plus chère...

Pour le P4....2.8 c'est limite pour une X800Xt....elle va trés bien marché mais bien en dessous de ces perf max...

Avec un PIV, de toutes façons, il n'atteindra pas les scores qu'il aurait pu avoir s'il avait eu un Athlon64...car ces derniers sont bien plus performants que les P4 dans les jeux et d'une manière générale dans tout ce qui nécéssite des gros calculs....

Lien vers le commentaire
Partager sur d’autres sites

Au vu de la récente baisse des prix je m'apretais a acheter un p4 3.4C car dans les benchs il ne semble passi loin que ca, que pense tu de mon choix charles?

J'ai de la mémoire corsair xms pro pc 4000 (2x512 en twins) et je pensais qu'elle irait parfaitement avec unp4 fsb 800 (3.4C)

Bref vaut mieux que je me tourne vers ati ou je verrai pas la diffréence? Ah oui je confirme mon choix quant au fait de prendre une x800xt pe, tu m'as convaincul charles lol... j'espere que tu dispas nompornawak car g du mal a savoir ce qui est le mieu avec tout ces benchs qui se contredise :)

Lien vers le commentaire
Partager sur d’autres sites

Ben pour les cg, c'est kif kif...les deux cartes 3D se valent...sinon, pour l'écrart de perfs entre P4 et Athlon...regarde ici :

http://www.hardware.fr/articles/496/page1.html

Pour les cartes graphiques haut de gamme, c'est le premier test intelligent que je voie...avec une conclusion pas vraiment tranchée...tout comme les écarts entres ATI et NVidia...

http://www.presence-pc.com/article-161.html

Au final, sur le plan des performances pur et avec notre panel de jeux, il est indéniable que la X800 XT surpasse légèrement la 6800 Ultra dans une majorité de situations. Grâce à son fillrate supérieur et à son architecture relativement simple (éprouvée en tout cas) et efficace, la X800 XT se révèle en effet plus homogène et régulière au fil des jeux. Attention toutefois, la 6800 Ultra est rarement loin, et conserve l’avantage sur des jeux bien précis.

...

Cela dit, ne jouons pas les blasés : nous sommes véritablement en présence de deux cartes extrêmement puissantes, capables d’exécuter quasiment n’importe quel jeux en 1600 x 1200 AA 4X + aniso 8X de manière fluide, et l’écart de performance avec l’ancienne génération est considérable. Il faudra attendre un an et demi voir deux ans avant d’observer à nouveau un tel écart.

Pour ceux qui se demandent maintenant quelle importance peut-on accorder au support du Shader Model 3.0 et des autres spécificités du NV40 face au support du 3DC du R420, il est difficile de donner une réponse définitive. Ce qui est sûr, c’est qu’aucune de ces fonctionnalités ne permet à une puce de prendre l’avantage sur l’autre avec les jeux actuels. L’expérience des précédentes cartes tendrait également à prouver que l’adoption des nouvelles fonctionnalités est assez lente auprès des développeurs, et que la positionnement d’un GPU par rapport à son concurrent change rarement pendant sa durée de vie. Encore une fois, il est certain que le Shader Model 3.0 s’imposera à termes comme le Shader Model 2.0 est aujourd’hui utilisé par un nombre croissant de jeux.

Encore une fois, n’oubliez pas qu’au-delà des performances brutes, d’autres éléments sont tout aussi voir plus importants. Au niveau du prix, les deux solutions sont à peu près équivalentes pour l’instant avec un prix compris entre 550 € et 650 € pour les deux cartes sur notre comparateur de prix. Côté silence, nous l’avons dit, avantage à ATI. Côté évolutivité, nous aurions tendance à donner l’avantage à nVidia avec le SM 3.0 donc. A noter qu’un élément vient s’ajouter à cela : le SLI. Concrètement, il est possible avec nVidia d’acheter aujourd’hui une carte (6800 GT ou Ultra), et d’en racheter une autre dans un ou deux ans, afin de doubler le fillrate sans avoir à réinvestir dans le nouveau haut de gamme. Cette technologie a pourtant plusieurs inconvénients. Déjà, elle reste bien sûr limitée au PCI Express. Ensuite, il faut prévoir de passer à une plateforme nForce 4 Ultra pour en profiter, d’où un nouveau surplus. Enfin, l’adjonction d’une nouvelle carte doublera la consommation électrique (150 W au total environ), mais aussi le bruit (+ 3 dBA). Cela dit, certains de ces défauts étaient également présents avec le SLI de 3dfx, ce qui n’a pas empêché le succès de cette solution.

Le résultat de ces tests est de bon augure, car il prouve indéniablement que nous sommes en présence de deux architectures solides et aux performances pas si éloignées, malgré deux conceptions assez différentes. C’est surtout cela qu’il faut retenir de ce comparatif, car au fond la 6800 Ultra et la X800XT restent réservées à une minorité. Contrairement à ce que l’on pouvait observer avec l’ancienne génération (grosse faiblesse de l’architecture nv3x sur le shader model 2.0), les deux bases sont solides et devraient donner lieu à une superbe bataille sur le milieu et l’entrée de gamme.

Pour ce qui est du SLI avec les cartes NVidia, il faut des cartes dotées d'un connecteur spécial, que seules certaines GF6600 possèdent...qui plus est il ne sera pas possible de faire du SLI sur les plateforme Intel, NVidia ayant annoncé que le seul chipset gérant cette fonction serait le NForce4 SLI pour Athlon64 socket 939...

Preuve que les résultats ne sont pas tranchés...

bencha.gif

benchb.gif

benchc.gif

benchd.gif

benche.gif

benchf.gif

benchg.gif

benchh.gif

benchi.gif

(NVidia peut remercier ses optimisations...)

benchk.gif

(la c'est ATI, mais l'écart varie beaucoup selon les réglages, cf mes posts précédents)

benchj.gif

Source : http://www.presence-pc.com/article-161-1.html

Lien vers le commentaire
Partager sur d’autres sites

Ben pour les cg, c'est kif kif...les deux cartes 3D se valent...sinon, pour l'écrart de perfs entre P4 et Athlon...regarde ici :

http://www.hardware.fr/articles/496/page1.html

Pour les cartes graphiques haut de gamme, c'est le premier test intelligent que je voie...avec une conclusion pas vraiment tranchée...tout comme les écarts entres ATI et NVidia...

http://www.presence-pc.com/article-161.html

Pour ce qui est du SLI avec les cartes NVidia, il faut des cartes dotées d'un connecteur spécial, que seules certaines GF6600 possèdent...qui plus est il ne sera pas possible de faire du SLI sur les plateforme Intel, NVidia ayant annoncé que le seul chipset gérant cette fonction serait le NForce4 SLI pour Athlon64 socket 939...

Preuve que les résultats ne sont pas tranchés...

bencha.gif

benchb.gif

benchc.gif

benchd.gif

benche.gif

benchf.gif

benchg.gif

benchh.gif

benchi.gif

(NVidia peut remercier ses optimisations...)

benchk.gif

(la c'est ATI, mais l'écart varie beaucoup selon les réglages, cf mes posts précédents)

benchj.gif

Source : http://www.presence-pc.com/article-161-1.html

le probleme dans tout ça, c'est que les gens voudraient aussi savoir les perfs de la x800 pro, car moi par exemple, j'hesite entre la x800 pro et la 6800 gt quoi, pas entre la x800 xt et la 6800 gt :ouioui::mdr::mdr: :8 :8 :8 :fumer:

Lien vers le commentaire
Partager sur d’autres sites

--> Charles.w

J'ai jamais vu autant de connerie dans un seul texte... :chinois:

Je commence...

Pour HL2...j'ai dit que j'alais pas relancé le débat. Attendon que le jeux sort et que les 2 constructeur est optimisé leur driver....

Pour le 6800UED... :ouioui:

Non je comfond pas. Je parle bien de la 6800U (400/1100). La 6800UED n'est qu'une 6800U overclocké! Elle na rien de spéciale. Pour la chaleur et les artéfact... :craint: tu oublie que j'ai une Leadtek 6800Ultra. Elle est overclocké à 461/1225....et ses température son correcte.

Les perf des 6800Ultra son suprérieur à celle de la X800XT. Et ceci dans tout les domaine. D'ailleur les perf augment encore a jaque fois de Nvidia sorte des nouveau driver...

Pour les OC des X800 et 6800....tu a raison le X800Xt peut prendre 80Mhz. Ma 6800Ultra n'en prend que 61. Mais la encore tu ne sai pas de quoi tu parle! Le 6800 a une érchi plus efficace. Il suffit de regardé les freq d'origine des 2 cartes. Bref un gain de 61Mhz sur la 6800 est superieur a un Gain de 80Mhz sur la X800XT....pas de bole..

Pour Doom3....ma 6800Ulta est à 461/1225 est ya pas de prob.... :mdr:

Pour le SM3.0... :roll: ....je vai rien dire. Regarde le gain apporté sous Farcry...

Pour la précision des shader. FP16/24/32. La encore tu ne sai pas de quoi tu parle. Il est exacte que les FX peuvent seulement travaillé en FP16 ou 32. Une erreur énorme de la part de Nvidia! Les R300 et suite peuvent travaillé en FP16/24/32. La ou tu te troupe....c'est que les 6800 et 6600 peuvent maintenant travaillé en FP24.... :pleure:

Pour la puissance de travaille des shader. C'est la 6800 qui a une puissance théorique phénoménale....je sai même pas ou tu prend tes info!!!

Le 6800 a des capacité de calcule de pixel shader nétément supéreur a celle du X800XT. Par contre pour les vertex shader les carte se val. Pour confirmé cela...il suffit de regardé les perf sous 3DM2003. La 6800Ultra "domine" la X800Xt dans tout les domaine sauf dans le teste mother nature.

Pour finire je dirai que le 6800Ultra est quans même une carte de luxe. Elle est beaucoup trop chére! La meilleur carte graphique du moment est la 6800GT. Elle monté facile dans les 425/1200 en overclock soit beaucoup plus puissant qu'une 6800Ultra ou une X800XT!! Et quand on voi leir prix... :yes:

Lien vers le commentaire
Partager sur d’autres sites

Je compléte...

Ya quand même des truc grave sur le net...

Par exemple la consomation éléctrique des 6800. Une 6800U consomme environ 110W.Je sai pas combien consomme ma 6800U à 461/1225 mais sa doit pas être énorme. J'ai un P4B2.4@2.9 est mon alime 400W siffit largose!

Pareille...les soi disan prob de stabilité des 6800 en overclock. Ma 6800Ultra tourne à 461/1225 24h/24! Pas un prob!....faut érréte la. ENcore un coup des sectaire ATI sa!

Pour les possibilité d'overclock. Je trouve plein de mec qui pensse comme toi charles.w. Tu n'a pas trop du réfléchir a la question! Tu t'est contanté de regardé les freq.

Une 6800Ultra (400/1100)

Une X800XT (525/1120).

Il est LOGIQUE qu'une 6800Ultra à 460/1200 est plu perf qu'une X800XT à 600/1200!

Il suffit de regardé les le % de freq en plus!.....

Sans parlé des températrure. Un X800XT OC à 600/1200 chauffe comme pas possible! ALors que sur la 6800Ultra ya pas trop de changement. La mienne à prit +6°C.

Pour les test de perf....certain donne la 6800Ultra gagniant d'autre la X800XT....moi je dit just "bizard".

Pour le SM3.0.... :-D ..dsl j'arrive pas a m'en empéché. Si tu veu que l'on compare nos argument...je suis pas contre....

Lien vers le commentaire
Partager sur d’autres sites

Ultra...l'archi de NVidia n'est pas plus efficace que celle de ATI...si tu concidère le rapport perf / fréquence, NVidia gagne mais si tu considère le rapport perf / nb de transistors, ATI gagne, si tu prend le rapport perf / consommation ATI gagne...donc tout dépend de ce que cache le terme efficacité...Par exemple AMD est mieux que Intel sous tout les points précités...

Si tu veux des cartes ATI qui s'oc énormément, regarde les X800Pro...qui passent largement au dessus des fréquence des XT avec le rad d'origine...sans parler des cartes HIS et Sapphire équipée d'un ATI silencer...

Si NVidia est devant ATI dans DooM III, il y a une excellente raison...ca vient de la méthode de compression des normales utilisée...Carmack savait que les ATI étaient assez peu performante dans certains cas et que NVidia était très performant dans les cas défavorables pour ATI...de plus, si tu regarde les fichiers de DooM III, tu verra qu'il n'y a pas de rendering path adapté au R3X0 / R4X0, alors que tu en trouve un pour chaque carte NVidia...c'est drôle non ?

Pour ce qui est de la précision des shaders, je crois tu trolle juste pour troller, visiblement, tu n'est pas au courant que les ATI ne peuvent travailler qu'en FP24...regarde les docs ATI...pour ce qui est de la précision des shaders, NVidia supporte les FP16 et 32 (jusqu'a 128 pour la série des FX)...regarde la doc de NVidia..."CineFX engine contains the only true 32-bit shading power" (source : http://developer.nvidia.com/object/geforce..._briefs.html)...

Pour les performances en calcul de shaders, regarde ce images...

bench4.gif

bench5.gif

(Source : PPC)

IMG0007771.gif

IMG0007770.gif

(Source : HFR)

Pour les perfs en Vertex shaders...

bench10.gif

Pour 3DMark 2k3, t'es au courant des optimisations autorisées pour NVidia et pas pour ATI...c'est pas un bench fiable, tout le monde le dit, avec l'histoire des FX, Futurmark s'est totalement discrédité...sinon, pour le classement, regarde le top 10 des inpacticiens...

Pour ce qui est de la carte offrant le meilleur rapport prix perf actuellement, je suis d'accord avec toi que NVidia fait mieux...j'ai jamais dit le contraire d'ailleurs...

--Réponse à ton dernier post--

Pour la consomation électrique...

IMG0007736.gif

IMG0007737.gif

(Source : HFR)

Comme tu peux le voir, les ATI consomment moins que les NVidia...

Pour ce qui est de la stabilité en oc, les tests sur une carte ne permettent pas de tirer une conclusion générale...ce que je vois, c'est que de nombreux possesseurs de X800Pro n'ont pas eu trop de mal a les oc sur PC INpact...

Qui plus est la majorité des gens n'overcloquent pas leur carte, donc comparer des cartes oc ne veut pas dire grand chose, cela dépendant essentiellement des cartes que les testeurs on eu entre les mains...

Pour ce qui est des pixel shader 3.0 et des soit disant perfs apportées sous FarCry, comme de nombreuses personnes, tu confond avec le geometry instancing qui permet de dupliquer des objets simple un grand nombre de fois sans pour autant consommer beaucoup de bande passante mémoire ni AGP...fonction qui est également supportée par les cartes ATI...

Sinon, Ultra avant de troller, cite tes sources...tu sera plus crédible...

Lien vers le commentaire
Partager sur d’autres sites

bananaday -> Pour répondre a ta question, les GF6800GT offrent le meilleur rapport prix / perfs du moment pour ce qui est des cartes haut de gamme...voilà...si je suis pro ATI, je n'hésite pas non plus a conseiller du NVidia quand celles-ci sont bien meilleures et moins chères...

--Edit--

Ouééé mon nombre de post est égal au numéro de l'année du débarquement en Normandie :yes:

Lien vers le commentaire
Partager sur d’autres sites

il a pas tout a fait tort charles,meme raison... :yes:

la 6800U est une excellente carte et apparement est un chouilla devant une X800XT,et ca s'ameliore avec les drivers.

apres aller dire que les ATI exploseront les Nvidia sur HL² parce que CS source montre je sais pas trop quoi ca me laisse pantois,CS source est bidon,HL² on sais meme pas s'il sortira un jour et si ca sera pas un bide ou une daube donc bon on verra quand il sortira.

personellement les fillrate tests et vertex shaders ou autre shaders a la noix que ma carte les calcule mieux que les autres j'en ai rien a faire,seuls les FPS et la qualité d'image comptent,l'archi j'en ai rien a faire,tout comme si ca consomme qq watts en plus ou si ca chauffe un peu plus du moment que ca reste raisonnable.

en gros les deux cartes haut de gamme se valent,meme si la nvidia est plus plaisante et peut etre un tout petit poil devant.

Lien vers le commentaire
Partager sur d’autres sites

Déjà avec les bidouilles aniso (ati fait du brilinear au dessus de la première transition, nvidia fait de l'aniso 2x)...c mal

pour les consommations électriques, c'est tellement proche qu'on peut dire que c'est égal...

pour les perfs pures...mouais, c'est comme 3Dmark, on s'en fout...

après, faut voir les perfs dans les jeux...

et là, John Carmac, il est méchant, il a fait des trucs anti-ati ouloulou...

(je peux peut-être rappeler que ati était partenaire principal du jeux au début, mais a leaké une version alpha du jeu, ce qui n'a pas vrailent plu à JC... :transpi: )

...c'est paut-être aussi que les nvidia peuvent faire des calculs sur les stencil buffers "gratuitement" (32x0 au lieu de 16x1)...

...pour la précision 24 bits, à l'époque, il n'y avait pas de specs microsoft, donc chaque société à choisit...

nvidia a mis deux précisions (16 et 32), et ati a parlé avec grosoft et a mis 24 (perso, je trouve plus logique de mettre 16 et 32, mais bon...)

bon, après, l'opengl, ça explique aussi les mauvaises perfs d'ati sous doom3...

Il reste à voir HL2, une fois qu'il sera sorti...

Lien vers le commentaire
Partager sur d’autres sites

tuXXX, après l'histoire du leak, il est passé chez NVidia, ses première amours (enfin presque, avant c'était plutot 3DFX)...

Sinon, pour le bilinear, tu peux le virer en mettant des drivers alternatifs...

Pour ce qui est de la précision de 24bit, c'est mentionné dans le SDK de DX9.0a & b...

Pour ce qui est des perfs en OpenGL, lis cela...

ATI : Futures optimisations pour ses cartes graphiques X800

--Edit--

Pour la précision des shaders, je ne le retrouve pas dans le SDK, par contre, MS en avait parlé lors de la conférence qu'ils avaient donnés à Meltdown sur le sujet, mais c'est vrai que la précision "officielle" de DX est assez floue...

Lien vers le commentaire
Partager sur d’autres sites

elle dechire ma carte :-) , j ai lu tous les tests (ok ptet pas tous mais bcp, je glande pas mal au boulot) ,il n y pas d enrome differences de perfs, j ai jamais été pour ati ou pour nvidia , d'ailleur ma precende carte a duree 1 ans et demi (ati 9700 pro) j ai testé dans DOOM 3 (qui est par ailleurs tres beau mais tres lassant apres 2 heures...) c est vrai que l ecart est enorme entre ma 9700 et ma new 6800 ultra , et sous word 2003 j ai des perfs ahurissantes :-) .Ce que je regrette ces que les jeux soient dorenavant optimisés pour tel ou tel carte , bientot ils sortiront des jeux qui marchent plus que sur ati ou sur nvidia :-) , sinon ben salut :transpi:

Lien vers le commentaire
Partager sur d’autres sites

-->justifié.....OK.

Tous d'abort j'ai commi une erreur. Les ATI ne son effectivement que compatible FP24...je sai même pas pourquoi j'ai dit sa...

Je vai m'ataqué au point les plus important.

Tous d'abort le SM3.0 et Farcry.

C'est ici.. http://www.tomshardware.fr/article3d.php?I...e=662&NumPage=6

Ce teste...comme beaucoup d'autre sur le net montre le gain apporté par le SM3.0. Il est trés long est répértorie beaucoup de niveau. Comme vous pouvai le voir lae gain est trés variable mais non négligable.

Le SM3.0 a deux avantage principale.

1) il simplifié la programation des shader. Donc un jeu devient plus facile et moin long a programmé. Cette atout dervrai intéréssé beaucoup de programmeur. Je dit sa pour dir qu'il devrai vite s'imposé.

2) Et bien comme on le voi sur Farcry...il s'implifie le calcul de la carte 3D. Comme toute nouvelle technologique..il n'est surement pas arrivé a maturité. Le gain dans les prochain jeux sera peut être plus important...mais ce n'est qu'une hypotése.

Maintenant je m'ataque au perf des 6800Gt/Ultra et X800Pro/Xt en overclock....je cherche....

Lien vers le commentaire
Partager sur d’autres sites

X800Pro VS 6800GT...overclock

http://www.xbitlabs.com/articles/video/dis...-extreme_6.html

Voici un teste d'overclock. La X800Pro est modé (VMOD GPU et mem) et a un Watercooliong. Elle tien à 630/1180.

La 6800Gt a seulement un warecooling sans modif de la tension. Elle attein 450/1200.

Bien que le combat semble déséquilibré....la 6800GT dépasse la X800Pro "surboost" dans pas mal de bench.

En aire cooling vous pouvai voir que la 6800GT a attein 420/1200.

La X800 sans le VMOD et en air cooling a seulement attein 530/1150.

Là il est claire que la X800Pro ne peut rien faire.

Vous pouvait également voir qu'a freq d'origine....la X800Pro ne fait également pas le poids...

Bon je vai mangé...le 6800Ultra VS X800XT overclocké demain...ou ce soir...avec un peut de motivation....

Lien vers le commentaire
Partager sur d’autres sites

Dit Ultra, tu semble confondre X800Pro et X800XT...Face à la X800Pro, il y a effectivement la GF6800GT...j'ai dit que la GF était meilleure que la ATI...seulement, la on parle des "King of the hill" de ATI et de NVidia...et non des cartes dérivées par le bas...

Sinon, pour ton OC de X800Pro / GF6800GT, pourquoi ne pas prendre la X800Pro Toxic de Sapphire qui dispose d'un refroidissement plus poussé que celui des cartes d'origine...la Leadtek qu'il prennent est équipée d'un refroidissement plus poussé que celui de GF d'origine, alors que les Powercolor ont un rad BBA...qui plus est les performance en OC sont extrèmement variables...les cartes modernes sont équipées de sondes et font baisser leur fréquence si l'on monte trop haut et qu'elle se mettent a trop chauffer...

Pour l'inpact des SM3.0, l'article de Tom's ne montre rien de plus que l'inpact du geometry instancing...que les ATI supportent aussi, mais que Crytek a rajouté au dernier moment dans son patch 1.2, seulement cet ajout a la hate n'avait pas été testé et faisait planter les cartes ATI...entrainant de fait le retrait du patch...

Dans la version du patch qu'utilise Tom's est une pré-version du patch 1.2 ne prenant en compte que les cartes NVidia...donc il est normal que les ATI ne voient pas leurs perfs augmenter...il faut attendre le retour du patch 1.2 pour mesurer les performances liées au geometry instancing...

Pour ce qui est des SM3.0...voici les différences entre les différentes version des SM...

Pixel Shader Differences

--------------------------------------------------------------------------------

These are the differences between the pixel shader versions.

Version Maximum number of instructions

1_x 8 for version 1_1.

12 for versions 1_2 and 1_3.

14 for version 1_4.

2_0 64 arithmetic and 32 texture instructions.

2_0 Extended 96 minimum, up to 512 maximum. The exact number is specified by D3DCAPS9.PS20Caps.MaxPixelShaderInstructionSlots. See D3DCAPS9.

3_0 512 minimum, up to the number of slots in the D3DCAPS9.MaxPixelShader30InstructionSlots (not more than 32768). See D3DCAPS9.

New Features

New features for each version include the following:

Version 3_0

Static flow control instructions: call, callnz, else, end, endif, endloop, endrep, if, label, loop, rep, ret

Static flow control nesting depth

Number of temporary registers

Dynamic flow control instructions: break, breakc, ifc

Predication: setp instruction, p# register

New registers: constant integer, constant Boolean, loop counter, predicate

New modifiers: arbitrary swizzle

Version 2_0 Extended

New static flow control instructions (with a cap set): call, callnz, else, end, endif, endloop, endrep, if, label, loop, rep, ret

Static flow control nesting depth

Number of temporary registers

Dynamic flow control instructions: break, breakc, ifc

Gradient instructions: dsx and dsy

Texture instructions: texldd

Predication - setp instruction, p# register

New registers: constant integer, constant Boolean, loop counter, predicate

New modifiers (with a cap set): arbitrary swizzle

Version 2_0

New instructions:

Setup instructions: def, ps

Arithmetic instructions: add, cmp, cnd, dp3, dp4, lrp, mad, mov, mul, nop, sub

Macros: exp, frc, log, m3x2, m3x3, m3x4, m4x3, m4x4

Texture instructions:

Added: texldb, texldp

Removed: tex, texbem, texbeml, texcoord, texcrd, texdepth, texdp3, texdp3tex, texm3x2depth, texm3x2pad, texm3x2tex, texm3x3, texm3x3pad, texm3x3tex, texm3x3spec, texm3x3vspec, texreg2ar, texreg2gb, texreg2rgb

New registers: constant float, sampler, output color, output depth

New modifiers: negate, partial precision, saturate

Removed co-issuing of instructions

Version 1_X

New instructions:

Setup instructions: def, ps

Arithmetic instructions: add, cmp, cnd, dp3, dp4, lrp, mad, mov, mul, nop, sub

Macros: exp, frc, log, m3x2, m3x3, m3x4, m4x3, m4x4

Texture instructions: tex, texbem, texbeml, texcoord, texcrd, texdepth, texdp3, texdp3tex, texkill, texld, texm3x2depth, texm3x2pad, texm3x2tex, texm3x3, texm3x3pad, texm3x3tex, texm3x3spec, texm3x3vspec, texreg2ar, texreg2gb, texreg2rgb

New registers: constant, temporary, texture, color

New modifiers: instruction modifiers, register modifiers, source register selectors, register write masks

--------------------------------------------------------------------------------

© 2002 Microsoft Corporation. All rights reserved.

Tiré de la doc du SDK de DX9.0c...le seul apport des SM3.0 que ATI ne supporte pas, c'est les nouvelles instructions de dynamic flow control et de prediction (predication) de branchement...cela permet de simplifier la programmation, mais pour l'instant, cela ne marche pas...du moins pas correctement...aucune carte actuelle n'est assez performante pour tirer réellement profit de ces fonctions...les algos de préditions de branchement ne sont utiles qu'avec des piplines d'instruction longs et a des fréquences de fonctionnement élevées...si une mauvaise instruction est chargée dans le pipeline, on est obligé de vider completement ce dernier, entrainant ainsi une perte de performance globale...pour résoudre ce problème, il y a plusieurs solutions et la je vais distinguer deux cas :

- AMD a choisi d'améliorer ses algorithmes de prédiction de branchement et de garder des pipelines d'instruction relativement courts

- Intel a choisi de monter en fréquence afin de limiter les dégats lors d'erreurs de prédiction de branchement...qui plus est comme Intel utilise des piplines relativement long dans ces processeurs, l'impact d'une erreur de prédiction de branchement est important et ne peut être compensé par la montée en fréquence...et c'est la qu'Intel s'est rappelé aux bons souvenir d'une méthode inventée par AMD en 1996, alors que des accords de partage de compétences existaient entre les deux firmes...j'ai nommé l'HyperThreading...qui consiste (dit vite fait mal fait) a boucher les trous provoqués par des erreurs de prédiction de branchement en chargeant d'autres instructions...merci AMD...

Pour en savoir plus sur les techniques de pipelining et les prédictions de branchement...

http://www.cs.iastate.edu/~prabhu/Tutorial/title.html

http://www.lpds.sztaki.hu/teaching_materia...line/sld001.htm

Lien vers le commentaire
Partager sur d’autres sites

Ben disons, que j'aprécie guère quand on attaque sans apporter de preuve, ni citer de sources...j'ai mentionné mes sources, afin que tout le monde puisse bien voir que ce que j'avance est justifé autrement que par des paroles en l'air...qui plus est, je n'hésite pas a corriger les informations fausses ou erronnées que je peux laisser traîner ici et là...

Sinon, je doute qu'Ultra se soit penché sur d'autres arguments que ceux marketting...cf les nombreuses erreurs commises et les nombreuses imprécisions...

Lien vers le commentaire
Partager sur d’autres sites

Archivé

Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.


×
×
  • Créer...