Aller au contenu

[CENTRA] [CG] Scores 3DMark 2006


Messages recommandés

  • Réponses 1,5 k
  • Créé
  • Dernière réponse

:mdr: Mon dieu, mais les ATI sont à la ramasse mais LOL

Ce tableau vient du comparatif AA NVIDIA-ATI

Ouh la t' es un vener toi :mdr:

C' est pas parce que tu essaies de défendre des cartes fantomes qu' il faut monter sur tes grands chevaux :mdr:

Allez j' arrete, mais juste pour info je répète que ce topic n' est pas fait pour ces questions :non:

EDIT: C' est valable pour tout le monde, hein Bob, faut arreter de répondre aux provoc sinon on va pas s' en sortir :-D

:yes: faut bien montrer que Nvidia est devant ^^

promis j'arrete :p

Sauf que dans 4 jours, c'est ATI qui reprendra la couronne (sans avoir besoin de tricher, comme le fait si bien NVidia)...sous les jeux où il y a beaucoup de shaders, la X1900XTX 512Mo affiche *juste* 30 à 40% de FPS en plus qu'une GTX 256Mo...là ou une GTX512Mo se contente de 5 à 10%...

Game Test -> GeForce 7800GTX 256MB -> Radeon X1900XT 512MB

FEAR 1600x1200 No AA -> 48 FPS -> 61 FPS

FEAR 1920x1200 No AA -> 41 FPS -> 55 FPS

FEAR 1600x1200 4xAA -> 25 FPS -> 45 FPS

FEAR 1920x1200 4xAA -> 21 FPS -> 37 FPS

COD2 1600x1200 No AA -> 31 FPS -> 39 FPS

COD2 1920x1200 No AA -> 28 FPS -> 35 FPS

COD2 1600x1200 4xAA -> 25 FPS -> 35 FPS

COD2 1920x1200 4xAA -> 22 FPS -> 29 FPS

BF2 1600x1200 No AA -> 61 FPS -> 63 FPS

BF2 1920x1200 No AA -> 60 FPS -> 60 FPS

BF2 1600x1200 4xAA -> 53 FPS -> 57 FPS

BF2 1920x1200 4xAA -> 46 FPS -> 51 FPS

Source : http://www.dailytech.com/article.aspx?newsid=310

En terme de puissance de calcul, la X1900XTX devrait être au dessus de la 7900GTX 512Mo (en supposant des fréquences identiques aux 7800GTX, mais 32PP avec 1 ShaderProcesseur par PP)...mais en fait, ca dépendra surtout de la manière dont sont programmées les applis...

Si c'est du code DX standard, ca ne posera pas de problème, normallement, la X1900XTX devrait être devant - mais il est fortement probable que si NVidia ait différé le lancement de ses nouvelles cartes, c'est pour augmenter les fréquences au dernier moment, en fonction des perfs des cartes ATI...qui elles aussi en ont sous la pédale (le X1800XT est quand même le premier GPU a avoir dépassé le GHz en OC) - par contre dans le cas des jeux NVIDIA, ou normallement, le code est prévu pour exploiter à fond l'archi de ces cartes...les ATI seront derrière...du fait qu'elle ne comporte que 16pixel pipelines dotés chacun de 3 pixel shader processeur (48 au total donc)...

NB : Il est également fort probable que le schéma proposé par ATI soit retenu par MS pour DX10 et soit utilisé par NVidia par la suite, puisque ca permet d'économiser un nombre conséquent de transistors par rapport à des pixels pipelines complets...le tout, sans trop perdre en performance par rapport à une archi à 1 shader processeur par pixel pipeline...le problème, c'est que la parallélisation de certains traitements et les branchements dynamiques qui vont de pair avec ce type d'archi entrainent une complexité non déterministe...dans certains cas, le gain sera très important...dans d'autre...ben...il faudra s'en passer...

PS : @kgabou -> Au fait, ce n'est pas normal qu'un constructeur soit partie prenante dans le développement d'un benchmark...on peut prendre la F1 (ah non, on me souffle que c'est un mauvais exemple) si Ferrari (et c'est le cas, malheureusement) n'avais pas de lien très fort avec certains dirigeants de la FIA...auraient-ils gagné autant ? Non...la réponse est sans appel ! NVidia est juge et partie...ce n'est pas normal...normallement un bench DX9 doit utiliser du code DX9 générique, sinon, ce n'est plus un bench DX9...et dans le cas d'un code générique, comme c'était le cas dans les éditions 2003 et 2005, les X800XT PE étaient devant les 6800Ultra Extreme (sisi ca existe...je connais quelqu'un qui en a une...c'est une 6800Ultra en série ultra limitée, surcadencée de 50Mhz pour le GPU) puisqu'elles se conformaient strictement à l'archi demandée par MS pour DX9.0b...et pas les cartes NVidia...

PS2 : @bob63 -> Heu...c'est étonnant...mais j'ai comme l'impression qu'on observait le même genre de comportement avec les GeForce en SLI au début...je peux aussi te raffrachir la mémoire si tu veux :mdr:

En tout cas, dans la vraie vie, force est de constater qu'a moins de vouloir montrer "qu'on a la plus grosse" le SLI et le CrossFire ne servent à rien...si...en fait...à avoir la plus grosse facture d'électricité re- :D

Pour moi le x1900xt, n'a absolument rien de formidable.

Et pis les scores de la x1900xt sont dècevant, dsl mais :

fear en 1600*1200 ... :

7800gtx 512 mo ddr : 62fps

x1900 xt 512 mo .... : 61 fps

.... ok, les pilotes sont pas encore optimisé, mais etre en dessous d'une carte concurante qui a 4mois ... c'est un peu abusé ...

le 7900 GTX devrait etre devant .... en thèoris, et en pratique aussi je pense.

m'enfin attendont le 24 janvier, pour voir si les perfs annoncé sont bien les bonnes ...

Lien vers le commentaire
Partager sur d’autres sites

icewind -> La carte concurrente, comme tu dis coute actuellement près de 790€...et est introuvable...et faut aussi voir la config...un FPS balancé dans le vent ne veut rien dire...si tu prends d'un coté une 7800GTX 512Mo avec un FX57 et de l'autre une X1900XTX avec un A64 2800+...ca risque de faire une grosse différence...et 1FPS n'est pas significative...si tu arrive à faire la différence chapeau...

Ensuite, t'est pas obligé de tout quoter quand le post auquel tu réponds se trouve sur la même page :-D

PS : La config utilisée pour le bench que j'ai linké est un Opteron 165, couplé à 2Go de ram PC3200...par contre CM et chipset inconnus...il suffit de cliquer sur la source...

PS2 : Sur HFR, ils obtiennent 60FPS avec une GTX512, sur cette config :

Asus A8NSLI Premium

AMD Athlon FX 57

2 x 1 Go de Corsair XMS 3200

Western Digital Raptor 74 Go

Lien vers le commentaire
Partager sur d’autres sites

Petite MAJ de la config idéale pour 3DMark...il manque quelques trucs, comme la cartes son (+200€ pour aller avec le reste)...et la carte physix (300€)...mais bon...pour une config à 7600€ (CGs + CPUs + CM + RAM + DD)...on n'est plus çà ca pret :D

c31205638ce6cf3ae13118b082ebf75b.JPG

Sinon, je ne saurais que trop vous conseiller de lire le petit topic de C_Wiz sur Cafzone...qui au passage s'est trahis...il floute son screen...et on voit quand même marqué Radeon X1x00 xxx oups...il était en train de bencher une X1900 XTX :D

Lire ceci

Morceaux choisis :

Jusque là, donc, tout va bien. Sauf que certaines cartes ne supportent pas tout ce qu'il faut. Une 6200 par exemple ne sait pas faire de blending FP16 (pour faire du beau HDR de qualité). Résultat, son score est calculé avec la formule SM 2.0. Pourquoi pas. Sauf que la règle change quand on passe au haut de gamme : si on active l'anti aliasing sur les dernières générations de cartes ? HDR+AA, chez nV ca ne marche pas. Donc on calcule un GS sur la base 2.0 pour les 7800 ? Non, cela ne retourne aucun GS.

Allez, j'en rajoute une couche. Si vous aviez eu la version 1.0 entre les mains de 3DM06 (la release officielle est une 1.0.2), les règles étaient différentes. Le score de la 6200 était calculé sur la règle SM 3.0 avec un score HDR à 0. Vous voyez ou je veux en venir ?

Quand je disais que NVidia était juge et partie :transpi:

On peut également parler du choix d'utiliser des buffer 24 bits (optionnels dans DX9 et pas dispo sur les X1800 biggrin.gif), ce qui fait qu'on se retrouve sur les cartes qui ne les supportent pas a utiliser des buffers R32F. L'impact n'est certes pas énorme (en théorie il devrait être plus elevé, faut que je cherche) mais le biais est toujours dans le même sens wink.gif

idem...les constructeurs n'ont rien à foutre dans la conception d'un benchmark...

Le fait est que selon les cartes, les techniques de rendu changent. Pour affiner les ombres, on utilise du filtrage bilinéaire chez nV, et un 4 sample chez ATI. Mais là encore, ca dépend des cas. Tout comme le fait qu'ils persistent à utiliser de la précision partielle pour faire plaisir à un des deux clients. Pleins de choses à dire sur le filtrage aussi.

Pourquoi ce choix ? Les ATI supportent aussi le filtrage bilinéaire...et c'est moins couteux qu'un 4 sample...et il faudra que je me renseigne, mais normallement, la précision partielle n'est utilisée dans aucun jeux normaux...comprendre par là ceux qui ne portent pas le logo NVidia et les désoptimisations qui vont avec...ATI et Valve n'avaient pas introduit de désoptimisation dans leur code pour défavoriser telle ou telle carte...alors que NVidia s'est déjà fait prendre plusieurs fois la main dans le sac, avec notamment DooM III/Quake 4 (encodage des normale aux textures dans un format qui n'est supporté que par les cartes NVidia), FarCry (HDR et Geometry Instancing) Splinter Cell (limitation au SM2.0 dès qu'une carte ATI est détectée)...et plus grave maintenant...avec un benchmark qui fait référence pour de nombreux journaux et autres sites internet...bravo NVidia...si seulement j'avais une X1800 sous la main...histoire de la maquiller en 7800GTX, sans avoir a écrire de compilateur de shader temps réel (ce qui était utilisé par NVidia pour optimiser les calculs sur les shaders à l'époque des FX, mais qui pourrait égalment intercepter tout les appels SM3.0 pour les convertir en appels SM2.0 équivalent)...pour pouvoir lancer les tests SM3.0 sur ma X800XL...

Alors tout n'est pas moisi, le 06 est beaucoup moins vertex bound que ses prédécesseurs (sans pour autant s'approcher d'un ratio d'un vrai jeu). Mais comme pour le 2003 et dans une moindre mesure le 2005, Futuremark fait des choix de développements qui changent en fonction de qui participe ou non à son programme de développement (uber payant). Quand vous comparez les différences entre un haut de gamme rouge et un vert avec la version 06, l'écart est beaucoup plus serré qu'avec le 2005. Incroyable non ?

Tout est dit...pourtant C_Wiz, (au contraire de moi) n'est pas spécialement pro ATI ou pro NVidia :transpi:

Lien vers le commentaire
Partager sur d’autres sites

voila mon ptit score :transpi:

3dm06petit2do.jpg

tu est en sli? (512 ou 256 mo la 7800gtx ?)

Charles.w -) ui mais bon pour une carte nouvelle gènèration je trouve que les perf annonce ne sont pas si extrordinaire que sa ... quand on sait que sur le papier sa l'air pas mal ... m'enfin pour se prenoncer, mieux vaut attendre le 24 janvier :)

7800gtx 512 : pas introuvable, faut juste savoir ou chercher :) le prix ... 650€ ...

Lien vers le commentaire
Partager sur d’autres sites

salut,

je viens d'o/c ma cg vraiment à donf, j'ai même augmenté le vagp :transpi: , vivement que je puisse acheter un zalman ^^

3d069600xt6003668nk.th.jpg

:transpi:

ma config :

ASUSTeK K8N Socket 754 nForce 3 250

AMD Sempron 3100+ 64Bits Rev. E6 @ 2475 Mhz @ 1.575v

512 Mo Kingston ValueRAM Cas 3 @ 225 Mhz @ 2.5-3-3-8 1T

MSI Radeon 9600 XT 128 Mo @ 600/366

HDD Maxtor DiamondMax Plus 9 40 Go ATA-133 + WD Caviar 80 Go ATA-100

Lecteur DVD Pioner DVD-115 + Graveur DVD LG GSA-4163B

Carte Son Creative SoundBlaster Live! Value

Alim noname 420w :D

Lien vers le commentaire
Partager sur d’autres sites

Nan...comment t'as deviné ? Serieusement, qui, hormis les testeurs, et les developpeurs peuvent avoir accès à du hardware qui n'est pas encore officiellement lancé ? :byebye:

tu sais j'était pas sur a 100% qui il était de joystick, c'était pour confirmation ... j'pense pas qu'ici les 1/3 des membres save qui est c-wiz ... après je savait que c'était un testeur mais j'voulais avoir confirmation d'ou il est (si c'est bien chez joystick)...

j'aurais pu me tromper, ou sa aurait pu etre un gars du site Hfr, ou d'un grd site amèricain ... ou d'un autre magazine :)

j'ai lus quelques tests de matos sur le mag joystick et j'trouve pas sa terrible les tests... j'prèfère ce de HFR ...

Lien vers le commentaire
Partager sur d’autres sites

Archivé

Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.


×
×
  • Créer...