Aller au contenu

Avis sur Carte graphique AGP8X ATi ou nvidia


Rudy124

Messages recommandés

Dans le genre têtu, tu fais fort Brave Heart. :D

Bonjour,

Je ne suis pas têtu, je suis déterminé. :bouletdujour:

Je sais qu'il est de bon ton dans les communautés de voir des complots partout ( Microsoft, Valve et autres...) mais l'avis d'un nerd sur je ne sais quel forum ne doit pas être prix comme argent comptant. :non:

Premièrement c'est prendre Valve pour un ramassis de crétins:ils mettent au point un moteur, le Source, et ils s'arrangeraient pour le rendre volontairement inopérant pour les possesseurs de Nvidia, comme le prétendent les rumeurs de couloir? :reflechis:

Personne n'est assez stupide pour faire cela :non: ...j'entendais sur un forum un gazier affirmer "de toute façon ils s'en foutent de le revendre, car ils ont touché 8 millions de dollars de chez ATI"....commentaire d'autant plus navrant que la personne ne sait visiblement pas à combien se vend un moteur.... :p

Ta principale réponse pour défendre le choix de Valve…est que le FX est un GPU peu performant et peu répandu. :mdr:

Ma principale réponse n'est pas de dire que le FX était de la daube....on crache sur Valve qui aurait trafiqué les résultats, mais mystérieusement on ne parle pas des benches pitoyables des FX dans d'autres jeux, comme Far Cry ou COD.

Qu'on regarde ce lien, en comparant par exemple une 5700 Ultra et une 9800 Pro:la différence est affligeante.Et là, il sera difficile de trouver une excuse de programmation et de codage pour justifier de tels résultats.

Bench COD

Ma réponse principale est d'affirmer qu'un jeu Dx9 ne peut être codé comme l'aurait voulu NV en shaders partiels, volonté justifiée par l'effondrement complet de ses modèles en mode 32.Si c'est du shader partiel, ce n'est plus un jeu qui peut avoir droit à l'appelation Dx9.

De plus, contrairement a ce que tu "essai" de dire depuis le début, la différence entre un mode FP16 et 32 n'a rien de flagrante à l'œil nu!! Dommage, sur le site de HardOC il montrait un lien comparant les deux modes sur HL². Malheureusement le lien est ne répond pas..... :craint:

Je n'essaye pas de dire...c'est l'évidence même dans de nombreux jeux.

Moi, j'ai un lien, sur Halo, en version 16 et 32 ( réponse N°88):

Halo

La différence est notable, n'est-ce pas? :mdr:

si HL2 est presque aussi beau en 16 qu'en 32, en ce cas il faut encenser les graphistes et programmeurs de Valve, qui doivent, finalement, être plus doués que leurs détracteurs ne le prétendent. :yes:

Autre point, même si l’impact est limité, le fait que Valve ait choisie de programmer en shader total ne bride pas que les FX. Il bride également les Geforce6 (j’ai comme l’impression que tu n’y a pas pensé). Une 6800GT perd de 5 à 10% de perf selon les paramètres graphique.

Effectivement 5% de fps en moins sur une 6800 GT, c'est très impressionnant. :mad2:

Il faut savoir que le mode de codage choisi fait varier-et pas seulement pour HL2- de 5 à 10% de façon normale...c'est même le but de tout jeu optimisé.

A titre info, l'Open GL et D3 font perdre dans les 8-15% aux ATI.....pour l'instant, ils n'ont pas été brailler au complot contre Carmack qui avouait ouvertement avoir codé en privilégiant Nvidia. :non:

Je te rappel juste que Ati était partenaire de Valve sur HL². Il aurait été tellement dommage que les cartes graphique du concurrent soit plus performantes. :roll:

Quitte à faire des rappels, autant préciser que lors de la vente aux enchères de la licence, le jeu était déjà bien avancé.....c'est Nvidia qui, de dépit de s'être fait rafler le marché, a fait le mauvais joueur:forcément, quand on a l'habitude de voir son logo sur toutes les licences, voir les Canadiens empocher la mise a dû leur rester en travers de la gorge.

Le moins que l'on puisse dire, c'est qu'ils sont mauvais perdants.....d'ailleurs, s'ils étaient si confiants dans la puissance de la gamme FX, ils n'auraient pas triché avec Futuremark pour le test de la 5900 Ultra.

Décidemment, 2003 a été une mauvaise année pour le Caméléon. :-D

Cela n'exonère pas le gars Gabe de certains commentaires qui sentent trop le parti-pris:il est évident que Nvidia était au courant des lacunes de ses FX, car de toute façon lors du développement d'un jeu un géant comme NVIDIA est tenu au courant des problèmes, mais ce n'est pas très fair-play de la part de Valve de régler ses comptes en public......

Lien vers le commentaire
Partager sur d’autres sites

Si si, tu es têtu. :transpi:

J'ai enfin retrouvé le lien que je cherché hier.

>> Detonator FX 44.65 : des pilotes enfin conformes à Direct X 9

Contrairement à une idée reçue, les pixel shaders 2.0 de directX 9 peuvent être traités avec une précision partielle FP16 , cette caractéristique ayant été ajoutée par Microsoft sous la pression de NVIDIA.

Voilà qui te prouve bien que le FP16 est géré de façon officielle par DirectX 9. Et depuis trés longtemps. Ce qui du même coup contredis pas mal de tes arguments. :chinois:

PS: A noté que je n'ais pas prit l'article le plus "tendre" envers nVidia.

Pour le reste, admet que tu divagues quand même beaucoup. Tu me parle encore que la qualité médiocre du FX (ce qui est vrai...mais n'est pas trop le sujet) alors que moi j'essai de te faire réagir sur le fait que le choix de programmation de Valve sur HL² est quelque peu douteux. Surtout qu'il n'y a aucun avantage à programmer un jeu en shader total.

Non seulement Ati était partenaire de Valve pour HL², mais en plus et par le plus grand des hasards, le choix de programmation avantage énormément les cartes Ati. Il n'y a pas à dire, le hasard fait bien les choses. .....

Pour la différence de qualité FP16/32 sur HL²...tout comme la plupart des autres jeux, non ce n'est pas dû aux programmeurs mais simplement à l'architecture du Geforce. D'ailleurs, juste comme ça, je te ferai remarquer que les Radeon X1X00 sont désormées capable de travailler en FP16. Comme je te l'ai déjà dis, ce rendu est plus qu'utile pour des effets très complexes comme le HDR......

Pour Doom3, oui IDsoftware le reconnaît ouvertement. Ce que je trouve normal. Carmack a utilisé l’une des technologies propriétaire de nVidia. L’Ultrashadow II. Technologie particulièrement bien adaptée à Doom3, car à l’instar du DST, il simplifie énormément le calcul des ombres. Les cartes nVidia ne calculent que les polygones visibles à l’écran alors que les cartes ATi calcul l’intégralité des polygones même ceux non visible. C'est-à-dire environ 4 fois plus. Après, certains trouvent ce choix injuste,…et je les comprends parfaitement.

Ceci dit, je te laisse. :mdr:

Lien vers le commentaire
Partager sur d’autres sites

Je vous remercie pour vos précieux conseils je compte donc me tourner vers un modèle 6800GT de chez aopen en contre remboursement car les POV et autres marques ne sont commercialiser uniquement dans des magasins

n' acceptant pas ce mode de paiement :D

Les trois mois passé dans l' attente de mon remboursement par chèque de 300 euros chez Multepass pour l' achat d 'une carte leatdek A400GT TDG qui ne m 'ai jamais parvenu ma surement servis de leçon :yes:

J 'espere que cette carte ne sera pas aussi bruyante que les anciennes FX ...

Lien vers le commentaire
Partager sur d’autres sites

Si si, tu es têtu. :p

J'ai enfin retrouvé le lien que je cherché hier.

>> Detonator FX 44.65 : des pilotes enfin conformes à Direct X 9

Contrairement à une idée reçue, les pixel shaders 2.0 de directX 9 peuvent être traités avec une précision partielle FP16 , cette caractéristique ayant été ajoutée par Microsoft sous la pression de NVIDIA.

Bonsoir,

Désolé de ne pouvoir commenter le lien, il est indisponible.....mais la citation est partielle..et partiale.

Nvidia ayant entre-temps lançé des CG pouvant exploiter le codage 32 bits( les GF6) a fait pression pour que le 24 bits d'ATI ne soit plus consiéré comme du full shader, mais du -pp:malheureusement, ne pouvant faire marche arrière car des jeux avaient déjà été publiés, Microsoft a trouvé un compromis:shaders et, sur dérogation, -pph, voilà ce qu'est le 9.0c:

Instructions Dx9

Ce qui ne fait qu'enfoncer encore un peu plus NV dans son rôle de mauvais joueur..... :pleure:

Le codage du jeu en -pp, contrairement à ce qui est dit, est donc impossible en Dx9.....car les FX ne peuvent gérer efficacement que le 16 bits,ce qui les place bien en deça du minimum requis.Valve avait donc raison d'en rester au Dx8.1, ces cartes étant bien incapables de viser plus haut.

Ce n'est d'ailleurs pas la première fois que NV est à la limite qui distingue marketing et filouterie, qu'on se souvienne de leurs déclarations triomphantes sur les GF ( et avec explication de gravure des studios Pixar, qui répondaient vertement à NV qu'ils avaient été bien optimistes en se comparant aux professionnels de l'image), puis à la sortie des GF4 MX 440 qui n'avaient de GF4 que le nom......

ici encore, on profite de la crédulité des joueurs:un type lance un hoax sur un forum (sans preuve, et nul n'en n'a jamais eu), comme quoi Valve avait sciemment trafiqué son coding pour avantager ATI, et tout le monde a suivi un bon moment.

Pourtant, dans des forums spécialisés, des voix s'étaient déjà élevés devant le lynchage:

Geek

Did Valve engineer Half-Life 2 specifically to make ATI look good? Or to make nVidia look bad? It's highly doubtful. The bundling agreement was made long after Valve completed the 3D engine of Half-Life 2, and Valve certainly hasn't gone back to rearrange the code after the fact. It seems it's a case of Valve choosing ATI for bundling because of the good ATI performance, not the other way around. Furthermore, Valve would've been stupid to actively sabotage nVidia performace since nVidia holds more than 60% marketshare of 3D accelerators.
To Valve's credit, it appears the company's put a lot of effort into correcting and massaging the poor GeForce FX performance in Half-Life 2. According to Newell, Valve spent more than 5 times as many hours tweaking the nVidia-specific codepaths of Half-Life 2 as were spent on ATI's codepath. The result was something dubbed "mixed mode," which mixes certain DirectX8 pixel shaders with DirectX9 shaders, trading 32-bit precision operations for 16-bit operations. Gamers will see reduced visual effects and quality, but framerates will at least be playable.

Newell seems to indicate the problem with the GeForce FX line is a fundamental architectural issue of too few registers. Indeed, nVidia programming support documents urge programmers to avoid using lots of registers. By reducing the precision from 32-bits to 16-bits, the number of registers effectively doubles--but with the aforementioned hit on quality. ATI's architecture is replete with registers and seems to suffer no problems at all running plain, unoptimized DirectX9 code.

Voilà qui te prouve bien que le FP16 est géré de façon officielle par DirectX 9. Et depuis trés longtemps. Ce qui du même coup contredis pas mal de tes arguments.

Non seulement cela ne contredit rien , mais en plus il faut savoir que cela ne correspond à rien

Comme je le disais plus haut, un shader-mais c'est une lapalissade ;) -est soit total, soit partiel:il n'est pas question de 32, 24 ou 16 bits.Nvidia voulait du 16 bits car ses cartes ne pouvaient pas viser plus haut,et lorsque HL2 a été créé, le standard Dx9 imposait bien du 24 bits, n'en déplaise à ce qu'on affirme.....NV, rancunier, ayant ensuite produit des CG assez costaud sour exploiter le 32 bits, a fait pression pour que tout shader en-dessous de 32 soit désormais considéré comme en -pph, c'est tout.

Cela n'invalide en rien ce que je dis, car les spécificités ne sont pas rétroactives. :non: .Et aucun jeu ne peut être en -pp et être classé Dx9, fut-ce 9.0c.

Il est d'ailleurs amusant de voir que NV et ses aficionados déclaraient à l'époque que le shader total était inutile, tandis que maintenant on exige qu'il soit en 32 bits!! (les shaders 3.0.....) ;)

Pour le reste, admet que tu divagues quand même beaucoup. Tu me parle encore que la qualité médiocre du FX (ce qui est vrai...mais n'est pas trop le sujet) alors que moi j'essai de te faire réagir sur le fait que le choix de programmation de Valve sur HL² est quelque peu douteux. Surtout qu'il n'y a aucun avantage à programmer un jeu en shader total.

Histoire d'aller encore plus loin dans les divagations

HL2 en shader total

HL2 en précision partielle

A moins d'être de mauvaise foi, prétendre que la qualité est voisine tient de l'aberration. :|

Non seulement Ati était partenaire de Valve pour HL², mais en plus et par le plus grand des hasards, le choix de programmation avantage énormément les cartes Ati. Il n'y a pas à dire, le hasard fait bien les choses.
Le moteur source était terminé quand ATI a raflé le marché......et il est étonnant que les réactions outrées soient à sens unique, personne n'ayant vraiment réagi à ceci:

......Enfin une bonne nouvelle

Pour la différence de qualité FP16/32 sur HL²...tout comme la plupart des autres jeux, non ce n'est pas dû aux programmeurs mais simplement à l'architecture du Geforce. D'ailleurs, juste comme ça, je te ferai remarquer que les Radeon X1X00 sont désormées capable de travailler en FP16. Comme je te l'ai déjà dis, ce rendu est plus qu'utile pour des effets très complexes comme le HDR......

:oops:

Mais les anciennes cartes ATI pouvaient aussi le faire, cela n'a rien d'exceptionnel..... :mdr2:

Pour Doom3, oui IDsoftware le reconnaît ouvertement. Ce que je trouve normal. Carmack a utilisé l’une des technologies propriétaire de nVidia. L’Ultrashadow II. Technologie particulièrement bien adaptée à Doom3, car à l’instar du DST, il simplifie énormément le calcul des ombres. Les cartes nVidia ne calculent que les polygones visibles à l’écran alors que les cartes ATi calcul l’intégralité des polygones même ceux non visible. C'est-à-dire environ 4 fois plus. Après, certains trouvent ce choix injuste,…et je les comprends parfaitement.

Carmack avait pourtant déclaré que selon lui la meilleure carte pour D3 était la 9700 Pro :pleure:

Il a simplement codé,selon ses propres dires, en utilisant les technologies pouvant atteindre le plus grand nombre de plateformes.....D3, ce n'est que du 1.1 basique......

Merci de m'avoir lu. :yes:

Lien vers le commentaire
Partager sur d’autres sites

Bonjour

Citation Ultra ==>

Pour la différence de qualité FP16/32 sur HL²...tout comme la plupart des autres jeux, non ce n'est pas dû aux programmeurs mais simplement à l'architecture du Geforce. D'ailleurs, juste comme ça, je te ferai remarquer que les Radeon X1X00 sont désormées capable de travailler en FP16. Comme je te l'ai déjà dis, ce rendu est plus qu'utile pour des effets très complexes comme le HDR......

Pour le terme en gras (FP16) tu es sûre ? je pencherais plutôt pour pour (FP32) étant donnée que les Radeon X1XXX gèrent désormais les Shaders en V3.

Maintenant peut etre que je me trompe :eeek2:

En examinant attentivement votre "confrontation" j' en ai déduis que ma commande seras à base de 6800GT (aopen surement) pour les Shaders V3 qui me garantiront peut-être une durée de vie plus conséquente (overclocking INside) qu' un modèle à base de X850XT tout aussi performant soit t-il.

Sur ce je vous remercie pour vos conseils :chinois: je vais pouvoir acheter en toute confiance :chinois:

:byebye:

Lien vers le commentaire
Partager sur d’autres sites

Bonjour,

La 6800 GS serait préférable à la 6800 GT

La 6800GS n' existe pas en AGP8X à ce jour ( les perfs sont globalement les mêmes, peut être légèrement supérieur a celles du 6800GT grace a des fréquences plus élevées mais bon...)

L 'idéal serais une 7800GS en AGP mais bon ... (c'est beau de réver dans la vie :D )

Pour revenir à la GS même si elle existait en AGP au niveau matériel il me semble qu'il y a quelques différences avec une 6800GT :

6800GS : 12 unités de pixel et 5 unités de vertex et des fréquences de 425/500 Mhz

6800GT : 16 unités de pixel et 6 unités de vertex et des fréquences de 350/500 Mhz

Si je ne m' abuse :transpi:

Un petit overclocking inside ... et le tour est jouer :smack: mon barton s'est montré plutôt docile à se niveau là histoire de ne pas trop "brider" ma future CG.

:byebye:

Lien vers le commentaire
Partager sur d’autres sites

La 6800GS n' existe pas en AGP8X à ce jour ( les perfs sont globalement les mêmes, peut être légèrement supérieur a celles du 6800GT grace a des fréquences plus élevées mais bon...)

On en rediscutera dans un mois.... :mdr:

Quant aux performances, elles devraient être inférieures à celles des 6800 GT, si on suit la logique (la fréquence ne fait pas tout):un fillrate de 5600 contre un de 5100 pour la GS.....visiblement, elle a été repensée, et est bien moins chère.

L 'idéal serais une 7800GS en AGP mais bon ... (c'est beau de réver dans la vie :transpi: )

On en rediscutera dans un trimestre!! :mdr:

Un petit overclocking inside ... et le tour est jouer :phiphi: mon barton s'est montré plutôt docile à se niveau là histoire de ne pas trop "brider" ma future CG.

Bah, les processeurs brident bien moins les CG qu'on ne le pense.....mais une 6800 GT-même overclockée-est plus chère qu'une 6800 GS.Quel intérêt? :p

Lien vers le commentaire
Partager sur d’autres sites

Pour le terme en gras (FP16) tu es sûre ? je pencherais plutôt pour (FP32) étant donnée que les Radeon X1XXX gèrent désormais les Shaders en V3.

Maintenant peut etre que je me trompe :transpi:

Les séries X1X00 travails nativement en FP32. Le mode FP16 (mode émulé) n’est utilisé que lors de rendu HDR. :cinq:

--> Brave Heart

Juste pour corriger ce que tu as dit.

FP16 --> 64bits

FP24 --> 96bits

FP32 --> 128bits

...et non. Les séries dérivées du R300 ne gèrent que le FP24.

:roll:

Pour le reste, j'arrête là. Cette discussion est interminable! :transpi:

:D

Lien vers le commentaire
Partager sur d’autres sites

Archivé

Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.

×
×
  • Créer...