Aller au contenu

[CG] ATI : Geometry Instancing...


Visor_

Messages recommandés

Voici l'article, publié sur harware.fr :

"Le Geometry Instancing est une technologie qui permet d'accélérer certains éléments du rendu 3D en regroupant ensemble plusieurs commandes de rendu d'éléments simples. Par exemple, au lieu d'envoyer une commande pour chaque brindille d'herbe, il est possible de n'en envoyer qu'une grosse et de laisser le GPU la décomposer. Cela ne réduit pas le travail du GPU, mais bien celui du CPU qui perd parfois un temps bête à envoyer toutes ces commandes.

Microsoft a introduit le Geometry Instancing dans DirectX avec le Shader Model 3.0 et plus particulièrement avec les Vertex Shader 3.0. Cela signifie que tout GPU qui supporte les Vertex Shader 3.0 supporte obligatoirement le Geometry Instancing. Cependant la réciproque n'est pas toujours vraie étant donné que le Geometry Instancing n'a absolument rien avoir avec une quelconque version des shaders. Ce lien entre Geometry Instancing et Vertex Shader 3.0 est principalement lié à une volonté de Microsoft de ne pas multiplier les caps (qui sont des indications sur les GPUs reportées via les drivers). Plus de caps amène plus de flexibilité mais également plus de combinaisons possibles de technologies supportées ce qui peut compliquer la tâche des développeurs. Ceci dit, dans ce cas, étant donné l'absence totale de lien entre Geometry Instancing et Vertex Shader 3.0, cela n'aurait pas été un luxe d'avoir un caps dédié.

D'autant plus qu'ATI supporte également le Geometry Instancing bien que n'en ayant pas parlé jusqu'ici. DirectX ne permettant pas à l'origine à un GPU non-SM3.0 d'exploiter le Geometry Instancing, ATI doit utiliser une astuce pour exposer son support via ses drivers. Bien que la solution ne soit pas des plus élégantes, c'est la seule possible dans DirectX et elle fonctionne. DriverHeaven et ToMMTi-Systems ont eu accès à des Catalyst 4.8 beta qui intègrent le support du Geometry Instancing et en ont profité pour tester la démo de NVIDIA destinée à mettre en avant cette technologie des GeForce 6800 :

GeForce 6800 GT, Instancing OFF : 3 FPS

GeForce 6800 GT, Instancing ON : 47 FPS

Radeon X800 XT PE, Instancing OFF : 4 FPS

Radeon X800 XT PE, Instancing ON : 50 FPS

Ces résultats montrent que la technologie fonctionne bien sur les 2 GPU et offre des gains similaires. Les Radeon X800 pourront donc également profiter de cette optimisation dans FarCry comme nous vous l'indiquions ici. Mais ce n'est pas tout car ATI n'oublie pas les utilisateurs de Radeon 9600, 9700 et 9800 et ces GPU supporteront également le Geometry Instancing. Il faudra attendre de prochains drivers, mais également DirectX 9.0c pour bénéficier de ce support."

Lien vers le commentaire
Partager sur d’autres sites

D'accord avec toi Taki, "très bonne nouvelle"... :p

On reprochait aux dernières cartes d'ATI leur "soi-disant" retard technologique sur NVidia...

Les prochains drivers d'ATI intégreront donc le "Geometry Instancing". ATI se situe donc plus ou moins au même niveau technologique que NVidia, ce d'autant plus qu'il a été montré que le Pixel Shader 3.0 n´apportent pas de gain significatif par rapport aux Pixel Shader 2.B.

Pour plus d'infos :

http://www.hardware.fr/articles/507/page1.html

http://www.driverheaven.net/index.php?acti...articleid=15593 (anglais)

http://www.digit-life.com/articles2/gffx/fc12-2.html (anglais)

Lien vers le commentaire
Partager sur d’autres sites

D'accord avec toi Taki, "très bonne nouvelle"...  :p

On reprochait aux dernières cartes d'ATI leur "soi-disant" retard technologique sur NVidia...

Les prochains drivers d'ATI intégreront donc le "Geometry Instancing". ATI se situe donc plus ou moins au même niveau technologique que NVidia, ce d'autant plus qu'il a été montré que le Pixel Shader 3.0 n´apportent pas de gain significatif par rapport aux Pixel Shader 2.B.

Pour plus d'infos :

http://www.hardware.fr/articles/507/page1.html

http://www.driverheaven.net/index.php?acti...articleid=15593 (anglais)

http://www.digit-life.com/articles2/gffx/fc12-2.html (anglais)

Heu en fait, les ATI sont pas en retard...si elles sont loin derrière les NVidia sur DooMIII, c'est parceque les NVidia trichent...ce qui a obligé un certain John Carmack a pousser une geulante...Chaque modification du code de DooM III entraine des baisses de perfs des NV, les mettant au même niveau que les ATi...encore NVidia = Cheater...On rajoute quelques clip planes bien placé et voila deux faces a rendre au lieu de quelques centaine de milliers...normal dans ses conditions qu'elles soient plus performantes...Je serais surpris de voir l'effet d'un changement de nom de certaines dll de DooM III (a condition de réécrire certaines parties du code)...J'ai comme l'impression que NV aurait du mal...

Enfin ces désoptimisations (pour les cartes ATi) / optimisation (pour les cartes NVidia) la fout mal...Un développeur de la trempe de Carmak devrait ne pas tomber dans ce piège...que doit penser Michel Abrash son maître a penser...Enfin encore une foi c'est les joueurs qui trinquent...pour cause de querelles de gros sous...

Bientot va falloir une carte NVidia pour jouer aux jeux "The way it's mean to be played" et une ATi pour jouer aux jeux "Get in the game"...vraiment stupide...

J'en ait marre de jeux sponsorisés...par tel ou tel fabriquant de CG

Lien vers le commentaire
Partager sur d’autres sites

mais quelle guerre a la con,et vous tombez tous dedans!! :francais:

et encore pire avec la soi disante "triche" de nvidia sur Doom3.

oui ils ont optimisés leur drivers pour ce jeu et alors???

c une trich d'optimiser ses drivers pour un jeu??

en temps normal nno,si demain ils optimisent leur drivers pour que harry poter tourne plus vite tout le monde sera content,mais la c Doom3 alors ca gueule!!!

putain c pathetique,c la moindre des choses d'optimiser ses drivers,et vous gueuleriez si jamais ils le faisaient pas...

apres pour ce qui est du geometry instancing on verra bien,mais je vois mal comment ils pourraient rattraper les perfs en moins sur l'openGL.

je vous rappelle que l'archi a 2.5 ans....

Lien vers le commentaire
Partager sur d’autres sites

Clair, que l'optimisation des drivers n'est pas une triche..... Je prefere avoir un jeu qui tourne de maniere fluide avec des drivers optimisés, que mal avec des drivers classiques....

Pour rappel, ce genre de pratique à toujours exister, :francais: deja au temps du defunt 3DFX les optimisations était de mise, alors reflechissé un peu

Lien vers le commentaire
Partager sur d’autres sites

mais quelle guerre a la con,et vous tombez tous dedans!! :transpi:

et encore pire avec la soi disante "triche" de nvidia sur Doom3.

oui ils ont optimisés leur drivers pour ce jeu et alors???

c une trich d'optimiser ses drivers pour un jeu??

en temps normal nno,si demain ils optimisent leur drivers pour que harry poter tourne plus vite tout le monde sera content,mais la c Doom3 alors ca gueule!!!

putain c pathetique,c la moindre des choses d'optimiser ses drivers,et vous gueuleriez si jamais ils le faisaient pas...

apres pour ce qui est du geometry instancing on verra bien,mais je vois mal comment ils pourraient rattraper les perfs en moins sur l'openGL.

je vous rappelle que l'archi a 2.5 ans....

Qui te dit qu'il n'y a pas eu désoptimisation :francais:

Ou qu'il n'y a pas de baisse de qualité graphique pour compenser (pas vu de tests à ce niveau là moi ;))

Lien vers le commentaire
Partager sur d’autres sites

Qui te dit qu'il n'y a pas eu désoptimisation :transpi:

Ou qu'il n'y a pas de baisse de qualité graphique pour compenser (pas vu de tests à ce niveau là moi :D)

non en fait les gens ralent parce qu'nvidia a mis des morceaux de code de doom3,c pas le genre d'optimisation qui fait perdre en qualoité d'image,et desoptimisation non plus,tout le monde sait qu'ATI est bidon en openGL,si ca avait eté desoptimisé ca aurai carrement ramé,et puis je vois mal J.carmack s'amuser a ce genre de conneries,je te rappelle qu'il a un moteur graphique a vendre,et si jamais il tourne mal sur la moitié des machines,il en vendra pas des masses...

Lien vers le commentaire
Partager sur d’autres sites

mais quelle guerre a la con,et vous tombez tous dedans!! :D

et encore pire avec la soi disante "triche" de nvidia sur Doom3.

oui ils ont optimisés leur drivers pour ce jeu et alors???

c une trich d'optimiser ses drivers pour un jeu??

en temps normal nno,si demain ils optimisent leur drivers pour que harry poter tourne plus vite tout le monde sera content,mais la c Doom3 alors ca gueule!!!

putain c pathetique,c la moindre des choses d'optimiser ses drivers,et vous gueuleriez si jamais ils le faisaient pas...

apres pour ce qui est du geometry instancing on verra bien,mais je vois mal comment ils pourraient rattraper les perfs en moins sur l'openGL.

je vous rappelle que l'archi a 2.5 ans....

Ce que je reproche a NVidia, c'est les optimisations qui influent sur la qualité de l'image...c'est tout...De plus, les testeurs ne devraient pas utiliser des version optimisée des drivers...ca fausse les tests...on ne peut pas comparer deux cartes si l'une doit rendre 5 millions de polygones et que l'autre ne doit en rendre que 2 millions...pour moi le bug et la...de plus c'est complètement crétin ces optimisations, puisque pour les jeux les moins connus (et pas forcément les moins bons) elles ne sont pas actives...

Ce que je dit c'est que les optimisation pour tel ou tel constructeur ne devraient pas exister...ou alors quand on optimise pour l'un, on le fait pour les autres...c'est la moindre des choses...les développeurs et les fabriquants respectent même plus le consommateur...c'est limite si on ne doit pas leur dire Amen...

non en fait les gens ralent parce qu'nvidia a mis des morceaux de code de doom3,c pas le genre d'optimisation qui fait perdre en qualoité d'image,et desoptimisation non plus,tout le monde sait qu'ATI est bidon en openGL,si ca avait eté desoptimisé ca aurai carrement ramé,et puis je vois mal J.carmack s'amuser a ce genre de conneries,je te rappelle qu'il a un moteur graphique a vendre,et si jamais il tourne mal sur la moitié des machines,il en vendra pas des masses...

NVidia n'a pas mis des bouts de codes...il les a remplacé par les siens...pour ce qui d'ATI bidon en OpenGL, faut voir sous Nux, elles mettent la patée au NVidia...

Pour ce qui est des benchs sous DooM III en Timedemo, ca sert a rien, vu que le jeu est bridé à 60 FPS pour éviter les dérives genre QIII en multi...

Pour le fait que son moteur tourne mal sur la plupart des machines, oui, monsieur il tourne mal sur la plupart des machines...la plupart des gens qui on acheté un PC ces deux dernières années on une GF2 MX ou une GF4 MX ou encore une FX5200...alors que la config mini est une Radeon 8500 / GeForce 3...donc oui, pour moi le jeu tourne mal sur la plupart des machines...Enfin il devrait tourner correctement sur la mienne :transpi: Radeon 9800XT powered...

DSL pour m'être emporté, mais le sponsoring et le merchandising a outrance, j'en ai marre...Les maisons de disques vont foutre le net en l'air parcequ'elles s'étonnent que leurs merdes marketting ne se vendent plus...alors je veux pas que le monde du PC tombe dans les mêmes excès...

--Edit--

Au fait l'age d'une architecture ne l'empèche pas d'être bonne...preuve en est de l'architecture X86...utilisée dans la plupart des PC depuis plus de 20ans...

Lien vers le commentaire
Partager sur d’autres sites

Clair, que l'optimisation des drivers n'est pas une triche..... Je prefere avoir un jeu qui tourne de maniere fluide avec des drivers optimisés, que mal avec des drivers classiques....

Pour rappel, ce genre de pratique à toujours exister, :transpi: deja au temps du defunt 3DFX les optimisations était de mise, alors reflechissé un peu

L'optimisation n'est pas une triche:d'accord!mais quand ca influe sur la qualité d'image pour gagner quelques fps:la, j'appelle ca de la triche:cf catalyst 4.7... :D

Lien vers le commentaire
Partager sur d’autres sites

je suis d'accord ave toi sur le fond charles,mais ce qui compte c quoi,c avoir un framerate elevé sans perte de qualité d'image,moi peu importela maniere dont ils y arrivent c la seule chose qui compte.

alors bon qu'ils aient changé le code,pers j'en ai rien a faire tant que ca tourne rond!

par contre il est vrai que pour les benchs c pas genial l'optimisation,mais un bench dans le fond ca sert a quoi,ca sert a dire,cette config fait tant de points,donc elle tournera plus ou moins bien en fonction du resultat,c fait pour synthetiser un comportement dans les jeux,a partir de la tu dois pouvoir dire que ta config fera tourner correctement ou pas les jeux.

et imagine le cas d'une carte qui aurai des perfs brutes excellentes,par raport a une carte qui en aurai moins mais qui auraient de bonnes optimisations,laquelle est la mieux,celle qui fait tourner le mieux les jeux non?

bon bin la premiere,d'apres toi cartonnerai dans les benchs,mais bcp moins dans les jeux,la seconde se ferai couper en deux dans les benchs mais tournerai bien dans les jeux...

c la le probleme!

apres par contre tu as raison quand tu dit que optimiser son jeu,de la part d'un developpeur uniquement pour une marque c degueulasse et la tu as raison mais qu'est ce qu'on y peut...

enfin bon apres puor les configs standards,c pas la faute des dev si les gens se font berner sur leurs machines,un pote a moi a un packard bell a 2.53Ghz,noté comme bon pour les jeux les plus recents,la CG est une 9200SE,une vraie daube quoi...

mais ca c pas la faute des dev,ce sont les gens qui se font berner!

sinon pour l'archi oui et non,une ancienne archi peut etre encore tres valable,mais sur le marché des CG c pas du tout pareil,l'archi ATI est enfin de vie,par la que les optimisations drivers et cie ne seront plus legions...

Lien vers le commentaire
Partager sur d’autres sites

L'optimisation n'est pas une triche:d'accord!mais quand ca influe sur la qualité d'image pour gagner quelques fps:la, j'appelle ca de la triche:cf catalyst 4.7... :transpi:

Heu ATi vient de faire retirer tous les derniers Catalyst du programme de certification FutureMark a cause d'un bug de rendu mineur...a mettre en // avec les optimisation de NVidia qui elles affectent grandement la qualité de rendu...

Sinon, le problème avec des jeux comme DooM III, Quake III, Unreal Tournament 2004, FarCry et consort, c'est qu'ils servent de benchmark et que les site de Hardware ne révisent générallement pas leurs tests en fonctions des évolutions du jeu et des drivers...c'est une image a un instant T (et encore celle-ci est faussée générallement car les drivers utilisé ne sont que rarement finaux)...pour que les tests soient valide, il faudrait qu'ils suivent les évolutions...Des cartes comme les Radeon 9700Pro et GeForce FX59x0 xx ont vu leurs perf évoluer dans des proportions significatives au cours du temps....

Lien vers le commentaire
Partager sur d’autres sites

:mdr:

Non ce coup-ci pas touche ma carte..... :-D

Bien que je ne sache toujours pas ce que j'ai fait à ma carte :transpi:

Va comprendre....

C'est pour ça que j'ai commandée la HIS avec IceQ II, pour avoir un bon refroidissement d'origine.... :yes:

Pas besoin d'essayer de bidouiller ce coup-ci :pleure:

Lien vers le commentaire
Partager sur d’autres sites

A part ça, j'aimerais quand même pousser un coup de geule... Je trouve assez navrant de lancer une carte avant même que celle-ci ne soit produite dans des quantités importantes...

Je m'explique, j'ai acheté un nouveau PC fin juin... Mais ce dernier est toujours bloquer en usine, parce que les cartes ATI X800 XT PCI-E n'ont pas été reçues...

L'attente se fait sentir... :transpi:

Lien vers le commentaire
Partager sur d’autres sites

C'est surtout intéressant pour les possesseurs de Radeon 9600, 9700 et 9800 si cette technologie apporte un gain intéressant... Mais celà montre que la X800 n'est toujours pas une grosse évolution puisque cette technologie était déjà présente dans la génération précédente...

Lien vers le commentaire
Partager sur d’autres sites

C'est toujours comme ça.

Ils vont pas annoncer des cartes alors qu'elle sont dispo depuis longtemps (puis faut pas laisser le concurrent avoir trop d'avance, même virtuel :non:)

Ouais.... :transpi:

Enfin, visiblement, les gars de Dell ont lu mon message... Mon PC a pu être finalisé plus tôt et il sera livré demain ou après demain.

J'ai vraiment hate de tester la "bête"... Ca va me changer de mon Pentium II 350 lol. :roll:

Lien vers le commentaire
Partager sur d’autres sites

Archivé

Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.

×
×
  • Créer...