UltrA Posté(e) le 28 octobre 2004 Partager Posté(e) le 28 octobre 2004 Ouai....ça déchire tout le HDR. Domage qu'il ne soi pas encore tout à fait fonctionnelle. Une fois optimisé....il ne sera plus obligé de désactivé l'AA. Sinon, le HDR n'est pas une option spéciale à Nvidia. C'est une fonction de DX9.0c. Donc pour l'instant seul les 6600/6800 sont compatible....mais le future R500 sera également compatible (je rappelle just ça pour dire que ce n'est pas une fonction qui va tomber aux oubliettes..... ) Bon.....assez parlé. Je pompe le patch et je teste. On va voir ce que ça donne le HDR. Lien vers le commentaire Partager sur d’autres sites More sharing options...
milohoffman Posté(e) le 28 octobre 2004 Partager Posté(e) le 28 octobre 2004 High Dynamic Range, rendu réalisé grâce au blending des GeForce 6 qui offre un éclairage bien plus réaliste que le rendu de base. plus réaliste, ça dépend des situations autant par exemple sur les éclairages venant des lampes je trouve que c'est mieux, autant par exemple sur le tunnel avec un trou au-dessus c'est vraiment exagéré CryTek a encore fait joujou avec DX9.0c ... pourtant Doom III démontre qu'il n'est nul besoin d'avoir DirectX 399 pour réussir à imiter un éclairage réaliste Lien vers le commentaire Partager sur d’autres sites More sharing options...
Cadderly Posté(e) le 28 octobre 2004 Partager Posté(e) le 28 octobre 2004 Ya pas d'éclairage dans Doom 3, c'est tout noir Mais ahhhhh!!! Que c'est beaux!! Comme quoi Far Cry a encore de BEAU jour Lien vers le commentaire Partager sur d’autres sites More sharing options...
D-Tune Posté(e) le 28 octobre 2004 Partager Posté(e) le 28 octobre 2004 Quelqu'un a-t-il constaté des baisses de perfs avec celui là pour les FX ? Lien vers le commentaire Partager sur d’autres sites More sharing options...
m00t Posté(e) le 28 octobre 2004 Auteur Partager Posté(e) le 28 octobre 2004 plus réaliste, ça dépend des situationsautant par exemple sur les éclairages venant des lampes je trouve que c'est mieux, autant par exemple sur le tunnel avec un trou au-dessus c'est vraiment exagéré CryTek a encore fait joujou avec DX9.0c ... pourtant Doom III démontre qu'il n'est nul besoin d'avoir DirectX 399 pour réussir à imiter un éclairage réaliste j'ai fait que reprendre ce que disais je sais plus quel site (3dchips je crois). Mais je suis tout à fait d'accord. Crytek a exagéré sur pas mal d'endroit en mettant de la lumière à mort ^^ Ils en ont mis partout partout et pas en fainéant en plus N'empeche par endroit c'est superbe. Encore plus qu'avant, c'est pour dire Lien vers le commentaire Partager sur d’autres sites More sharing options...
UltrA Posté(e) le 28 octobre 2004 Partager Posté(e) le 28 octobre 2004 C'est vrai que c'est un peu trop éclairé à certain endroit. Mais il faut ce dire aussi que le HDR n'est pas encore optimisé. Si il n'est pas activé par défaut.....ya bien une raison. Encore....j'attend de voir par moi même avant de donné mon avis. Avec les derniers jeux actuel, les screen représente assez mal la beauté du graphisme ( ). C'est un peu figé. En temps réel....ça doit donné grave!! Lien vers le commentaire Partager sur d’autres sites More sharing options...
m00t Posté(e) le 29 octobre 2004 Auteur Partager Posté(e) le 29 octobre 2004 D'après les témoignages de ceux qui l'ont utilisé en vrai, c'est à tomber par terre meme si c'est un peu "too much" par moment. Par contre, un truc que je comprends pas trop c'est qu'apparemment, cela tiens à l'utilisation du blending. En gros, c'est juste une façon de programmer les effets de lumière, de transparence, etc... Or, les cartes ati sont capables d'utiliser ce genre de trucs aussi. Je n'est pas eu l'impression que ce soit qqchose vraiment DX9 en fait. J'espère juste que crytek n'a pas fait encore un coup du genre "patch nvidia". Ca serait trop dommage pour tous les joueurs en fait. J'ai déjà des doutes sur la non utilisation de la techno 3Dc de compression des normals maps alors si en plus ils font joujou avec un truc superbe uniquement si le joueur a une nvidia, c'est pas glop. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Charles.w Posté(e) le 29 octobre 2004 Partager Posté(e) le 29 octobre 2004 m00t -> Si le HDR n'est activable que sur les carte estempillées NVidia, c'est que FarCry est un jeu The way it's mean to be played...techniquement, il n'y a aucune impossibilité à le faire sur les cartes ATI...d'ailleurs, les permières démos de Unreal Engine 3 qui utilise également le HDR tournaient sur des 9800XT...bon après ils l'on fait tourné sur des 6800U en SLI, on gagne quelques FPS, mais pas de vraie différence au niveau du rendu... Personnellement, je commence à en avoir marre de la politique des fabriquant de Hardware et de jeu vidéo qui développent leur jeu pour un modèle de carte 3D...c'est stupide et suicidaire...il serait grand temps que le grand publique réagisse face à ces politiques commerciales abusives qui se font au détriment des joueurs...Si t'a pas la carte machin tu ne peux pas jouer au jeu de truc...c'est vraiment stupide...l'aire du marketting à outrance commence à me passer serieusement au dessus des cornes... Lien vers le commentaire Partager sur d’autres sites More sharing options...
m00t Posté(e) le 29 octobre 2004 Auteur Partager Posté(e) le 29 octobre 2004 +1000000000000 Mais bon, on verra bien par la suite. Restons donc sur FC finallement. J'aimerais bien avoir d'autres avis de personnes qui ont essayé le HDR, et si possible avec qq screens perso Lien vers le commentaire Partager sur d’autres sites More sharing options...
m00t Posté(e) le 29 octobre 2004 Auteur Partager Posté(e) le 29 octobre 2004 Bon, apres qq recherches, voila mes conclusions : - Le HDR n'est pas qqchose uniquement présent chez nvidia. - Certes, l'architecture a été pensée pour favoriser l'emploi de cette technologie, mais il serait tout à fait possible de la voir sur les X800. - Les cartes ATI auraient un peu plus de mal au niveau du framerate avec le HDR activé car le cheminement dans les registres n'est pas tout à fait fait pour. - Pas de HDR sous farcry pour les ATI car ils ont délibéremment choisi de le faire en FP32 (non supporté par ATI donc). - Dernière petite chose : la toute première démo du unreal engine 3 tournait à l'époque sur une 9800XT et utilisait l'HDR comme l'a si bien dit Charles.W Voila pour la parenthese HDR. Perso, carton rouge à crytek sur le coup. Sources : google + un peu de temps Lien vers le commentaire Partager sur d’autres sites More sharing options...
UltrA Posté(e) le 29 octobre 2004 Partager Posté(e) le 29 octobre 2004 J'ai un opinion légérement différent. Pour qu'une carte soit compatible DX9.0c....il faut être capable de travailler en FP32. C'est l'une des conditions pour pouvoir géré le branchement dynamique. Donc il est logique que Crytec est fait le HDR en FP32. (pour qu'il devienne un jeux DX9c....et pas un jeux DX9c bridé). Ce qui fait que seul les 6600/6800 son compatible......tout comme le R500 sera également compatible (FP32 INSIDE ). Si Crytec aurait voulu rendre le HDR compatible avec les ATI actuelle....il aurait dû fair une version FP24. Je rappelle que le FP24 n'est pas supporté par les 6600/6800 (FP16 ou FP32). Ce qui implique qu'il faut crée 2 versions du HDR. D'ailleur peu être qu'un HDR en FP24 serait moin beau qu'un HDR en FP32 (ce qui ne parait pas ilogique....). ....le retard technologique d'ATI commence à ce faire sentire. Non, sérieusement actuelemement c'est le vrai bordel. Et c'est bien ATI qui en est la cause. Si il avait fait un chip compatible DX9.0c comme il devait le faire.....tout serai plus simple. .......ça doit être un cauchemar pour les porgrammeurs!! Pour programmer des fonctions avancées....et rendre toutes les derniéres cartes compatible.....il faut programmer 2 fois plus!!!!! Lien vers le commentaire Partager sur d’autres sites More sharing options...
Charles.w Posté(e) le 29 octobre 2004 Partager Posté(e) le 29 octobre 2004 Ultra -> Faux, totalement Faux...les 6800 utilisent toujours le remplacement de shader et utilisent une précision partielle (FP16) au lieu de la FP24 prévue dans DX9.0a, b et c...enfin depuis aout 2004 (en fait depuis la sortie du "DirectX 9.0 SDK Update - (Summer 2004)") les shader 3.0 doivent utiliser une FP variant entre 16 et 32 bits...merci NVidia d'avoir fait pression sur MS pour changer les specs des PS3.0 au dernier moment à votre avantage...en légalisant le remplacement de shaders et en légalisant l'utilisation de la FP16... En fait, la décision de changer de FP remonte à avril 2004 (peu avant la sortie des 6800 et X800)...comme en témoingne ce document... http://www.microsoft.com/whdc/winhec/partn...l30_NVIDIA.mspx ATI n'est donc pas en retard...c'est NVidia qui a soudoyé MS pour qu'ils changent les spécifications de DX9.0c au dernier moment...à tel point que les outils de développement correspondant à ce changement sont sortis plusieurs mois après la sortie des cartes...contrairement à ce qui se fait d'habitude... m00t & Ultra -> Pour effectuer le rendu HDR, les GF6800U travaillent en 32bits, d'ou la chute importante du nombre de FPS liée non pas à l'activation du HDR - qui est somme toutes peu gourmand en ressources comme on peut le constater dans les premières démo de l'Unreal Engine 3 ou une 9800XT fait tourner à approximativement 15-20FPS (30FPS pous des GF6800U SLI) une scène de plusieurs millions de polygones texturés, normal mappé et sur lesquels des pixels shaders on été massivement utilisés - mais bel est bien au passage de FP16 à FP32... Lien vers le commentaire Partager sur d’autres sites More sharing options...
m00t Posté(e) le 29 octobre 2004 Auteur Partager Posté(e) le 29 octobre 2004 Oki, c'est un peu plus clair là. Par contre, ATI n'a pas fait une carte directx9c bridée, mais juste aux normes. C'est Nvidia qui est allé plus loin que les specs mini je crois. alors qu´une carte suivant la norme DirectX 9 se doit d´avoir par défaut une précision d´au moins 24 bits en virgule flottante Le chip est vraiment compatible à fond DX9c et les développeurs pourraient se contenter de FP24, mais Nvidia ne supporte pas ce mode Enfin bon bref, c'est le serpent qui se mort la queue Edit : mais heuuu charles, pourquoi tu reponds quand je suis en train d'écrire Lien vers le commentaire Partager sur d’autres sites More sharing options...
Charles.w Posté(e) le 29 octobre 2004 Partager Posté(e) le 29 octobre 2004 Oki, c'est un peu plus clair là.Par contre, ATI n'a pas fait une carte directx9c bridée, mais juste aux normes. C'est Nvidia qui est allé plus loin que les specs mini je crois. Le chip est vraiment compatible à fond DX9c et les développeurs pourraient se contenter de FP24, mais Nvidia ne supporte pas ce mode Enfin bon bref, c'est le serpent qui se mort la queue Comme je l'ai dit, ATI aurait été aux normes de DX9.0c (sauf pour le dynamic branching, les ATI supportant l'instancing et le vertex texturing) si NVidia n'avait pas payé MS au dernier moment pour faire changer les règles... Lien vers le commentaire Partager sur d’autres sites More sharing options...
m00t Posté(e) le 29 octobre 2004 Auteur Partager Posté(e) le 29 octobre 2004 Encore une histoire de gros sous où les utilisateurs se font avoir..... Lien vers le commentaire Partager sur d’autres sites More sharing options...
Charles.w Posté(e) le 29 octobre 2004 Partager Posté(e) le 29 octobre 2004 C'est exactement ca... Lien vers le commentaire Partager sur d’autres sites More sharing options...
UltrA Posté(e) le 29 octobre 2004 Partager Posté(e) le 29 octobre 2004 Vous avez raté une marche. A l'origine le DX9.0a devait fonctionner en FP16/FP32. Mais Microsoft à trouvé ça trop avancé pour l'époque et à finalement opté pour du FP24. Le probléme....c'est que Nvidia avait pas mal de probléme avec microsoft a cause des mauvais résultat sur la Xbox.....et il on était averti trop tard du changement. Donc le FX5800 est un chip FP16/FP32 tout comme le FX5900 qui suis donc l'ancienne norme de DX9.0a. Voila l'origine du probléme!! Une mauvaise attente avec microsoft!!! ------------------------------------------------------------------------------------------------- Contrairement à ce que Charles à dit le DX9.0c était bien prévu pour du FP32. Il est donc normal que le HDR soi en FP32....puisque TOUTES les prochaines cartes von fonctionné sur ce blending. Il faut voir plus loin que le bou de son nez!!! ------------------------------------------------------------------------------------------------ D'ailleur, je rappelle haut et fort que ceul les 6600/680 son pleinement compatible DX9.0c. La preuve c'est l'Unreal engine 3. Les premier jeux devraient apparaitre début 2006. Les X800/X700 sont tout simplement incapable de faire tourné ces jeux....DX9.0c!!!! Sur leur présentation, les gas d'Epic utilise un Xeon 3.4Ghz avec deux 6800GT en SLI. Avec cette config le moteur tourne pas trop mal.....en trés haut résolution. Lien vers le commentaire Partager sur d’autres sites More sharing options...
m00t Posté(e) le 29 octobre 2004 Auteur Partager Posté(e) le 29 octobre 2004 oki PS : employé nvidia pour connaitre tout ça si bien ? Lien vers le commentaire Partager sur d’autres sites More sharing options...
UltrA Posté(e) le 29 octobre 2004 Partager Posté(e) le 29 octobre 2004 Non, c'est just que je lis beaucoup. D'ailleur, à l'époque de cette nouvelle, j'étais un peu PRO ATI (avec ma 9500Pro toute neuve ) Cela m'avais fait mourire de rire. Lien vers le commentaire Partager sur d’autres sites More sharing options...
m00t Posté(e) le 29 octobre 2004 Auteur Partager Posté(e) le 29 octobre 2004 ok Perso je suis pro rien Je joue et le reste, rab lol Lien vers le commentaire Partager sur d’autres sites More sharing options...
Charles.w Posté(e) le 29 octobre 2004 Partager Posté(e) le 29 octobre 2004 Ultra -> Faut arreter de déconner...tu crois vraiment qu'une 6800Ulta Extrème est capable de faire tourner correctement un jeu Full DX9.0c...non, bien évidemment...la carte n'est pas assez puissante et n'embarque pas assez de mémoire...un jeu basé sur le Unreal Engine 3 ou le DooM III Engine ('nfin un vrai jeu, pas un bench!) demandera au minimum 512Mo de mémoire embarquée sur la cg...qui plus est les opérations sur les shaders et les normal maps prennent pas mal de temps de calcul...preuve en est, encore une fois le Unreal Engine 3 qui met à mal deux 6800U SLI et plus encore une 9800XT avec une scène "relativement" peu complexe...mais utilisant largement les pixels shaders, les vertex shaders et le HSR... Et puis tu crois que quelqu'un qui a assez de sous pour se payer une 6800U ne pourra pas changer de carte...les cartes haut de gamme sont celles qui ont la plus faible espérance de vie... Pour les cartes de milieu de gamme actuelle elle ne sont pas assez puissante pour jouer dans des conditions décentes à un jeu exploitant massivement les PS3.0... Qui plus est Ultra, il me semble que c'est toi qui a loupé une marche...la nouvelle génération de cartes graphiques et prévue pour mars - avril 2005...et cette génération de cg sera capable, elle de faire tourner des jeux Full DX9.0c...mais pas WGF (le remplaçant de DX)...En ce moment il est urgent d'attendre... Lien vers le commentaire Partager sur d’autres sites More sharing options...
UltrA Posté(e) le 29 octobre 2004 Partager Posté(e) le 29 octobre 2004 Just une source pour mon ami Charles concernant DX9.0a et le FP32..... --> TT Hardware .....concernant l'archi des FX5800/FX5900 et leur FP16/32 Il nous a répondu que le but était clairement de mettre au point une architecture orientée vers l'avenir, évolutive. Mais que, malheureusement, il s'est avéré qu'au moment de la conception les spécifications données par Microsoft étaient vagues, trop vagues pour être certain que le design en cours s'y collerait parfaitement. Lien vers le commentaire Partager sur d’autres sites More sharing options...
UltrA Posté(e) le 29 octobre 2004 Partager Posté(e) le 29 octobre 2004 Charles, je voi que tu est d'accord avec moi. Les X800/X700 ne sont pas des CG pleinement compatible DX9.0c. ......et c'est donc légitime que Crytec est opté pour du HDR FP32. Pour le Unreal Engine 3..... 2 6800GT ça fait bien 512Mo de mémoire...... Pour le reste, je n'invante rien. Les premiéres démo technologique d'épic tourné sur une simple 6800Ultra. C'était pas vraiment fluide....mais il était en haute résolution....benh ouai, faut bien impréssionné les foules. D'aprés le mag "Joystick" les nouvelles démo tourne sur 2 6800GT en SLI...le tout avec un simple Xeon 3.4Ghz. Et les scénes son trés complexe. ....et puit il n'est pas du tout optimisé pour l'instant ce moteur. Je ne sai pas si tu te rappelle la beta de UT 2003 mais elle ramé grave sur ma config de l'époque (XP2000+ et ATI 8500 @310/300 ). Quand on voi la version finale....ça tourné nickel!!!! Lien vers le commentaire Partager sur d’autres sites More sharing options...
Charles.w Posté(e) le 29 octobre 2004 Partager Posté(e) le 29 octobre 2004 Pour le Unreal Engine 3.....Charles, je voi que tu est d'accord avec moi. Les X800/X700 ne sont pas des CG pleinement compatible DX9.0c.Elles son incapable de faire tourné ce moteur. Elles en sont capable mais avec difficulté tout comme les 9800XT et les 6600GT...tu ne dépassera pas les 15 - 20 FPS et le jeu restera par conséquent injouable... Lien vers le commentaire Partager sur d’autres sites More sharing options...
UltrA Posté(e) le 29 octobre 2004 Partager Posté(e) le 29 octobre 2004 Tu est au moin aussi tétu que moi. Ne joue pas sur les mots. Pour les X800XT PE, ce n'est pas une histoire de puissance.....mais d'archi. Les X800 son incapable de faire tourné ce jeux....car il fonctionne en FP32. Et il ne gére que le PS3.0 et les branchements dynamique. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Messages recommandés
Archivé
Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.