Aller au contenu

farcry patch 1.3 dispo, HDR inside


Messages recommandés

  • Réponses 81
  • Créé
  • Dernière réponse

ET bien, il faut remétre les chose dans leur contexte.

Cela fait trés longtemps que Epic à commencé à travailler sur ce moteur. Et il on effectivement commencé avec des 9800XT....qui était à l'époque les carte les plus haut de gamme.

Mais à l'époque ce n'était qu'une ébauche du moteur. Rien à voir avec le genre de scéne que l'on peu voir maintenant.

Maintenant, le Unreal engine 3 à bien évolué. C'est bien un moteur exclusivement DX9.0c. :chinois:

Et c'est d'ailleur pour cette raison qu'Epic à migrés sur une 6800Ultra....dés leur sortie. Pour enfin commencé les choses sérieuses.

:-D

Lien vers le commentaire
Partager sur d’autres sites

Plusieurs choses sur Unreal Engine III et d'autres choses...

- Epic utilise toutes les générations de cartes DX9.0 car Epic se doit d'assurer la compatibilité de son moteur avec tout les PC ayant une CG DX9.0...

- Plutôt que de se fier à certaines rumeurs, autant aller chercher l'information à la source...

Unreal Engine 3 is a complete game development framework for next-generation consoles and DirectX9-equipped PC's, providing the vast array of core technologies, content creation tools, and support infrastructure required by top game developers.

Source : http://www.unrealtechnology.com/flash/technology/ue30.shtml

If you're starting on a forward-looking title aimed at upcoming next-generation consoles and 2006 PC's, then Unreal Engine 3 is for you. Its core subsystems have been architected from the ground up for upcoming consoles and DirectX9 PC's, to take maximum advantage of shader programs, per-pixel lighting and shadowing, multithreading, and next-generation content creation tools.

Source : http://www.unrealtechnology.com/flash/licensing/faq.shtml

Si quelqu'un à une licence du moteur d'Unreal III, qu'il me donne son passe pour se logguer ici : http://udn.epicgames.com/Main/WebHome -> UnrealEngine3

- Ceci dit, dans le sens où vont les choses et vu que Epic Games fait partie du programme "The Way It's Meant To Be Played" il est fort probable qu'Epic ne se casse pas plus la tête que ca avec les rendering path adaptés aux cartes ATI, un peu comme l'a fait un certain John Carmack avec DooM III...entrainant une chute de performances artificielle sur les cartes ATI...

- En ce qui concerne les rendering path, si les développeurs faisaient bien leur travail, et si le monde de l'informatique ne s'était pas laissé corrompre par la loi du profit à tout prix, il devrait y avoir un rendering path adapté à chaque architecture...en théorie, les jeux devraient s'optimiser tout seul en fonction de la plateforme du joueur...un processeur AMD ne travaille pas de la même façon qu'un processeur Intel et inversement (c'est d'ailleurs parceque l'EMT64/IA32e d'Intel ne fonctionnement pas de la même façon que le X86-64/AMD64 d'AMD que Microsoft a été obligé de reporter la sortie de Windows XP 64 bits aux callendes grecques)...il en va de même pour les cartes graphiques...même dans le cas où les cartes Intel, NVidia, ATI, etc soient parfaitement compatible avec DX9.0c, il existerait toujours des différences d'architectures...et le même bout de code produirait de très bons résultats sur telle carte mais un résultat catastrophique sur telle autre...les rendering path adaptés à chaque architecture sont donc un mal nécéssaire si l'on veut garder une fluidité maximale quelque soit la config...certes, celà prendrait un peu plus de temps, ou demanderais un peut plus de personnel, ou des développeurs un peu plus compétent, mais au final, le public serait gagnant...

En ce moment, les studios de développement fonctionnent par copinage avec des fabriquants de hardware...et on en arrive à un point tel que un jeu estampillé NVidia ne fonctionne pas correctement sur une carte ATI ou Intel qui sont pourtant les plus répendues...il n'en va pas de même avec ATI car le programme "Get In The Game" est moins intrusif dans le processus de développement...

Mais dans les deux cas, ces solutions sont mauvaises, le public finira par se lasser et trouvera que finalement sa carte graphique actuelle est suffisamment performante pour jouer aux jeux qu'il aime...et qui ne sont pas forcément les plus jolis d'un point de vue graphique...personnellement, j'ai rarement rencontré des jeux aussi bon que Duke Nukem 3D ou DooM II...maintenant on rajoute des polygones partout, au détriment des autres choses qui font un bon jeu...

Lien vers le commentaire
Partager sur d’autres sites

:D y'avait même un certain jeu de golf qui désactivait des shaders quand une carte ATI était détectée. Maquillée en FeForce FX par 3D Analyze, le jeu lui faisait calculer ces shaders qui étaient alors parfaitement affichés....

C'était un jeu TWIMTBP.....

En tout cas, une chose que je peux affirmer, Marc (HFR) n'a jamais eu autant raison que quand il a dit que ceux qui ont fait le meilleur choix sont ceux qui ont acheté une 9700 Pro à sa sortie....

Lien vers le commentaire
Partager sur d’autres sites

--> Charles.

Comme d'hab....mon opinion "assez" différent (du moin pour l'Unreal engine3).

Le Unreal engine3 étant un moteur DX9.0c....il est aussi un moteur DX9.0a et b.

Et c'est d'ailleur pour cela qu'une 9800Pro peu le faire tourné....même si tu reste à 1 ou 2 fps.....avec une qualité déplorable!! :chinois:

Qui peu le plus, peu le moin. Donc une X800 peu "surement" le faire tourné....

MAIS.........

Le Unreal engine 3 support pleinement toutes les fonctions avancées de DX9.0c.

C'est à dire les SM2.0b (des X800), le FP32, PS3.0....donc également les branchements dynamique ainsi que plein d'autres options dont on ignore encore l'existence (comme par exmemple l'ahurissant HDR :transpi: ).

Si on prend l'exemple des branchements dynamique. Leurs rôle est de simplifié les calcules de la carte 3D en imposant des conditions.

Seul les 6600/6800 (et R500) son compatible. Le R300 et autre R420 ne peu pas le géré. Ce qui fait que les X800 auront plus de mal à faire tourné ce jeux que les 6800...et même les 6600.

Je continu.......

De même, à cause de leur fonctionnement en FP24...les ATI n'auron pas accès aux "obtions" avancées du DX9.0c....qui sont en FP32. Comme le HDR.

A moin qu'Epic crée un HDR FP24....(Esque c'est possible??, les ATI von t'elles corectement le supportées?, Esque ce sera aussi beau que du FP32??)

:keskidit:

Ce qui fait que le jeux sera "peut être" moin beau sur une X800 que sur une 6800.

De toute façon....on en sera plus une fois le moteur finalisé.

-----------------------------------------------------------------------------------------------

Pour ton coup de gueul....+1.

Les "normes" actuelle en therme de fonctions graphique son télement différentes....que c'est le bazard complet!!

Tout ceci devrai ce calmé à la sortie des nouvelles ATI et Nvidia. Elles seront surement trés proche en therme de "normes". Du moin j'espére.

--------------------------------------------------------------------------------

--> Magic-Sim

Marc (HFR) n'a jamais eu autant raison que quand il a dit que ceux qui ont fait le meilleur choix sont ceux qui ont acheté une 9700 Pro à sa sortie....

Ceux qui on acheté une 9700Pro à leur sortie étaient des blaireaux. :chinois:

Le 9700 "tout court" est sortie 3 mois aprés, était 10% seulement moin perf, coûté beaucoup moin chére.....et monté aussi haut en overclock.

Lien vers le commentaire
Partager sur d’autres sites

Tu te trompe encore une fois Ultra...un jeu Full DX9.0c ne peut pas tourner sur une carte DX9.0a/b...Le Unreal Engine III utilise DX9.0a/b et DX9.0c...avec des Rendering path pour DX9.0a/b et un autre pour DX9.0c avec je l'espère des optimisations pour les cartes de chaque constructeur...

Encore une fois, tout ce qui est faisable avec les SM3.0 l'est également (à condition d'y passer un peu plus de temps en développement) avec les SM2.0...Pour la qualité du rendu, je pense que tu aurais du mal à l'aveugle à distinguer sur un écran bien calibré a distinguer une image échantillonnée en 24 bits et en 32 bits...

Pour le HDR, encore une fois, il est possible de l'activer avec les SM2.0...

Pour le rôle des branchement dynamique, je vois que tu as bien appris le discours des commerciaux de NVidia...en fait, ils ne permettent en rien d'accélerer les calculs, tout comme un PIV ne booste pas ta connection internet...les branchement dynamique permettent d'écrire un shader général et selon la façon dont il est appliqué de le rendre différemment...mais l'on peut faire exactement la même chose avec les SM2.0 en écrivant plusieurs shaders et en les appliquant à différents endroits d'une scène...le dynamic branching facilite juste le travail des développeurs...et facilite donc d'autant les calculs de rentabilité du studio de développement...on emploie moins de personnel, on fait un jeu moins compatible, donc on sait que seuls les acheteurs de la carte graphique bonuxmachinquilavepluspblancqueleblanc pourront acheter le jeu...et que s'ils ont changé de cg c'est pour jouer à ce jeu donc on sait d'avance combien de boites on va vendre... (un peu dûr à suivre ? :mdr2: )

Pour le rendu des shaders en FP32, pourquoi NVidia pratique encore le remplacement de shaders en passant de FP24/32 à FP16 ? Le FP32 n'est activé sur les cartes NVidia que si les développeurs forcent la précision à 32...et encore NVidia arrive à contourner ce forcage...pour l'instant, le seul exemple de "vrai" FP32 que l'on ait sur les GF6 c'est le rendu HDR via les SM3.0 sous FarCry...et encore comme je l'ai souligné, le HDR est aussi activable via SM2.0...sans pertes au niveau de la qualité de rendu...

Pour ce qui est de la précision des shader utilisée dans Unreal Engine III, elle est de 16 pour les GF FX, 24 pour les cartes ATI, 16 ou 32 pour les GF6...

Au fait pour la précision des shaders, tu as vu une différence (à part le nombre de FPS) entre le rendu de la 9800XT et des 6800U SLI ? Non, c'est normal il n'y en as pas...et la Démo du Unreal Engine III utilise le HDR un peu partout...

Lien vers le commentaire
Partager sur d’autres sites

Tu te trompe encore une fois Ultra...un jeu Full DX9.0c ne peut pas tourner sur une carte DX9.0a/b...Le Unreal Engine III utilise DX9.0a/b et DX9.0c...avec des Rendering path pour DX9.0a/b et un autre pour DX9.0c.......

-EDIT-

Je suis pas sur que le Rendering path du DX9.0a/b et c ne soit pas le même. :mdr2: Ce n'est pas une "révision" complette.....comme c'est le cas entre le DX9.0 et le DX8.0.

Pour le PS3.0 et ses branchement dynamique.....je ne fai que répéter ce que certaines personnes disent partout. Ya pas que Nvidia qui croit au PS3.0. Il est plus qu'évidant qu'une fois utilisé correctement....il y aura une différence notable de qualité.

D'ailleur, ATI y croit aussi car le R500 sera compatible PS3.0...donc avec les branchements dynamique. Mais bon, on a déja parlé de ce sujet...hein. :smack:

Sinon...le FP32 remplaçait par du FP16...c'est finni chez Nvidia. :chinois: ...et depuis longtemps (FW 60.72).

Contrairement à ATI, Nvidia en placer dans ces drivers plusieurs options pour totalement désactivé ces "optimisations". Dans les derniers drivers Nvidia tu à maintenant l'option "Haut qualité". Cette option forçe, entre autre, le FP32. :chinois:

Tu peu également géré les optimisations "une par une" avec l'onglet "options avancées".

.....Heureu??? :francais:

Le FP32 est totalement compatible avec tous les DX9.0. Même le DX9.0a qui est compatible 16/24/32. Grace....comme tu la dit la dérniére fois....au port monai de Nvidia. :censored:

Cela fait donc longtemps que je joue en FP32. D'ailleur, c'est grace à cela que l'AF des 6800 est meilleur que celui des X800 (FP24).

Même si, pour l'instant, la différérence dans les jeux (actuel) est presque nul.

....on parle tout de même d'un moteur graphique de jeux qui vont sortire en 2006.

Pour le HDR en FP24.....je doute sérieusement.

Au fait pour la précision des shaders, tu as vu une différence (à part le nombre de FPS) entre le rendu de la 9800XT et des 6800U SLI ? Non, c'est normal il n'y en as pas...et la Démo du Unreal Engine III utilise le HDR un peu partout...

Sur l'Unreal Engine 3....c'est impossible à dire. Le moteur graphique à télement évolué entre temps.

Sinon, si je suit ton raisonement....le FP32 ne sére tout simplement à rien (discour un peu extrémiste quand même....non??). Pourtant....il est presque sur que le R500 sera compatible FP32. Bizard...... :chinois:

Lien vers le commentaire
Partager sur d’autres sites

Charles sors de ce corps !!!

^^

Sinon, je viens de tomber sur des nouveaux drivers tweakés ATI basés sur les 4.10 et qui apporteraient un support du HDR. Malheureusement je suis au boulot donc je peux pas encore tester mais voila le truc :

* Evolution Driver

Après les spirit driver Knyz remet le couvert avec l'evolution driver.

- Optimisation De la Gestion des shaders pour Series r420/r300 

- Amélioration de la gestion Opengl/D3D pour tout carte ati 

- Bug fixe : Glow effect xpand rally , Cs source, Battlefield , Doom 3 (series r2xx) 

- HDR dorénavant actif pour les r420/r300 

- Meilleur gestion du bump mapping/shadow 

- Amélioration de la qualité 2d 

- Optimisation de la lecture des DVD/WMV 

- Etc...

Evolution drivers 1.0 basé sur les Catalyst 4.10

Si une ame charitable pouvait nous dire ce que ça donne :eeek:

Sinon plus d'infos sur http://www.radeonthetop.com

Lien vers le commentaire
Partager sur d’autres sites

PAr contre aujourd'hui j'ai reinstallé Far cry et j'ai un peu pres le rendu avec HDR alors que j'ai pas installé le patch 1.3 et j'ai les forceware 61.76

6800GT Gainward Quelqu'un a une idée ? J'ai tout les details a fond et filtrage trilinéaire

Illusion d'optique ?

gamma trop fort ?

:transpi:

Non, je ne vois pas désolé :mdr:

Lien vers le commentaire
Partager sur d’autres sites

ET bien, il faut remétre les chose dans leur contexte.

Cela fait trés longtemps que Epic à commencé à travailler sur ce moteur. Et il on effectivement commencé avec des 9800XT....qui était à l'époque les carte les plus haut de gamme.

Mais à l'époque ce n'était qu'une ébauche du moteur. Rien à voir avec le genre de scéne que l'on peu voir maintenant.

Maintenant, le Unreal engine 3 à bien évolué. C'est bien un moteur exclusivement DX9.0c. :transpi:

Et c'est d'ailleur pour cette raison qu'Epic à migrés sur une 6800Ultra....dés leur sortie. Pour enfin commencé les choses sérieuses.

:mad2:

Nempèche que si toi tu veu utiliser et garder ta 6800U pour UT3, tu nira pas bien plus loin que le mode stromboscopique, et que pour le moment les jeux DX9.0/.0a/.0b qui nous interresse haujourdhuit et demain matin seront toujour plus performant sur X800 car travaillant en FP24 là ou les 6800 devront faire + de travail doptimisation pour travailler en FP16 ( moins bien en +) ou FP32 ( trou noir à puissance pour les NV40),

Et que donc , lun dans lautre, a part fantasmer sur les jeux de fin 2005 debut 2006 en moussant sur une carte qui a cette époque cera completement dépassé vis a vis des nouvelle architecture, c'est illarant au plus haut point, et montre bien que cela ne sert strictement a rien d'aquerir un NV40 pour ces raisons.

Lien vers le commentaire
Partager sur d’autres sites

Rhoo on peut même plus faire comme Guij changer de pseudo de temps en temps ? :keskidit:

Sinon, pour appuyer ce que j'avais dit le le passage de FP16 à FP32 je confirme...sur des moteurs autres que celui de FarCry et supportant le HDR avec les cartes ATI, le fait d'activer le HDR ne divise pas les performance d'un facteur voisin de 3...alors que le passage du FP16 à FP32 entrainait (sur les FX dont dérivent les GF6) un diminution de perf du même ordre...ce qui vient confirmer ce que je disait à propos de la précision des shaders...le compilateur intégré aux drivers compile les shaders en FP16 lorsqu'il n'est pas explicitement précisé que la FP32 doit être utilisé...

000000001129.gif

Au passage la compression 3Dc pour les cartes ATI est bel et bien dispo (contrairement à ce que je pensait) et entraine une augmentation de perf...

000000001127.gif

Source : http://www.materiel.be/n/7521/Patch-13-pou...-a-la-loupe.php

Lien vers le commentaire
Partager sur d’autres sites

Oui, donc en gros, dans létat actuel des choses, le HDR FP32 est plus un tout pti gadget bon a faire des sreemShot coi.

Mouai, pas terrible alors, si c pour ne pas pouvoir utiliser aujourdhuit, et encore peut etre bientot finalement, en acquerant un SLI+2 Ultra, ca fera tres cher les FSP en plus pour des effets califié de non respectueurx de la réalitée.

Pour un jeu qui pronne le photo réalisme, ca la fout mal. non?

Lien vers le commentaire
Partager sur d’autres sites

Pour Ultra...

[b)De la validation WHQL des drivers GPUs...[/b]

Les tests de validation de pilotes de Microsoft sont pointilleux, et l'obtention du logo WHQL est loin d'être une partie de plaisir. C'est pourtant la clé du marché le plus juteux pour les constructeurs de matériel : le marché OEM.

newsRécemment, des rumeurs sur les problèmes de validations WHQL des drivers ForceWare de NVIDIA avaient circulé sur la toile. La réalité n'est pas très loin puisque certains drivers (les 66.81 par exemple) ne passe pas la dernière version (5.2) du "Display Compatibility Test" (DCT) de Microsoft concernant les Pixel Shaders 3.0 et certains Pixel Shaders 2.x. La situation est similaire du coté de son concurrent canadien puisque c'est les fonctionnalités de «Geometry Instancing» qui ne passeraient pas les tests DCT. La solution adoptée par les deux géants du marché des cartes graphiques grand public est au final de "cacher" ces fonctionnalités mais de permettre aux développeurs d'y accéder, et, ou, à l'utilisateur de les réactiver.

C'est ainsi que le dernier Patch 1.3 de Far Cry implémente le «High Dynamic Range Rendering» selon les standards d'Industrial Light & Magic, standards qui ne marchent que sur les GeForces 6x00. De la même manière, la compression des normales maps 3Dc, compression qui ne fonctionne que sur les cartes ATI Xx00 avait fait son apparition. Si les deux concurrents disent travailler sur leurs drivers pour qu'ils passent tous les tests du DCT 5.2, cela pose le problème de la nécessité de tests aussi rigoureux: Trop contraignants, ils empêchent l'usage généralisé des dernières fonctionnalités des GPUs par les développeurs de jeux. Pas assez, et chaque utilisateur risque de ne pas voir la même chose sur son écran. Comme souvent, tout est dans le compromis...

http://www.materiel.be/n/7560/Validation-W...rivers-GPUs.php

Lien vers le commentaire
Partager sur d’autres sites

Oui, donc en gros, dans létat actuel des choses, le HDR FP32 est plus un tout pti gadget bon a faire des sreemShot coi.

Mouai, pas terrible alors, si c pour ne pas pouvoir utiliser aujourdhuit, et encore peut etre bientot finalement, en acquerant un SLI+2 Ultra, ca fera tres cher les FSP en plus pour des effets califié de non respectueurx de la réalitée.

Pour un jeu qui pronne le photo réalisme, ca la fout mal. non?

Et encore le HDR à la FarCry est tout sauf joli...ils ont trop abusé sur les rayon...c'est super y'a des reflets sur la peau des personnage...ce qui leur confère un aspect encore plus playmobil...en tout cas le HDR de FarCry est beaucoup moins joli que celui de HL²...

Lien vers le commentaire
Partager sur d’autres sites

Archivé

Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.


×
×
  • Créer...