Aller au contenu

[CG] NV silencer 5 + Rad d'origine sur 6800


Messages recommandés

:arrow::arrow: pas d'accord, ma POV pointe a 49°C au repos et 59°C en charge

ma galaxy pointe a 46°C au repos et 57°C en charge..... :arrow::arrow:

Cela dépend évidament des conditions (boitier etc....)

Ce qui compte....c'est qu'il on fait les teste dans les même conditions pour le NV5 et les autres dissipateurs...

Et il y à bien un 1°C de différence entre le dissipateur Leadtek et le NV5. (c'était principalement une info pour Clemasteredge....qui voulais acheté un NV5).

Donc ça vau pas le coup.

Lien vers le commentaire
Partager sur d’autres sites

Pour le reste....le "combat" interminable ATI vs Nvidia....

Je vien de me levé ya 30 minute....pas trés en forme....mais je vais faire un éffort.

Je n'est même pas lu le post de FooDje (enfin just 2/3 lignes :roll: )..trop long....et il trolls toujours autant sur "certains points"......en fait presque tous les points.....

Mais j'ai lu "certaines" parties du post de Charles....qui est plus "just" quand même.

Pour le fait que les 6800Ultra sont l'égales des X800XT PE....d'accord (enfin, pour les perf).

Pour le Geometry Instancing, il permet aussi de multiplier des objets. Comme par exemple crée une armé de soldats en quelques secondes (mulitiplication des soldats en mémoire). Au passage...les 6600/GT sont compatible.

Pour le HDR. Tous les futures jeux DX9.0c von surement utilisaient cette téchnologie. Qui est tout simplement bluffante dans Farcry!! :up:

.....et elle est même pas finalisé!!!!! Domage pour les ATI....... J'éspére tout de même qu'il y aura une version FP24 (une petite gentillesse ne fait de mal à personne :transpi: )

Pour le PS3.0.....pas d'accord. ;)

Pour les optimisations de Nvidia....pas d'accord.

L'option "haut qualité" permet bien de d'appliquer des shaders en FP32....dans n'importe quel jeux. "Peu être" qu'il y à encore des FP16.....mais il son minime et en arriére plan.

Evidament on voi la perte de perf entre "qualité" et "haut qualité".

Exemple sur UT2004 1600*1200.

Optimisations désactivées (High quality)

GeForce FX 5950 Ultra : 37.6 fps

GeForce 6800 GT : 74.7 fps

Optimisations activées (Quality, Trilinear optimization On, Anisotropic optimisation On)

GeForce FX 5950 Ultra : 52.1 fps (+38.6%)

GeForce 6800 GT : 91.9 fps (+23.0%)

Depuis, les choses se sont un peu améliorées. NVIDIA, après s’être brûlé les doigts du côté des optimisations, permet via les drivers de désactiver complètement les optimisations, en dehors de l’optimisation de l’anisotrope en fonction de l’angle présente sur les GeForce6. De son côté, ATI avait annoncé lorsqu’il s’est fait prendre la main dans le sac qu’il en ferait de même dans de futurs drivers : 4 mois après, on attends toujours.

Source HFR.

Maintenant je m'attaque un peu à ATI qui n'est pas "nickel" non plus. Le filtrage trilinéaire permet d'adoucire les transitions entre les différente textures. Chez Nvidia...c'est un VRAI filtrage trilinéaire. De trés bonne qualité donc. Chez ATI, c'est plus un filtrage "brilinéaire". C'est en fait un mélange de filtrage bilinéaire et trilinéaire.....tous ceci afin de gagné des perf....évidament.

D'aprés ATI la perte de qualité serai nul.....ce qui reste à vérifié!!

Voilà. C'est cool, j'ai fait le vilaine en balançant un truc "pas beau" sur ATI. :roll::mdr:

Charles, on reprendra le débat....................un autre jour.

Lien vers le commentaire
Partager sur d’autres sites

Et mer** moi qui a acheté la 6800GT de FooDje pour remplacer ma 9600pro ben j'aurait du acheter une 9600XT si je voulait gagner en perf :francais:

A vous entendre aucune carte derniere generation n'est bonne a rien tant que les dev. n'auront pas fait d'effort mais quand ils y arriveront d'autre carte seront sorties et ils devornt tout reecrire et d'autre carte sortiront et.....le cercle vicieux quoi

Lien vers le commentaire
Partager sur d’autres sites

ULTRA, je ne suis pas tres "content" de ton "comportement" car si tu avais pris la peine de lire mon post en entier, tu aurais vu que je ne trol pas nVidia bètement, et que ton explication sur le geométry intancing, bas je disai rigoureusement la meme chose que toi.

Ensuite, je sais pas si tu le fait expret de te voiler la fasse, mais c nVidia qui a introduit le "BRILINEAIRE" et ce terme est apparu avec les GFFX, et est toujour valable pour les 6800, et tu es sans savoir apparement, qu'avec les CatalystControlCenter, il est maintenmant possible de faire du PUR TRILINEAIRE, chose dont je ne me prive pas, car ma carte est on ne peu plus puissante pour gerer tout les jeux actuel et a venir sans les meme pertes engendré par les 6800 quant on force les FP32 car forcer ou pas, si le jeu est DX9.0 il tourne en FP24, et le FP16 a un moins bon rendement de rendu.

PS, lis les testes en entier, ou a la limite, ne repond pas avant de les avoir bien lus pliz, pour le simple respec des argument de chacun.

Et moi, cela ne me dérange pasp lus que ca, que ce dégbat perdure, car dire de fausse véritée, et se voiler la face, ca mérrite qu'on s'y interresse.

Lien vers le commentaire
Partager sur d’autres sites

Ensuite, tu dis , ULTRA, que lherbe et bien mieu rendu avec les ps3!!??? c completment impossible, car en fait, je texplique.

Les PS3 permette de faire le MEME travail de rendu mais en MOINS de PASSE, la ou par exemple il faut 2 passe pour rendre un secteur herbeu sur X800 il en faudra que une pour faire la meme chose sur 6800!!!

Alors, je sais pas ou tu as vu et seulement vu, car c'est impossible que tu es lut ca quelque part, que les programmeur de crytek avaient reprogrammer complètement leur code source pour une fonction dun serie de carte!!!!car si tu veu que cela soit mieu rendu, il faut reprogrammer, et ce n'est pas le cas desolé.

Enfin, je repette une chose qui était dans mon long post que tu nas pas pris la peine de lire en entier, les X800Series GERE LE GEOMETRY INTANCING et c activable par un simple clic dans le CatalystControlCenter, là ou on peu mettre aussi du 100% trilineaire en un clic aussi.

Lien vers le commentaire
Partager sur d’autres sites

Charles, tu sais comment jai remarqué une difference flagrante sur le rendu du normalmap entre X800 et 6800!!??

Et bien, c simple, jai pris FRAPS et jai fait un bench de 1min automatique en appuyent sur F10( c paramettrable) et jai comaré les 2 rendu en fenetré, une fenetre dun demi ecran pour chaque bensh de mes 2 carte,(X800 et 6800) et croi moi, si tu les compare en temp reel en mattant les 2 en meme temp, tu tapercevra, que sur X800, les contour des BUP sont plus armunieux de loins deja,là ou avec les 6800, c disont, plus délimité, et on percoi tres bien cette limitation entre les texture, et en + dans que lon jou en plein ecran, et qu'on ce trouve a coté dune source de lumiere vive et avec du Bup tres prononcé sur une surface, on voi comme des strillures entre le noir et les couleur sur 6800 là ou sur X800 c'est carrment plus armonieu.

Lien vers le commentaire
Partager sur d’autres sites

Sinon pou toi CRAPACE, ne tinkiet pas, je c bien que tu dis cela dune maniere tres ironique, mais bon, le fait que beaucoup de fonctions ne soit pas implementées par les devlopeurs a toujour existé et est encore valable pour certaine fonction des Redeon 9600XT, car tu voi ba le trusform, on lattend toujour en application, donc meme si tu avais un 9600XT, il ne cerait pas exploitée a 100% :)

Et moi comme tout le monde ici dailleur, la savont, mais on achete quant meme pour les perf en + simplement et surtout les meilleur rendement en AA+AN à Haute rezo.

Lien vers le commentaire
Partager sur d’autres sites

Enfin moi c'est surtout pour gerer deux 21" en 1600*1200 que je la prend cette carte parce que il faut quand meme qu'elle soit a l'aise partout.

Apres qu'elle fasse 5FPS de moins qu'une autre sur tel bench ou 2,45FPS de plus dans un jeu je m'en balance completement

:keskidit: Je suis pas tres joueur mais ca m'arrive alors je voit pas une difference de 5FPS dans un jeu mais je peut voir la moindre difference de couleur ou de rendu

Question de memoire visuel :byebye:

Lien vers le commentaire
Partager sur d’autres sites

C sur que 2 a 5 FSP de difference c plutot négligeable, mais sur DX9.0 en AA+AN, c'est quant meme un peu plus que ca croi moi, hihi, en faveur des X800 biensur, et tu peut tout aussu bien faire du bi-1600x1200 avec une X800XT vivo.= pour une qualité dimage 2D un peu meilleur.

Lien vers le commentaire
Partager sur d’autres sites

Je sait pas si je suis perturbé, huhu!, mais en tout cas, jai remarqué, que par exemple sur Doom3, jobtien un meilleur rendu du normalmap (bupMapping) avec ma X800XTPE et les drivers 4.10+CCC qu'avec mon ex 6800GT@U, mais avec quelque FPS en moins, en moyenne  dix au test "timedemo demo1 usecache" mais vu que le jeu bloc a 60FPS, c pas un probleme, et cela sans troler biensur.

Benh tu voi....comme je l'est dis, j'ai lu les 3 premiére lignes et comme tu TROLLER toujours autant...j'ai arrété.

Tu commence par dire que le rendu des 6800 est inférieur à celui des X800 dans Doom3. Et comme je l'est prouvé.....le rendu est le même...avec même un avantage pour les 6800 avec leurs shader FP32. Je voi simplement que tu ne sai pas réglé tes drivers Nvidia. ;)

Ensuite tu dit que le jeux bloque à 60FPS. SI tu utilise un temps soit peu ta carte et que tu joue en 1600*1200 "haute qualité" (jeux et driver) avec AA4X et AF8X....je doute fort que tu bloque le jeux à 60FPS.....surtout que avec une X800!!!!

Donc dsl....mais ça ma suffit. :p

Pour l'info utile de ce post: ctrl F "60" permet de débloquer le nombre de FPS de Doom3.

Pour le niveau de qualité en générale......en mode "qualité" (optimisation on) Nvidia alterne du FP32 et du FP16. Ce qui donne un meilleur rapport qualité/perf que les ATI qui ne son qu'en FP24.

Là je ne critique pas ATI. Le rendu offert par les X800 et les 6800 reste trés proche dans n'importe quel jeux actuel. Il faut vraiment le cherché pour voir une différence. Seul certaines applications spécifique permétes de voir nétement l'avantage du FP32.

Pour le "BRILINEAIRE". Tu sort du sujet. Ce filtrage n'est même plus present sur les FW récent!! (et oui). Et même en "qualité" dans les drivers tu à un VRAI filtrage trilinéaire.

Par contre tu m'a appris qu'ATI permet de le désactivé aussi.....c'est pas trop tôt!!!!! Cela fait maintenant plus de 6 mois que Nvidia les à enlevé. :yes:

Ensuite, tu dis , ULTRA, que lherbe et bien mieu rendu avec les ps3!!??? c completment impossible, car en fait, je texplique.

C'est celle là la meilleur. Tu à oublié que je n'est pas lu ton post. Cette réponse n'était pas pour TOI. Cette phrase est une pure connerie. J'ai jamais dis ça. ACtuelemnt la différence enter les SM2.0a/b et les SM3.0 et tous simplement nul!!!!!

Ma réponse était pour Charles. Réponse en rapport avec notre derniére discusion sur l'Unreal engine 3 (forum "jeux")....ou l'on parlé de l'avenire du PS3.0. :-D

Enfin, je repette une chose qui était dans mon long post que tu nas pas pris la peine de lire en entier, les X800Series GERE LE GEOMETRY INTANCING et c activable par un simple clic dans le CatalystControlCenter, là ou on peu mettre aussi du 100% trilineaire en un clic aussi.

Merci pour le résumé. Là tu doit "critiqué" le HDR de DX9.0c qui n'est pas activable directement dans les drivers Nvidia. Tout d'abord il n'est pas finni. Pour l'instant on régle l'intensité du HDR avec une valeur fixe. Plus tard, cette valeur sera surement dynamique. Mais ce que je retien parmit tous les nouveau "gadgets" actuel...c'est que seul le HDR augmente la qualité d'affichage. Et pas qu'un peu!! Le différence et monumentale. Domage qu'il ne soi qu'en FP32 (norme DX9.0c)....et que les X800 ne son donc pas compatible. Toutefois, j'espére vraiment qu'il y aura une version en FP24 pour les ATI. Ce sera domage de privé les ATI d'une telle amélioration. ;)

Sur ton post plus haut, tu dit que les testes que l'on trouve sur le net favorise les 6800.

:mdr2:

OUPS, dsl :eeek2:

....car tu voi ba le trusform, on lattend toujour en application, donc meme si tu avais un 9600XT, il ne cerait pas exploitée a 100% :)

Le Truforme à était implanté sur le 8500 il y à trés longtemps. Je ne suis même pas sur que le R300 et supérieur le support pleinement. FooDje, je croi que tu peu attendre longtemps avant de voir des nouveaux jeux qui le support. Cette fonctions est morte et entérré.

PS, lis les testes en entier, ou a la limite, ne repond pas avant de les avoir bien lus pliz, pour le simple respec des argument de chacun.

Je l'est dit d'entré que je préféré ignoré ton post pour me concentré sur celui de Charles......... ;) Si tu y à vu un manque de respect de ma part, dsl. C'était plus un manque de motivation.

Et moi, cela ne me dérange pasp lus que ca, que ce dégbat perdure, car dire de fausse véritée, et se voiler la face, ca mérrite qu'on s'y interresse.

Celle là c'est une trés bonne phrase. Mais je voi que tu ne l'applique pas à toi même. J'évite autant que possible de dire des connerires dans mes posts.

Sans rancune, j'espére. :pleure:

Lien vers le commentaire
Partager sur d’autres sites

MAJ: je ne dis pas que tout les test favorise les 6800, je dis exactment que on prefere lire et croire les test qui faforise sa marque plutot que celle du voisin.

Décortique mieu les sens.(pas caché)

Pour les funérailles du Truform, je les ferais quant cette option aura disparue de mes drivers, pas avant.

Et enfin, non, ne tinquiet, pas, je ne suis pas rencunier pour des sujet comme ceux là, au contraire, je prefere des coup de chauffe constructif, que de vrai troll inconstructif et destructeur pour les relations. :francais:

(sans polémiquer, tu dis ne pas dire de conn......rie dans tes post, et ne pas troller, mais bon, dixit toi::"c'est que SEUL, le HDR augmente la qualité daffichage, ET PAS QU'UN PEUT" si c'est pas de la provoque troller ça!!, :francais:

Pour le fait que le brillinèaire,n'est plus present dans les forceware, j'en doute, fortement, et il est surtout moins prononcé, qu'avec les GeForceFX, c'est kler, mais il est toujour presente, dans les drivers FW, je l'ai meme lut sur Tomshardware.fr, dans le paragraphe du test des 6800 et X800 consacré a la qualitée d'image.

Et il disaient bien qu'on pouvait le desactiver, mais quil était activé pas default, alors, il a pas disparu, dsl. :transpi:

Au fait, je viens de download, le dernier Patch pour Richard Burn Rally, et jai gagner en qualitée d'image et stabilitée,(oui il avait tendance à planter au cour de route) et je fais du 90FPS 1280x1024(c'est la rezo max qu'offre ce jeu) AA x4 temporal+x8 AN, là ou ma 6800GT@U 430/600 faisait du 45FPS en AA x4 normal(je pouvais pas mettre d'AN avec me 6800 car + 10FPS au moins = 35FPS), alors, je conseil à celles et ceux qui ont ce jeu et un X800 et mème une 6800 de downlad ce patch, car si il corrige des bug et me donne 20FPS en + il doit corriger aussi les 6800.

Lien vers le commentaire
Partager sur d’autres sites

Pour le fait de troller sur le HDR......., c'était pas pas vraiment de la provoque ( :D )....plus le simple fait que c'est vraiment la seul fonction récente qui améliore le graphisme de façon trés notable.

Pour les ATI qui support le HDR, elle l'on toujours supporté!! Ce n'est pas une question de drivers....mais de programation des shaders. Le HDR de Farcry n'est dispo qu'en FP32 pour l'instant. Et c'est d'ailleur pour cela, dans mon dernier message, que j'éspéré pour les ATI qu'il y aurait une version FP24.

Pour le filtrage "brilinéaire", je ne répéte que ce que j'ai lu dans un PC UPDATE. IL est peu être encore présent mais sur des réglage "performance" dans les drivers. Et il est bien désactivé par défaut!! ;)

Pour Richard Burn Rally...peu être. Je n'est pas ce jeux et je n'et vu aucun teste sur une 6800. Elle on peu être du mal sur ce jeux. Ce qui n'est pas une raison pour critiqué l'ensemble de la série des 6800....comme tu le fesai la derniére fois.

Pour le fait que je préfére croire les testes du net que mon "voisin" (toi en l'ocurence :yes: )....tu sai j'ai lu enormement de testes. HFR, Clubic, Tomshardware, Xbitlabs....et j'en oublie plein. Il disent tous a peu prés la même chose.

Lien vers le commentaire
Partager sur d’autres sites

DSL pour la réponse à Ultra mais vu que tout le monde trolle ici y'a pas de raison de se gener :mdr:

Le HDR n'est pas dispo pour les cartes ATI dans FarCry pour une bonne et simple raison le logo NVidia sur la boite et leur politique de sponsoring à la con...enfin en réponse du berger à la bergère, il est probable que le HDR de HL² (et oui, HL² supporte lui aussi cette fonction, cf la vidéo "HL2-Demo SourceEngine.exe") ne soit activable que sur les cartes ATI...

Lien vers le commentaire
Partager sur d’autres sites

DSL pour la réponse à Ultra mais vu que tout le monde trolle ici y'a pas de raison de se gener  :transpi:

Le HDR n'est pas dispo pour les cartes ATI dans FarCry pour une bonne et simple raison le logo NVidia sur la boite et leur politique de sponsoring à la con...enfin en réponse du berger à la bergère, il est probable que le HDR de HL² (et oui, HL² supporte lui aussi cette fonction, cf la vidéo "HL2-Demo SourceEngine.exe") ne soit activable que sur les cartes ATI...

Charles??

On va faire des réunions de trolls. :mdr::transpi:

Je suis d'accord avec toi. Les ATI peuvent normalement supporté le HDR en blending 24 bits.....donc il n'est pas normal que Crytec ne l'est pas programmé.

...faut dire aussi que le HDR n'est pas finalisé. Le patch 1.4 sera peu être mieu de se côté là.

Reste a voir évidament comment le HDR va se comporté sur les ATI (perte de perf et rendu en FP24).

Lien vers le commentaire
Partager sur d’autres sites

...faut dire aussi que le HDR n'est pas finalisé. Le patch 1.4 sera peu être mieu de se côté là.

C'est clair que pour le moment c'est plutot moche...certains perso ont des reflexions style miroir...nan ils ont bu du Mirror ou quoi...sinon, je trouve qu'ils ont vraiment abusé sur le rayons...le rendu qui est censé faire plus réalise fait au final beaucoup plus kitch...je trouve et je le redis une N-ième fois, que le HDR de HL² est bien plus discret et bien plus réaliste que celui de FarCry...

Lien vers le commentaire
Partager sur d’autres sites

C'est claire (sans jeux de mot :D ).

Pour l'instant, dans Farcry 1.3, on régle "l'intensité" du HDR avec une valeur fixe (qui ne peu varié que de 7 à 11 pour l'instant).

Plus tard, cette valeur sera surement dynamique et changera en fonction du lieu (extérieur ou intérieur).

Lien vers le commentaire
Partager sur d’autres sites

  • 1 mois après...

Archivé

Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.

×
×
  • Créer...