Aller au contenu

[CG] Half life 2


Messages recommandés

Je vais essayer ça avec ma 5900xt quand je recevrai le jeu..

S'il y a bien un truc que je déteste, c'est bien les optimisations pour un jeu, venant de constructeurs rivaux, et c'est qui qui trinque...bien sûr, nous... :transpi:

Mais bon, j'ai acheté ma fx5900xt il y a 3-4 mois, et je reconnais que j'aurais du attendre... j'envie déjà les 6600gt... :transpi:

+1

Le post clair, précis :freeposts:

Lien vers le commentaire
Partager sur d’autres sites

  • Réponses 50
  • Créé
  • Dernière réponse
Problème d'archi pourquoi ? Le bus mémoire ne change pas souvent...je pensait plutot à faire de carte graphiques ressemblant à de mini cartes mères sur laquelle tu pourrait changer le GPU et la mémoire...faudrait que je propose mon idée à la con aux constructeurs de CG :transpi:

Bon promis j'arrete avec mon idée à la con :transpi:

Ce serait l'evolution logique du hard des CG

Lien vers le commentaire
Partager sur d’autres sites

Oui, et c'est pour cela que dés qu'il y a des shader compliqués( donc a priorie plus beau), les 6800series ont leur perf qui s'éffondre....

No stresse FooDje. :transpi:

Là on parle "d'injustice". Les raisons que Doom3 soit plus perf sur les 6600/6800 sont tout à fait explicable. Il manque vraiment le DST et l'Ultrashadow au X800.

Pour HL²....c'est volontaire. Il n'y à aucune raison que les FX soient limitées à DX8.1....et que les 6600/6800 soient forçées en FP32 seulement!!!!!

Sinon, oui un shaders plus long est plus beau qu'un court. Par exemple 3DM2005 utilise des shaders de 50 instructions. ..........200 instructions pour l'Unreal engine 3. :transpi:

Si Doom3 est aussi beau avec des shader de 10 instructions......c'est qu'il utilise un nombre ENORME de shaders. Chose que n'aime pas trop les X800.

Pour le reste.....je vais rien dire (pourtant j'ai plein de truc dire...).

A si, Doom3 est le premier et le seul jeux qui a des ombres totalement dynamiques. Chose que n'aime pad trop non plus les X800 (dsl...mais c'est plus fort que moi :transpi: ). :transpi:

Lien vers le commentaire
Partager sur d’autres sites

Je ne sais pas ou tu as vu que les X800 n'aimaient pas calculer ernormement de shader ni quelle n'aimaient pas les ombres???

Tu me mettra donc le lien de l'article où tu as vu cela!!! ( si c'est sur nVidia.com, c'est pas la peine que tu te fatigue, on aura compris...)

Et puis, oui, Doom3 utilise beaucoup de shader, mais pas reelement en fait, il utilise beaucoup du MEME chader, dixit Total PCjeux de ce moi, donc, c'est facile comme ca, le jeu utilise un seul et seulement un seul shader, et comme par hazard, c'est celui qui reussi le mieu aux 6800...

Mais si tu leur demande de calculer plusieur shader different, elles s'écroule, huhu!! tu parle d'une bonne archi...

Lien vers le commentaire
Partager sur d’autres sites

:ouioui: FooDje

Ben en fait j'ai déja répondu à l'ensemble de tes questions. Suffit de lire les poste que j'ai écrit. ;)

C'est pas que les X800 on du mal avec de grandes quantitées de shaders ni avec les ombres....c'est seulement que les 6600/6800 son trés forte pour cela.

Premiére chose le DST. Technologie dont j'ai déja parlé avant. Elle simplifie le calcule des ombres. Comme Doom3 à énormement d'ombre et dynamiques en plus.....les X800 (pas compatible DST...comme avec tout les deriéres technologies d'ailleur :ouioui: ) partes déja avec une longueur de retard.

Autre technologie, L'Ultrashadow, là c'est une technologie interne à Nvidia. Elle permet à une 6600/6800 de doublé (voir quadruplé) sa puissance de calcul dans certaines conditions....notament lorsqu'il y à beaucoup de shaders de faible longueurs ou une grande quantité d'ombres....comme c'est le cas dans Doom3.

Pour le fait que les 6800 s'écroule lorsqu'il y à de gros shaders.....je veu bien voir le lien ou tu lu tout ça. Mais en tout cas, elles arrivent bien à géré l'Unreal engine 3.....qui à pourtant des shaders monstrueux de 200 instructions!!! (la moyenne actuel dans les jeux et de 20 à 30 instructions).

Pour les infos, tu devrai lire le PC Update (novembre/decembre). Il on fait un article sur le sujet.

Mais je peu aussi de donné quelque infos sur ces technologies.

Première chose à remarquer, l’influence du mode pleine précision est ici bien moins important, puisque l’on perd 7.2% de performances, contre 15.9% sur GeForce FX. Il en va de même pour la désactivation des ombrages DST, qui fait perdre 11% ici contre 19% sur GeForce FX, et pour le passage en Shader Model 2.0 (-12.7% contre -19%). Au final le mode le plus favorable ne fait gagner « que » 21% par rapport au mode le plus défavorable.

6800/FX. Article qui parle du DST sur 3DMark2005 (et oui, il est compatible). Source:HFR.

Cette technologie a d'abord été implémentée dans la génération de cartes NV35 / 38) et elle permet des calculs d’ombres plus rapides. Avec la nouvelle version améliorée Ultra Shadow II, la NV40 est quatre fois plus rapide que la génération précédente. Par conséquent, on peut affirmer sans risque que la puce sera prête pour des jeux à venir comme Doom III, qui sera un usage intensif des stencils shadows.

Un jeu n'a pas besoin d'être optimisé de quelque façon que ce soit pour Ultra Shadow II afin d’accélérer les calculs d'ombres. Cela dit, adapter le code du jeu donnera aussi un gain de vitesse supplémentaire. Par exemple, certaines zones pourront être définies dans le moteur du jeu, dans lesquelles les ombres seront visibles. Cela diminue les calculs inutiles, car ne serons calculées que les ombres supposées être visibles.

Ultrashadow II. Source: Tomshardware.

d3shadows2.jpg

La géométrie nécessaire pour les calculs d'ombres sans Ultrashadow II.

d3shadows3.jpg

...et avec Ultrashadow (trés simplifié).

Lien vers le commentaire
Partager sur d’autres sites

Problème d'archi pourquoi ? Le bus mémoire ne change pas souvent...je pensait plutot à faire de carte graphiques ressemblant à de mini cartes mères sur laquelle tu pourrait changer le GPU et la mémoire...faudrait que je propose mon idée à la con aux constructeurs de CG :chinois:

Bon promis j'arrete avec mon idée à la con :craint:

Sauf que y a un tout petit problème, un FPGA c'est limité en fréquence, et surtout dans le nombre de portes logiques que tu met dedans!!

autant dire qu'il faudrai un sacré FPGA pour faire tenir les 222M de transistor du 6800, et la fréquence de fonctionnement serait plus que décevante...

donc non, dsl, ca va pas etre possible.... :craint:

Lien vers le commentaire
Partager sur d’autres sites

Ultra, quant tu dis que les 6800series se porte bien sous UT3, tu pousse un peu lion l'auto congratulation, car 15 a 20Fsp, pour un FPS, c'est franchement pas jouable....

Et puis pour le mot de la fin, tu pourra dire ce que tu veu, ce sont bien kes X800 et maintenant les X850 qui sont les plus performante carte graphique du moment, et comme tu le sais, les X800XT et XTPE sont tres facilement "fréquecable' en X850XTPE, et que donc, fonction ou pas,( pas utilisé surtout) il vaut mieu un confort de jeu reel (X800) ( nombre dimage seconde) que des fonctions utilisable(maiz pas utilisées) qui rendent ce meme nombre dimage seconde injouable....

Lien vers le commentaire
Partager sur d’autres sites

Ultra, quant tu dis que les 6800series se porte bien sous UT3, tu pousse un peu lion l'auto congratulation, car 15 a 20Fsp, pour un FPS, c'est franchement pas jouable....

Et puis pour le mot de la fin, tu pourra dire ce que tu veu, ce sont bien kes X800 et maintenant les X850 qui sont les plus performante carte graphique du moment, et comme tu le sais, les X800XT et XTPE sont tres facilement "fréquecable' en X850XTPE, et que donc, fonction ou pas,( pas utilisé surtout) il vaut mieu un confort de jeu reel (X800) ( nombre dimage seconde) que des fonctions utilisable(maiz pas utilisées) qui rendent ce meme nombre dimage seconde injouable....

:love: Foodje.

15 à 20 fps....

Non. D'aprés Epic game, une 6800GT devrait permétre de faire tourné le jeux en 1024*768 détail "moyen". C'est déja pas mal.

Pour les X850, bas.....là je capitule. :iloveyou:

ATI dispose effectivement de la plus puissante carte du marché. Enfin, d'ici que le NV48 sorte.

Pour les monté en fréquence....je voi pas de quoi tu parle. Les 6600/6800/GT/Ultra on d'exelentes monté en puissance (ne pas confondre la fréquence avec le gain apporté). C'est un peu comme comparé la monté en fréquence d'un A64 avec celui d'un P4C. Les 6600/6800 n'on pas besoin de prendre +80Mhz comme les X800 pour voir une monté de puissance importante.

......bien que j'en soi pas trés loin (+70Mhz pour ma 6800Ultra).

Deux petites choses quand même.

Tu parle que les technologies sont encore peu utilisées....et c'est vrai. Le 6800 est encore sous exploité....trop avancé technologiquement certains diront.

Mais regarde se qui ce passe lorsqu'un jeux utilise ces technologies (comme Doom3). Les X800 (et surement les X850) on vraiment du mal à suivre......

Et puis derniére choses, qui est important de rappelé.....Nvidia vend 2 fois plus de série 6800....qu'ATI de série X800.

:-D

Lien vers le commentaire
Partager sur d’autres sites

Le NV48 a été annulé par nVidia ya pas mal de temp deja....

Et dapret ateriel.be, meme le NV50 aurait été annulé.... au proffit d'un NV47 24pipeline!!! deja qu'il galere a faire tourné 16P a 450Mhz, alors oui, 24P a 200Mhz huhu!!!!

Enfin bon, ouble le NV48 et apparement le NV50 aussi!!

Je te met le lien de l'info

http://www.3dchips-fr.com/actualites/9429/...20_a_90_nm.html

ATI aurait produit les premiers R520 à 90 nm

Pour ton argument sur "trop en avance technologiquement", tu oubli que c"est ce qui a perdu Nvidia avec son NV30.... a vouloir trop en faire, on oubli le principake, la compatibilité avec la grande majoritée des machine utilisé, et c'est bien de ces machine que les developeur s'interresse et calcule leur developement pour vendre le plus possible, donc, d'accord nVidia a fini par comprendre qu'aller contre grosoft n'était pas bon pour eux, mais ils ont encore voulu faire des leurs, et 50% de leur architecture ne sert a rien ( pour le moment) et leur demande de tres gros effort d'optimisation de driver pourt donner ap eut pret de bonne perf osus les jeux d'haujourdhuit....

Et ce qui mernerve avec ton eternel argument, ( doom3) car c'est le seul, et tu ose dire " lorsqu'un jeu utilise ces technologies( sous entendu des jeux) mais je te signal

qu'il ny a QUE doom3 qui ulisise ces technique et par dessus le marché, c'est nVidia qui a payé IDsoftware pour l'aider au developement de doom3 justement et qu'il favorise les 6800!!!

Au contraire de tout les autres jeux qui n'ont pas eu le mème partenariat si particulier ($$$$$$$), et qui sont mieu rendu sur X800.

Donc, arrete de resortir Doom3, car il n'y a que lui et seulemnt lui ou l'on voi un tel difference en faveur de nVidia, ( et moi tu aura remarqué que je ne te sort pas seulement HL², mais tout les autres jeux!!!

Donc, quit à choisir, autant choisir la carte qui a les meilleur perf actuel, et pas celle qui cartonne sur un jeu et seulement un jeu fait pour elle a grand coup de brouzouf, et qui est moins perf sur les autres jeux!!!

Un comble.... mème la majorité des jeux qui sortent sont sponsorisés par nVidia(avec leur logo à la mour moi le noeud), et ils tournent mieu sur X800!! tu ne trouve pas bizard dans ces conditions que les 6800series soit moins bonne???

Lien vers le commentaire
Partager sur d’autres sites

Que Doom3...non, Quake4 aussi.....est surement plein d'autre jeux qui vont être basé sur ce moteur. :francais:

Ha oui....et également tous les future jeux qui seront compatible DST (au passage, ATI trouve cette technologie télement efficace que le R520 sera compatible).

Pour ton argument sur "trop en avance technologiquement", tu oubli que c"est ce qui a perdu Nvidia avec son NV30.... a vouloir trop en faire, on oubli le principake, la compatibilité avec la grande majoritée des machine utilisé, et c'est bien de ces machine que les developeur s'interresse et calcule leur developement pour vendre le plus possible, donc, d'accord nVidia a fini par comprendre qu'aller contre grosoft n'était pas bon pour eux, mais ils ont encore voulu faire des leurs, et 50% de leur architecture ne sert a rien ( pour le moment) et leur demande de tres gros effort d'optimisation de driver pourt donner ap eut pret de bonne perf osus les jeux d'haujourdhuit....

Non, le FX5800 avait une archi beaucoup moin bonne que le 9700. Et ce n'est plus le cas maintenant. Si les X800XT PE son aussi perf que les 6800Ulta...c'est grace à leur +120Mhz supplémentaire.

Pour le fait que IDsofware à favorisé les Nvidia....benh c'est l'un des sujets de ce topic (tu sais...les injustices). On parle pas de ATI vs Nvida là (même si ça y ressemble drolement depuis que tu est arrivé... :transpi: ).

Doom3 est seulement pleinement compatible avec l'Ultrashadow + DST....est c'est ça qui "entére" les X800. Ya même pas besoin de faire des optimisations spécifiques.

Comme en témoigne les nouveaux drivers Nvidia (de +10 à 20% de perf en plus sur Doom3 avec des 65.76 et supérieur).

Donc, arrete de resortir Doom3, car il n'y a que lui et seulemnt lui ou l'on voi un tel difference en faveur de nVidia, ( et moi tu aura remarqué que je ne te sort pas seulement HL²; mais tout les autres jeux!!!

Donc, quit a choisir, autant choisir la carte qui a les meilleur perf actuel, et pas celle qui cartonne sur un jeu et seulement un jeu fait pour elle a grand coup de brouzouf!!!!

C'est celui là mon passage préféré. :mdr:

D'aprés ton discours.....le 6800 est une carte "ridicule" face au X800. Et dans l'ensemble des jeux en plus de ça..... :mdr:

Tu regarde pas souvant des bench toi...... :yes::humour::fumer::mdr:

Pour le NV48/NV50....ou NV47....benh à part le non qui change c'est la même carte. C'est dire gravure plus fine (0.11 ou 0.09µ), plus de pipelines (au fait, tu à confondu, c'est ATI qui à du mal à faire des chips 16P......pas Nvidia) et fréquence plus hautes....

Lien vers le commentaire
Partager sur d’autres sites

Petite rectification, mopi je ne suis pénalisé en rien avec Doom3 et ma X800 car je ne descent jamais en dessous de 60images seconde, et il n'y a bien que sur le bench intégré a doom3 qu'on voi une difference de cet ordre, si ce n'est les normal map qui sont mieu rendu sur X800!!!

Et donc, pour les ls X800 soit enterrée, il faudrai qu'on ne puisse pas jouer a ce jeu, a cause d'un nombre dimage trop peu allevés, ce qui nest biensur pas le cas, surtout depuis larrivé des dernier drivers ATI(hors AI)

Sinon, je n'ai jamais dis que les PS3 et ces dérivés UltraShadow et tout et tout, était de mauvaise technique, je ne suis pas assé callé pas cela, mais juste qu'elle ne servent a rien actuellement, et que moi, jouer par procuration par projection mental sur des jeux qui sortiront dans 2ans, c'est pas trop mon truc....

Ensuite, oui, doom3 utilise ernormement d'ultra shadow, echnique propriétaire de nVidia, et c'est justement là le probleme, ce jeu n'utilise pas de technique propre a DirectX, mais a nVidia, et donc, a la limite, si D3 avait utilisé massivement les PS3 de DX, là oui, j'aurait rien dis, car cela aurait été bien fait pour ATI de ne pas s'etre mis a lapage, mais là, utiliser une technique propriétaire a une marque, donc, interdite a l'autre, ne peut que défavoriser déloyalement cette meme marque....

Et ce n'est donc, pas un argument valable pour comparaison équitable.

Enfin, dernier point, ce nest pas ATI qui na pas pu sortir sa génération transitoire de chipset amélioré au niveau fréquences cette année, mais nVidia, donc, je n'ai pas confondo tinkiet, c'est bien nVidia qui est en plein doute...

Lien vers le commentaire
Partager sur d’autres sites

Ya encore quelques "bétises"....mais c'est déja mieu.

Pour Doom3, la situation n'a absolumant pas changé avec les dernier drivers ATI......puisque, comme je l'est déja dit, les derniers drivers Nvidia apport un gain collosale dans ce jeux (moi j'ai +16% en 1600*1200 tout à fond).

Ya toujours +10fps (en moyenne) sur ce jeux pour les 6800 face au X800. :francais: Surtout que tout les possésseurs de X800 n'on pas une X800XT @570/580 voltmodder. :jesquate:

Pour le bump mapping de Doom3 (donc les normal map si tu préfére)....qui est plus beau sur les X800 que sur les 6800.....mais bien sûr. :sucre: (FP32 pour Nvdia contre FP24 pour ATI......ya pas photo!! :topigliss: )

Pour le fait que Doom3 utilise énormement l'Ultrashadow......cela prouve que tu n'a pas lu entiérement mes postes......

J'ai déja dit que l'Ultrashadow n'a pas besoin de compatibilité (contrairement au DST)!! Il est actif dans tous les jeux!!! Si il apport autant de gain sur Doom3....c'est que celui-ci à des ombres dynamique....ce qui demande beaucoup de calcul. Ca aussi je l'est déja dit.....

Donc quand tu à dit que IDsoftawre utilise une technique Nvidia....ben c'est just une grosse bétise. :sucre:

Sinon, pour les nouvelles technologies.....comme je l'est déja dit, il y à 2 fois plus de 6800 veudu que de X800....ce qui devrai motivé les programmeurs. Surtout que le R520 sort dans 6 mois....et qu'il sera compatible avec la majeur partie de ces technologies. :sucre:

Donc on va voir de nombreux jeux compatible HDR, DST et qui utilise massivemement l'Ultrashadow (avec des ombres dynamiques) BIEN AVANT 2 ans (d'ailleur UE3 sort dans 1 ans :sucre: ).

Et puis si tu veu tout savoir, le probléme principale de Nvidia....ce n'est pas les pipelines ni la monté en fréquence. C'est l'alimentation!!! (et oui....).

Je sais pas combien consomme ma 6800U @470/1225....mais en tout cas, ma Zalman 400W d'éclare forfait.

Donc il ne peuvent pas sortie un NV48 0.11µ à 500Mhz. Ou alors il faudrait une alim 550W + un accord spéciale avec l'EDF en bundle. :sucre:

Lien vers le commentaire
Partager sur d’autres sites

Mais tu peut me dire a coi te serve tes 10FSP sur un jeu bloqué a 60???

On peut bien les débloquer, mais c'est injouable, donc, a part dans les bench, ce gain est considérable comme inutile au confort de jeu.....

Je te rappel qu'il ni a que nVidia qui gere les FP16 et que les FP32 ne sont pas utilisé pour les normal map dans Doom3!!!

Il ni a pas 2 6800 vendu pour 1 X800, car sur le tres haut de gamme c'est ATI qui vend le plus.

Et les carte le plus vendu, gere Directx 9.0 et pas 9.0c, alors ton argument sur les developeur choisissant, Nvidia et ses 6800 DX9.0c est faut :francais:

Lien vers le commentaire
Partager sur d’autres sites

J'aime les gens qui parlent sans savoire.... Je vais te donnée une série d'articles. :jesquate:

Je te rappel qu'il ni a que nVidia qui gere les FP16

Je te rappelle que seul ATI utilise des shaders FP24..... :sucre:

Dsl, c'est petit. :francais:

Pour Doom3, c'est bien un jeux DX9.0....non? Tout jeux DX9.0 (a,b ou c) est compatible FP16/24 et FP32. :topigliss:

Mais tu peut me dire a coi te serve tes 10FSP sur un jeu bloqué a 60???

On peut bien les débloquer, mais c'est injouable, donc, a part dans les bench, ce gain est considérable comme inutile au confort de jeu.....

Comme je l'est dis, il ne faut pas prendre son cas pour une généralité. Il n'est pas vraiment facile de joué avec une X800Pro/X800XT (freq d'origine) en 1600*1200 haute qualité......sur ce jeux. :sucre:

Sinon, pour le NV48

Côté carte graphique, selon The Inq le NV48 aurait été annulé, NVIDIA ayant réalisé contrairement à ATI que sortir une nouvelle carte pour 20 à 30 MHz de plus n’était pas forcément utile. Du coup, c’est au travers du SLI, sur NV41 (6800 PCI Express) et du NV45 (6800 GT / Ultra PCI Express) que NVIDIA compterais combattre ATI du côté des performances. Cette information est toutefois à prendre avec des pincettes car selon d’autres sources NVIDIA aurait bien quelque chose de prévu pour début 2005 ... Wait & See !

....et pour les ventes

NVIDIA premier sur le haut de gamme

   

Afin de nuancer un peu ses mauvais résultats en terme de part de marché, NVIDIA vient d’annoncer que les derniers chiffres de Mercury Research le placent en première position sur le marché des GPU DirectX 9 haut de gamme. NVIDIA est ainsi passé de 26% au second trimestre à 64% au troisième trimestre, ce qui prouve que les 6800 se sont plus vendus que les X800. On ne connaît toutefois pas la répartition de parts de marché entre les différents modèles de 6800, un fossé séparant tout de même un 6800 classique d’un 6800 Ultra.

Malgré ceci et le fait que ce segment est relativement réduit pour ce qui est du volume, ces chiffres augurent peut-être d’un futur retournement de situation en faveur de NVIDIA, suite à l’arrivée du GeForce 6 et de ses déclinaisons, même si on attend toujours le NV44. Cela devrait cependant prendre du temps, le marché se caractérisant par une forte inertie comme l’a montré le récent succès de ATI qui découle du Radeon 9700 Pro lancé il y a plus de deux ans.

NVIDIA précise également qu’il atteint 100% du marché Shader Model 3.0 grâce au GeForce 6 : étonnant, non

Source: HFR

:sucre:

Lien vers le commentaire
Partager sur d’autres sites

Non c'est faut, DirectX9 aussi gere les FP24!!!! et c'est Nvidia qui a voulu en faire qua ca test de ...!!

Et si tu commence a dire que DX 9.0 / 0.a /0.b/ 0.c sont pareil, je me demandz alors pourcoi ils ont une numerotation differente??

Et c nVidia qui a fait pression sur Grosoft pour quil sorte DX9.0c alors que tout cela aurait du etre intégré dorigine au DX10

Mais bon, je dois te lapprendre apparement....

Ba le truc que tu me sort sur nVidia vient d'un de leur communique de press.. et tu sais bien comment il faut les prendre....

Car je croi bien que nVidia a deja par le passé et sorti des version de leur puce plus hautement cadencées, et si nVidia aurait pu vraiment fournir de tel puce en ce moment, il ne sen cerait pas gené, car je nai encore jamais vu dans ce domaine un constructeur ce laissé devancé pour sont concurent alors quil leur cerait normalement facile de faire de meme....

C'est bien la preuve que nVidia narrive pas a sortir de chip stable a de plus hautes fréquences.

Donc, arrete de te voiler la face, Nvidia ne s'est tout simplement pas encore tout a fait dépétré de sont FX5800 et il éssai par tout les moyen detre en avance technologique!!

Résultat, ils ont sortient des puce non fini, non stable, consomment trop, chauffant trop, et avec des bios Beta en vente.....

Donc, des pratiques comme celle là, avec des tarif aussi prohibitifs ( valable pour ATI) et sortir des produit de beta testeur, non merci, surtout si c'est pour avoir a flacher sa carte pour quelle fonctionne correctement.

Et enfin, sur les ventes, je vais tavouer que c'est bien le dernier de mes soucis, que ATI ou Nvidia soit premeir ou deuxieme, car je nai pas daction chez lun ou lautre, mais ce que je sais, en contre partie, c'est que Nvidia a la puce le plus performante juste apret ATI qui est le rois incontesté et incontestable avec sont X850 et moi, me X800 tourne a 600Mhz//580Mhz et je te mange donc....ainci que toutes les 6800U qui existe.

Lien vers le commentaire
Partager sur d’autres sites

Non c'est faut, DirectX9 aussi gere les FP24!!!! et c'est Nvidia qui a voulu en faire qua ca test de ...!!

Et si tu commence a dire que DX 9.0 / 0.a /0.b/ 0.c sont pareil, je me demandz alors pourcoi ils ont une numerotation differente??

Et c nVidia qui a fait pression sur Grosoft pour quil sorte DX9.0c alors que tout cela aurait du etre intégré dorigine au DX10

Cette discussion n'a pas lui d'être. DX9.0 est compatible FP24 et 32 depuis ça sortie. Nvidia à ensuite payé microsoft pour qu'il soi sompatible avec "toutes les normes inférieurs à FP32" (donc les FP16).....et ceci depuit la version "a".

Bref, tout ça pour dire que les 6800 on effectivement des shaders FP32 sur Doom3 (en mode haut qualité). Donc pour ce qui est de la qualité du bump mapping.....ya pas photo......

Pour les infos. Ce que je voulais te montrais, c'est que certaines sources raconte qu'un nouveaux chips Nvidia est prévu pour début 2005.....

-------------------------------------------------------------------------------------------

Pour nos combat de carte graphiques.....tu sens pas comme un déséquilibre. ;)

Toi --> X800XT @600/580......pour ça il te faut un VGPU modd et un WC.

Moi --> 6800Ultra @460/613.......et TOUT d'origine (VGPU et rad). Elle tien même les 470Mhz...mais il me faut une alim plus puissante. :francais::francais:

Bref,...j'imagine même pas ce que ma 6800U donne dans les même conditions que toi. C'est à dire avec un VGPU @1.5V voir 1.6V et un bon WC. ;)

Mais bon, laissons ça de côté. Comme j'envisiage de plus en plus d'acheté un WC.....on en reparlera. :non:

-------------------------------------------------------------------------------------------

Sinon, c'est bien Nvidia qui est premier dans les ventes de cartes haut de gammes (...et pas qu'un peu...63%!!!). Il s'en sorte plutôt bien....avec des cartes "puce non fini, non stable, consomment trop, chauffant trop".

...et pas la peine de dire des bétises. C'est chiffres ne vienne pas de chez eux. :byebye:

Lien vers le commentaire
Partager sur d’autres sites

Moi jai une XT 500/500, et la personne qui ma refillé la technique du Vmod,; montait avec le meme matos que moi en 680/680!!!!!! je ne te ment pas, javait mis le lien c'était sur nokytech dans section overcloking titre pencilMod X800.

Sinon, pour info, les timing mèmoires des X800 sont beaucoup plus agressif que ceux des 6800, jen veu pour preuve, que jarrivais à 622Mhz avec mon ex 6800gt qui avait pourtant de la 2.0ns!!!

Et je ne sait pas ce que donnerait un 6800U en 1.7v!! huhu deja quelles surchauffe en 1.4v @ 460Mhz, alors en 1.7v, elle fondent....

Non, seriieux, on ne peut pas aplique de tel voltage avec une architecture aussi betaéiste......

Donc, moi cest comme si javais un GT et je lai payé 480E moi.

Et pour les ventes, ca sort de chez nVidia tes chiffres..... qui ont soidisant repris dun autre organisme.... enfin tu vois coi, de la mito..... ils sauto masturbe comme dhab, et juste avant c'était ATI, alors tu voi, moi meme je ne commente pas ce genre de truc qui ne nous ceront jamais rellement revélé, car changeant constament quant ce nest pas fraudulé dorigine, donc, tu ferais mieu de faire comme moi plutot que de passé pour une "bete" péroquette de fausse ou inexacte information financiere.....

Lien vers le commentaire
Partager sur d’autres sites

Tu est mauvais perdant FooDje. C'est bien Nvidia qui est premier sur le haut de gamme. Et l'arrivé de la 6600GT ne va pas arrangé ATI........

Tu croi vraiment que ATI n'aurait pas réagie....si ce serait une pure invention. :yes:

--------------------------------------------------------------------------------------

Pour l'overclock extreme....je maitrise plutôt bien.

Une 6800Ultra @1.7V monte à 600Mhz. Bien sûr, il faut un refroidissement trés efficace pour refroidire la bête. Comme un phase change.

Pour les X800XT PE, elle monte à plus de 750Mhz...toujours pareille, comme la 6800U, il lui faut un refroidissement qui arrache.

Just pour info, comme je l'est déja dis sur ce forum, une 6800Ultra @603/625Mhz @1.7V fait plus de 17000pts sur 3DM2003!!! Là ou une X800XT PE @766/651Mhz @1.8V ne fait "que" 16800pts!!!!!

17182.JPG

17182pic1.JPG

:mdr:

Et ne me sort pas que c'est les +125Mhz du P4 de la 6800 qui change quelque chose. Surtout que c'est un P4EE sur la X800XT PE. :yes::transpi:

Sinon, pour moi, 1.7V c'est beaucoup trop. 1.5V c'est déja pas mal. Ca doit me permétre de monté dans les 500Mhz. Mais comme je le disais....on en reparlera le moment venu. :mdr:

Lien vers le commentaire
Partager sur d’autres sites

Je ne suis pas mauvais perdant, puisque ce que tu sort de la bouche d'un porte parole nVidia, et il vont pas dirent qu'il sont 2iem!!!!

Et puis, je ne vois pas ou ya de probleme, a la limite, meme si et seulement si nVidia est devant en vente, il sont deriere en performances, et moin ce quio minterresse, c'est les perf, pas les bébéfices huhu, mais vu que toi tu nas que ca pour avoir un dernier mot completement hor sujet, cela ne peut que me reconforté sur le reel sujet de ce topic, a savoir qui est plus perf sous HL² et la majorité dees jeux==== ATI!!!!!

Et puis, moi je te parlais de perf en WC et tu me sort un truc infesable, et qui nest faisable, justement, que par certaine personne dans le monde....

Sauf que le WC tout le monde ou presque peut le faire, et avoir de vrai perf, chose vraiment tres peut possible avec les NV40, pour tout les raisons que jai dites et redites, mais que tu éssai de contourner en me sortant des chiffres de ventes que tout le monde sen tape.......

Lien vers le commentaire
Partager sur d’autres sites

Pour ton test, plusieur chose rentre en compt, et deja, elle nont pas été faite dans les meme conditions, pas le meme mec, et donc, cela na rien a voir.....

Il nest pas dit quell RAm était utilisé, si elle était sincro désincro, et tout ce qui peut insterferer sur la note final!!!

Donc, pour le commun des mortelle moyennement fortuné, c'est bien avec les X800 et X850 qu'on a les meilleur perf, compatibilité , et possibilité dovercloking avec du materiel "normal", car pour exemple, les 6800U CoolFX WC avec un Cool-Matic NV40 sont tres rares a dépasser les 460Mhz!!!

Et pui meme, tu na que regarder les resultat de PCinpact sur qui a la plus grosse a 3DK05, et tu ne trouvera certainement pas un 6800 huhu MDR

ET enfin, tu dis que 1.5v te suffise amplement,huhu!! tu m'étonne , car c'est la maximum autorisé pour le logiciel dédition de bios.....

Alors que pour le pencil mod des X800, avec un voltemettre, on choisi soimeme le voltage!!!!!

Donc, les capacité devolution OC d'un 6800 et dune X800 ne sont meme pas comparable en défaveur des 6800 cela va de soit.....

Lien vers le commentaire
Partager sur d’autres sites

Ca sort de la bouche de Nvidia......si ça peu te faire blésire. :mdr: Et puis comme je l'est dis...ATI aurais contesté....or il n'en est rien!!!! :fumer:

Pour l'overclock extreme, c'était just une comparaison. Un point de répére quoi.

Une 6800U @603/625 est plus perf qu'une X800XT PE @766/651 sur 3DM2003. Pourtant.....une X800XT PE (freq d'origine) est plus perf qu'une 6800U (freq d'origine) sur ce bench. Comme quoi....les possibilité de gain des 6800....sont vraiment inpressionant.

Pour la RAM....je te signale que l'on parle de team spécialiste de l'overclock.....je les voi mal avec de la RAM en désyncro..... :yes: Surtout que la X800XT PE à un P4EE.....tout de même "légérement" plus perf que le P4C de la 6800U. :mdr:

Pour 3DM2005...c'est pas un secret. Les X800 sont plus efficace que les 6800 sur ce bench (comme sur 3DM2003). Mais bon, ces scores ce font à coup de drivers (ATI comme Nvidia) plus ou moin officiel....dont le gain est parfoit de +20% selon les versions. Il est encore pire que le 2003......

Pour le reste......les 6800U qui dépasse pas les 460Mhz en WC ( :mdr2: ) , les perf dans les jeux.......de doute façon j'arriverai jamais à te faire changé d'avis.

:D

Lien vers le commentaire
Partager sur d’autres sites

Ho que si il y a eu contetation, car dans le meme temp, materiel.be a relayé une info contradictoire, qui disait qu'il n'y avait pas toutes les données requises normalement pour certifier le changement de premiere place....

Tu fais bien de parler de drivers officiel, car la palme des drivers non certifié HTML sortent bien de chez nVidia avec une optimisation toute les 2semaine huhu, dés qun jeu sort coi..... tu métonne la fiabilité de cette architecture.....

N'empèche que pour nous joueur, si tu me dis que c nVidia qui a la plus performante puce graphqie du moment et depuis 3ans, je ne pourrais plus rien pour toi.....

Lien vers le commentaire
Partager sur d’autres sites

Archivé

Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.


×
×
  • Créer...