EnyceSlipknot Posté(e) le 5 décembre 2004 Partager Posté(e) le 5 décembre 2004 Slt a tous inpactien. je vais bientot recevoir una ASUS V9999GT 128 mo et comme je m'y connait pas trop, je voudrait connaitre voitre avis sur ce sujet: vais-je avoir un bon rendu graphique sur hl² avec cette carte? mercis et j'attend vos réponse please!!!!!! Lien vers le commentaire Partager sur d’autres sites More sharing options...
Pascal_974 Posté(e) le 5 décembre 2004 Partager Posté(e) le 5 décembre 2004 tiens, normalement, on demande conseil avant l'achat . Sinon désolé je ne sais pas, mais de toute façon tu verras à la réception de carte graphique. Lien vers le commentaire Partager sur d’autres sites More sharing options...
EnyceSlipknot Posté(e) le 5 décembre 2004 Auteur Partager Posté(e) le 5 décembre 2004 ok mercis quelqu'un d'autre? Lien vers le commentaire Partager sur d’autres sites More sharing options...
Doggy Posté(e) le 5 décembre 2004 Partager Posté(e) le 5 décembre 2004 je suis pas sur de ce que je vai te dire ne possedent pas une t'elle carte mais je pense que deja tu tournera en 8.1 sauf erreur de ma part . Maintenant en 8.1 cela doit rester tre corret il n'existe pas beaucoup de difference entre le 8.1 et le 9 ,ce sera l'eau surtout qui fera la difference entre cex deux si dans half life2. Lien vers le commentaire Partager sur d’autres sites More sharing options...
EnyceSlipknot Posté(e) le 5 décembre 2004 Auteur Partager Posté(e) le 5 décembre 2004 j'te remerci CUBE (pour moi c plus 2pac...) et sinon niveau qualité des textures tu pense ke sa m'en mettera plein la geule? Lien vers le commentaire Partager sur d’autres sites More sharing options...
Doggy Posté(e) le 5 décembre 2004 Partager Posté(e) le 5 décembre 2004 j'te remerci CUBE (pour moi c plus 2pac...) et sinon niveau qualité des textures tu pense ke sa m'en mettera plein la geule? oui Lien vers le commentaire Partager sur d’autres sites More sharing options...
Cedrix Posté(e) le 5 décembre 2004 Partager Posté(e) le 5 décembre 2004 Bien HL2 est pas si gourmand .... Avec une 6800GT ... y'a de quoi jouer avec tout à fond Lien vers le commentaire Partager sur d’autres sites More sharing options...
PoLteRgeIsTiUm Posté(e) le 5 décembre 2004 Partager Posté(e) le 5 décembre 2004 Avec une 9800xt je mes tout a fond et 0 lag (1280*1024) Donc avec ca je pense que t'aura 0 probleme ! Tu pourra meme jouer en 1600*1200 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Trebeb Posté(e) le 5 décembre 2004 Partager Posté(e) le 5 décembre 2004 je suis pas sur de ce que je vai te dire ne possedent pas une t'elle carte mais je pense que deja tu tournera en 8.1 sauf erreur de ma part . Maintenant en 8.1 cela doit rester tre corret il n'existe pas beaucoup de difference entre le 8.1 et le 9 ,ce sera l'eau surtout qui fera la difference entre cex deux si dans half life2. en 8.1?? mais les 6800GT gèrent le 9.0C!! attends une 6800gt fait TOUT tourner à condition que le pc derrière soit homogène à cette carte! et pour half-life 2, si tu ne peux pas le faire tourner... ben donne moi ta carte! Lien vers le commentaire Partager sur d’autres sites More sharing options...
UltrA Posté(e) le 5 décembre 2004 Partager Posté(e) le 5 décembre 2004 Pas de panique. Le rendering path directX 8.1 n'est activé que sur les Geforce FX5200 à 5900. Pour les info, Valve à délibérément bridé ces cartes. Avec une GeForce FX, le rendering path directX 8.1 est appliqué par défaut, alors que ce sont des cartes DirectX 9.On peut toutefois forcer le rendering path DirectX 9, ce qui hélas génère des artefacts au niveau de l'eau et d'autre lieux. La chose est contournable avec le prog "3D-Analyse". Il suffit de faire passer votre Geforce FX pour une ATI....est tout marche nickel. --> DX9.0 Autre probléme. Valve a en effet codé tous les shaders en précision totale, c'est à dire en 32 bits sur les GeForce FX (celle-ci est de 24 bits sur les Radeon), alors qu'une précision de 16 bits pourraient suffire dans bien des cas. Les 6600/6800 ne peuvent fonctionné qu'en FP32 sur ce jeux!!! (pas de FP16). Vu la puissance de ces cartes...ce n'est pas un gros probléme. Par contre pour les Geforce FX (5200 à 5900)....c'est autre chose. Les perf s'écroule en mode DX9.0. Un modif permet au Geforce FX de travaillé en mode FP16. Le forumeur dont il est question a utilisé le même logiciel 3D-Analyse pour forcer l'utilisation de pixels shaders 16 bits et dit ne pas avoir noté de dégradation de la qualité d'affichage. Au contraire, le rendu est meilleur qu'en directX 8.1 et les performances sont, cela va de soi, supérieures à celles d'un rendu en précision totale. .....où va t'on. --> Source: 3dchips-fr Half-Life 2 et le rendu DirectX 9 sur les GeForce FX Lien vers le commentaire Partager sur d’autres sites More sharing options...
EnyceSlipknot Posté(e) le 5 décembre 2004 Auteur Partager Posté(e) le 5 décembre 2004 ba g pu k tous vous remercier. sinon POLTERGESTIUM? C KI LA MEUF SUR LA TOFO? elle est plutot grave mignone Lien vers le commentaire Partager sur d’autres sites More sharing options...
Spleen Posté(e) le 5 décembre 2004 Partager Posté(e) le 5 décembre 2004 HL2 a été developper avec les outils de developpement ATI et devais sortir a l'origine avec la 9800Pro (bien que la carte utiliser par Valve a l'epoque etait cette cher 9700pro). Donc HL2 est optimisé ATI comme lesont d'autre jeu pour Nvidia D'ailleurs je trouve un peu nul les benchs de comparatifs de catre graphique sous les jeux puisque regarder : UT2003 => outils Nvidia donc jeu optimiser pour Nvidia, c'est evident que les GF soient devant a presque chaque test ... HL2 => outils ATI donc jeu optimiser pour les Radeon et la, c'est les radeon qui sont devant et les GF loin derriere ... alors pitier ... dans les tests de carte graphique pendant les benchs, PRECISER les jeux optimiser pour tel ou tel jeu qu'on se fasse une VRAIE idée de ce que valent une carte graphique ... (c pas parce que la 6800 est tres tres bonne que la X800XT ne sera pas devant au bench HL2 chose qui est le cas ) les benchs basé sur les jeux ne veulent rien dire ... mais bon ... La moindre des choses serait de preciser a la personne qui lit le test que UT2003 est optimiser Nvidia, ca serait pas de trop je pense quand meme Lien vers le commentaire Partager sur d’autres sites More sharing options...
ngcubeur Posté(e) le 5 décembre 2004 Partager Posté(e) le 5 décembre 2004 ba g pu k tous vous remercier. sinon POLTERGESTIUM? C KI LA MEUF SUR LA TOFO? elle est plutot grave mignone Par contre fais attention ... Moi je m'en fous je signale pas ... Du temps que c'est lisible ... Mais si un modo passe par la ... Surtout que ça demande pas un effort énorme ... Mais bienvenue sur INpact, EDIT : Pour repondre à spleen, les jeux sont quand même plus crédibles que les benchs ... Vu que les pilotes sont optimisés pour que les cartes marchent mieux juste la dessus ... Les 3dmarks selon les pilotes, peuvent te donner des scorer jusqu'à 50% plus élevés ... Donc on sait que doom 3 est optimisé nvidia, mais à part ça ca reste assez équilibré ... Lien vers le commentaire Partager sur d’autres sites More sharing options...
k1200rs Posté(e) le 5 décembre 2004 Partager Posté(e) le 5 décembre 2004 pour hl2 la x850xtpe ouep voila et si on se calme toute les cartes milieu et plus font tourner les jeux que sa soi nvidia ou ati sa me rappelle la gueguere des amiga atari Lien vers le commentaire Partager sur d’autres sites More sharing options...
Doggy Posté(e) le 5 décembre 2004 Partager Posté(e) le 5 décembre 2004 a lire j'ai dit que j'etait pas sur de ce que j'ecrivais ,je savais que certaine carte nvidia ne suportais pas le directx 9 la serie fx mais je penssait que les autres n'etaient pas optimisser pour half life 2 et devraient donc tourner en directx 8.1 mais j'etait dans l'erreur. Lien vers le commentaire Partager sur d’autres sites More sharing options...
UltrA Posté(e) le 5 décembre 2004 Partager Posté(e) le 5 décembre 2004 Ben je suis en partie d'accord avec Spleen....mais pas complétement. Même si Doom3 est plus optimisé pour les Nvidia...il y à aussi des raisons technologiques qui explique les diffréneces de perf Nvidia/ATI. Principalement l'Ultrashadow et le DST des FX et 6600/6800 (qui sont particuliérement efficace dans ce jeux ou les ombres sont dynamiques). Ragardé une vieille FX5800 dans ce jeux. Elle explose une 9800XT!!! (comme quoi elle sére à quelquechose cette carte ). Simple à vérifié pour les ATI. Utilisé "3D-Analyse" pour faire passé votre ATI pour une Nvidia sur Doom3...et vous allé voir que les perf ne change presque pas. Avec HL²...là c'est un niveau supérieur. Valve à vraiment cherché à limité le plus possible les Geforce FX et les 6600/6800. Il on tout simplement interdit le DX9.0 au FX5200 à 5900 (avec toutes les optimisations qui vont avec.... ). Remarque, ça fait moin de boulot à faire!!! Et il on totalement paramétré le jeux en "précision totale"....pour que les X800 passe devant les 6800. Je veu simpement dire....qu'il n'on pas fait dans le dentéle. On est loin de Doom3 avec ces quelques optimisations en moin pour les ATI! Mais bon, c'est comme ça....heureusement qu'il est possible de "réparé" tout ça. C'est le principale. On va finire par optimisé nous même nos jeux (quoi?....c'est déja le cas ). Lien vers le commentaire Partager sur d’autres sites More sharing options...
Charles.w Posté(e) le 5 décembre 2004 Partager Posté(e) le 5 décembre 2004 Ultra -> Les quelques "optimisations en moins" portent sur des points clés...DooM III n'utilise pas les fonctions de HSR présente sur les Radeon pour limiter les pertes de perf dues à la gestion des ombres (ben oui, faire des ombres en temps réel bouffe environ 1/3 à 1/2 des polygones présents sur une scène)...qui plus est pour des effets comme l'aniso, les GF n'ont à le calculer que sur certaines surfaces...alors que sur les ATI, soit la carte est obligée de rendre 100% de la scène avec l'aniso...ou alors elle est obligée de determiner sur quels surfaces elle doit l'appliquer...qui plus est pour les textures en ultra hight, les normal maps sont codées d'une manière particulière...et spécifique aux cartes NVidia...ce qui oblige les cartes ATI à décoder l'intégralité de la texture pour en extraire les normal maps... Donc ces "quelques optimisations" font toute la différence entre les cartes ATI et les cartes NVidia sous DooM III... Lien vers le commentaire Partager sur d’autres sites More sharing options...
Charles.w Posté(e) le 5 décembre 2004 Partager Posté(e) le 5 décembre 2004 Ultra -> Dans le cas spécifique des GF FX, il n'était pas si idiot de la part de Valve de les limiter à DX8...les drivers officiels ne sont pas ou plus optimisés...donc c'était normal que pour que le jeu puisse tourner convenablement sur ce type de cartes que Valve décide de désactiver le support de DX9... Sinon, pour les GF6800...ben je dirais que ce n'est pas spécialement du au fait que les GF soient obligées de passer en FP32...à la base, les X800 sont plus performantes dans les calculs de shaders et il est donc logique que ces cartes soient devant dès lors que ces derniers sont massivement utilisés... Lien vers le commentaire Partager sur d’autres sites More sharing options...
UltrA Posté(e) le 5 décembre 2004 Partager Posté(e) le 5 décembre 2004 Mon chére Charles. De toute façon...on à dit télement de "conneries" sur Doom3. Ce que je trouve bizard....c'est que, comme je l'est dis, une X800XT PE reconnu en tent que 6800Ultra dans Doom3 (elle à donc toutes les optimisation Nvidia)...ne gagne presque rien. Autre remarque. Tu désactive l'Ultrashadow (puissance de calcul doublé dans certain cas) et le DST (Depht Stencil Textures) ...et bien les 6800 perdes quelques fps....et tombe à peu prés au niveau des X800. Pour le reste... Dans le cas spécifique des GF FX, il n'était pas si idiot de la part de Valve de les limiter à DX8...les drivers officiels ne sont pas ou plus optimisés...donc c'était normal que pour que le jeu puisse tourner convenablement sur ce type de cartes que Valve décide de désactiver le support de DX9... Un simple programmeur "du dimanche" (va voir sur 3Dchips)...à réussie à avoire un rendu DX9.0 largement supérieur au DX8.1 par défaut...et avec presque les même perf sur ça FX5900XT!!!! Et tout ça sans optimisations. ..... pas de mauvaise foi STP. Sinon, pour les GF6800...ben je dirais que ce n'est pas spécialement du au fait que les GF soient obligées de passer en FP32...à la base, les X800 sont plus performantes dans les calculs de shaders et il est donc logique que ces cartes soient devant dès lors que ces derniers sont massivement utilisés... Là je suis d'accord avec toi. Perso je joue tout le temps en FP32....donc c'est pas grave pour moi. Là ou c'est plus grave....c'est pour les comparatif de perf. Le mode "qualité" des 6600/6800 alterne les FP16 et 32......est donne une qualité identique voir supérieur au rendu FP24 des ATI. Ce n'est donc pas normal de privé ces cartes de ce rendu. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Charles.w Posté(e) le 5 décembre 2004 Partager Posté(e) le 5 décembre 2004 Autre remqrue. Tu désactive l'Ultrashadow (puissance de calcul doublé dans certain cas) et le DST (Depht Stencil Textures) ...et bien les 6800 perd quelque fps....et tombe à peu prés au niveau des X800. C'est exactement ce que je voulais dire...DooM III utilise massivement ces techniques...et vu qu'elles sont cablées dans les GF, utiliser 3DAnalyse pour passer une X800 en GF6800 ne change rien...et c'est normal...3DAnalyse n'agit qu'au niveau software...et non Hardware... Sinon, pour le programmeur du dimanche, vu que la ligne de commande existe dans la console de HL² il a pas du mettre trop longtemps...la commande en question..."-dxlevel 90"... http://www.firingsquad.com/hardware/geforce_fx_half-life2/ Et pour ne pas avoir trop de pertes de perfs, avec les fX faut utiliser des drivers non officiels... --PS-- Une idée à la con : pourquoi ne sortent-ils pas un FPGA (processeur programmable) qui serait monté sur une carte graphique quelconque et que l'on pourrait customiser en downloadant des images de chips en VHDL (par exemple) sur les sites de ATI, NVidia ou autre...ce serait tellement plus simple...et un changement de génération ne nécessiterait le changement que du seul FPGA (à condition qu'il utilise un socket évidemment)....ce qui reviendrait infiniment moins cher aux fabriquants de cg et aux consommateurs...mais bon...faut pas rever... Lien vers le commentaire Partager sur d’autres sites More sharing options...
UltrA Posté(e) le 5 décembre 2004 Partager Posté(e) le 5 décembre 2004 C'est exactement ce que je voulais dire...DooM III utilise massivement ces techniques...et vu qu'elles sont cablées dans les GF, utiliser 3DAnalyse pour passer une X800 en GF6800 ne change rien...et c'est normal...3DAnalyse n'agit qu'au niveau software...et non Hardware... Et bien c'est un choix technologique. Tu ne va pas en vouloir à Idsoftware pour avoir utilisé toutes les avancés tenchnologique du 6800. Le DST est l'une des derniére technologie (avec le HDR) les plus prométeuses (entre 10 à 20% de gain sur l'Unreal engine 3 ) D'ailleur le R520 sera compatible. Pour l'Ultashadow...c'est une question d'archi. Doom3 est un jeux qui abuse de shader trés simple (environ 10 instrucions).....et les 6600/6800 son tout simplement trés trés efficace dans ces conditions. Pour ton idée....c'est vrai que ce serai térrible. Mais le changement de génération implique aussi des changements important d'archi. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Charles.w Posté(e) le 5 décembre 2004 Partager Posté(e) le 5 décembre 2004 Problème d'archi pourquoi ? Le bus mémoire ne change pas souvent...je pensait plutot à faire de carte graphiques ressemblant à de mini cartes mères sur laquelle tu pourrait changer le GPU et la mémoire...faudrait que je propose mon idée à la con aux constructeurs de CG Bon promis j'arrete avec mon idée à la con Lien vers le commentaire Partager sur d’autres sites More sharing options...
UltrA Posté(e) le 5 décembre 2004 Partager Posté(e) le 5 décembre 2004 Je croi pas que l'on peu comparé le petit chips des FX5900.....au monstrueu chip de 222 M de transistor des 6800 (ya comme une petit différence de socket). Mais c'est vrai que ce serai fesable. Propose toujours...tu vera bien. Je revient à HL². Sinon, pour le programmeur du dimanche, vu que la ligne de commande existe dans la console de HL² il a pas du mettre trop longtemps...la commande en question..."-dxlevel 90"... Le programmeur du dimanche dit avoire rencontré beaucoup d'artefact avec cette commande. Par contre, une fois ça FX5900XT reconnu en ATI grace à 3D Analyse...plus aucun prob. Je croi pas que la version des drivers (officiel ou beta)....change quelquechose. Lien vers le commentaire Partager sur d’autres sites More sharing options...
vR2tR00seven Posté(e) le 5 décembre 2004 Partager Posté(e) le 5 décembre 2004 +1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
FooDje Posté(e) le 5 décembre 2004 Partager Posté(e) le 5 décembre 2004 Et bien c'est un choix technologique. Tu ne va pas en vouloir à Idsoftware pour avoir utilisé toutes les avancés tenchnologique du 6800. Le DST est l'une des derniére technologie (avec le HDR) les plus prométeuses (entre 10 à 20% de gain sur l'Unreal engine 3 ) D'ailleur le R520 sera compatible. Pour l'Ultashadow...c'est une question d'archi. Doom3 est un jeux qui abuse de shader trés simple (environ 10 instrucions).....et les 6600/6800 son tout simplement trés trés efficace dans ces conditions. Pour ton idée....c'est vrai que ce serai térrible. Mais le changement de génération implique aussi des changements important d'archi. Oui, et c'est pour cela que dés qu'il y a des shader compliqués( donc a priorie plus beau), les 6800series ont leur perf qui s'éffondre.... Sinon, pour en revenir au sujet du topic, ce sont bien les X800 et X850 maintenant qui ont leur meuilleur perf sous HL² ainci que sur la majorité des jeux directX, qui est je le rappel, la librérie le plus utilisé et la plus complette en terme de fontions graphique!!! Et c'est bien dommage pour les nVidia-iste, car nVidia justement, a annulé la sortie des NV48 si je ne m'abuse....( raison d'impossibilité de monter en fréquence de faàon stable sans j'ajout de systheme a refroidissement a l'azote apparament.... huhu!!) Donc, encore et toujour, ce cera encore ATI qui aura le leader chips performances efficacitée pour encore quelques mois au moins!!!!( jusqu'au R520 donc) Et parler d'hypotétique performances d'une carte actuel sur un jeu (UT3) prevu pour 2006 au mieu, ça me fera toujour bien rire hihi!!! ( on ce rassure comme on le peut hein!! nous diront cela..... ) Lien vers le commentaire Partager sur d’autres sites More sharing options...
Messages recommandés
Archivé
Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.