Aller au contenu

[CG] carte graphique a avoir pour hL 2


Messages recommandés

  • Réponses 172
  • Créé
  • Dernière réponse
je n'ai jamais vu un jeux faire autant de fureur alors q'uil n'est meme pas encore sortis :francais::non::non: perso. j'espere que valve a bien optimiser son jeux pour les fx. parce que la je vais devenir mechant :non::non::pleure:

C'est pas de la faute de Valve si NVidia a pas suivi les recommandations de MS...Syndrome 3DFX en vue...

Les FX sont mauvaises...donc même en optimisant énormément le code, on aura des perfs décevantes....

Lien vers le commentaire
Partager sur d’autres sites

je les trouve minables d'optimises plus une carte pour certains jeux et pas pour d'autressi ont suis leurs logique tu achetes hl 2 tu dois prendre ati par contre si tu veux doom3 tu dois prendre nvidia ils sont quand meme un peu con ces fabriquant bientot il va falloir achete une ati et une nvidia pour pouvoir jouer a ce que l'on veux j'enttend pour avoir des perf optimales bien sur :inpactitude2:

Lien vers le commentaire
Partager sur d’autres sites

UT2004, d'après les paroles d'Nvidia, devrait tourner mieux sur les carte d'Nvidia :mdr: , mais les ATI sont souvent meilleurs.

Pour DooM III c'est logique que les Nvidia tournent mieux, tout d'abord elles gèrent mieux l'OpenGL et deuxièmement, les carte d'Nvidia sont équipées d'un truk qui fait qu'elles gèrent mieux les ombres qu'ATI... (dsl je ne me rappelle plus ce que c'est).

Concernant HL2, il est vrai qu'au temps des FX les ATI étaient beaucoup mieux, mais depuis que les 6800 sont sortis, je doute que les ATI fassent meilleurs tout le temps.

Voila un petit résumé :D

Lien vers le commentaire
Partager sur d’autres sites

Oui d'accord les fx seront peut etre merdique sous half life 2 mais par contre Doom3 la les fx vont bien ce defendre :francais:

Elles se défendrons dans le mode bench de DOOM III, pas dans le jeu, vu que Carmack a décidé de le brider à 60 fps...pour éviter que ca devienne comme Q3...DOOM III sera le premier jeu de ID sur lequel on ne peut pas tout modifier...

Lien vers le commentaire
Partager sur d’autres sites

UT2004, d'après les paroles d'Nvidia, devrait tourner mieux sur les carte d'Nvidia :yes: , mais les ATI sont souvent meilleurs.

Pour DooM III c'est logique que les Nvidia tournent mieux, tout d'abord elles gèrent mieux l'OpenGL et deuxièmement, les carte d'Nvidia sont équipées d'un truk qui fait qu'elles gèrent mieux les ombres qu'ATI... (dsl je ne me rappelle plus ce que c'est).

Concernant HL2, il est vrai qu'au temps des FX les ATI étaient beaucoup mieux, mais depuis que les 6800 sont sortis, je doute que les ATI fassent meilleurs tout le temps.

Voila un petit résumé :francais:

Faudrait que HL² sorte un jour...sinon, il y a toujours moyen de faire comme avec les jeux "The way it mean to be played" a savoir mettre du code pour ralentir la carte concurente....Déloyal, con et méprisable...

Ils faudra 2 cartes en fonctions des jeux que l'on va acheter...une NV pour telle ou telle merde et ATI pour telle ou telle autre merde...

Excusez mon vocabulaire argotique sur la fin, mais je trouve qu'il est inadmissible que les constructeurs de CG aident les développeurs...S'ils sont pas foutu d'écrire un pauvre petit shader autrement qu'en utilisant HDSL ou CG, qu'ils dégagent...ce sont pas des développeurs...quand on programme en C / C++, faut toujours faire un peu d'assembleur pour les parties critiques du code...

Lien vers le commentaire
Partager sur d’autres sites

les "desoptimisations" suivant si les jeux sont sponsorisés par l'un ou l'autre des deux grands c une legende,les editeurs sont pas cons au point de ralentir leur jeux,ce qu'il veulent c vendre leur jeux,et donc,a part une jolie pub pour nvidia ou ATI au lancement du jeu,en fin de compte le moteur parche tres bien sur les deux types de cartes graphiques,dans le pire des cas ils optimiseront un peu plus pour les cartes d'un fabricant mais ca s'arrete la!

Lien vers le commentaire
Partager sur d’autres sites

les "desoptimisations" suivant si les jeux sont sponsorisés par l'un ou l'autre des deux grands c une legende,les editeurs sont pas cons au point de ralentir leur jeux,ce qu'il veulent c vendre leur jeux,et donc,a part une jolie pub pour nvidia ou ATI au lancement du jeu,en fin de compte le moteur parche tres bien sur les deux types de cartes graphiques,dans le pire des cas ils optimiseront un peu plus pour les cartes d'un fabricant mais ca s'arrete la!

C'est clair +1fps bah ... :pleure:

Et puis si sa se trouve HL² va tourner sur une G-force 2 alors avec vos 9800 ne vous en faites pas . :incline:

Lien vers le commentaire
Partager sur d’autres sites

on appelle ca le nivellement par le bas!

c'est la'avantage des consoles sur les pc, eux ils optimisent a fond pour le chip de la console car tout le monde a le meme! je l'avoue, optimiser un jeu pour du 640*480 aussi... :wrongplace:

sur pc, personne n'a la meme config et le jeu doit autant se vendre, donc on fait otut pour le rendre compatible avec les pc dépassés, quitte a brider les joueurs qui ont le dernier matos en date, enfin meme avec ma geforce4, pour hl2 je me fais pas de soucis (pas a fond mais je vais bientot la changer pour une 9800! :chinois: )

et puis au final ca change quoi au gameplay de jouer en 1280*1024 au lieu de 1600*1200?? :modoreussi:

Lien vers le commentaire
Partager sur d’autres sites

Oui mais j'ai pas les moyen de me payez un éran 1600*1200 donc je suis en 1024 et ma 9800Xt me suffira amplement ..... et puis d'ici là j'aurais peut être une 6800U EX ou une X800XT PE

a ba forcement ! ui c clair que ca tournera ...

moi je jou a farcry avec une moyenne de 35fps en aniso 16* et aa 8* et c superbe !!

donc ui 1024 c classe pour les haut nivo de detail c clair ! :D

9800pro/xt powaaaaaaa :modoreussi::wrongplace::chinois::D:D:yes::yes:

Lien vers le commentaire
Partager sur d’autres sites

Et puis si sa se trouve HL² va tourner sur une G-force 2 alors avec vos 9800 ne vous en faites pas . :transpi:

C'est clair que non ... on essaye de nous le faire croire, mais fais tourner HL² avec une GF2 ... 640*480 sans AA, sans Aniso ... 15 fps ??

Lien vers le commentaire
Partager sur d’autres sites

on appelle ca le nivellement par le bas!

c'est la'avantage des consoles sur les pc, eux ils optimisent a fond pour le chip de la console car tout le monde a le meme! je l'avoue, optimiser un jeu pour du 640*480 aussi... :non:

sur pc, personne n'a la meme config et le jeu doit autant se vendre, donc on fait otut pour le rendre compatible avec les pc dépassés, quitte a brider les joueurs qui ont le dernier matos en date, enfin meme avec ma geforce4, pour hl2 je me fais pas de soucis (pas a fond mais je vais bientot la changer pour une 9800! :D )

et puis au final ca change quoi au gameplay de jouer en 1280*1024 au lieu de 1600*1200?? :transpi:

l'avantage du 1280*1024 ou du 1600*1200 ?? tu a deja vu la difference ??

C'est le jour et la nuit, le nb de pixel est enorme et ca dechire !

Mais un bon 1600*1200 c a dire sur un bon ecran pas forcement tft tout pourrave que tu voi rien a deux mettre, mais ecran crt dalle plate gnre nec diamondtron ou iiyama vision master pro 410 .... ca change tout !! nivo grain de l'image, profondeur et contraste c'est carement different d'un noname a 100€

:smack::yes:

Lien vers le commentaire
Partager sur d’autres sites

1600*1200.... :non:

Je suis convaincu qu'en dessous d'un 21", tu ne verras pas la difference!

Si tu es sur un 17" ou un 19", le 1600*1200 ne sert à RIEN!

Ce genre de resolution ne sert que sur de très grands écrans!

Je suis sur qu'on vous met devans un PC qui tourne en 1280*1024 et qu'on vous dit que c'est du 1600*1200, vous trouverez ca super beau alors que sur un 1600*1200 et qu'on vous dit 1280*1024, vous trouverez ca nul! C'est dans la tête tout ca!

Je suis même pas sur que nos yeux soient capable de faire la différence vu la distance à laquelle on joue d'un PC (c'est sur, si tu joue à 30 mètres sur un home cinéma :transpi: , là tu la veras la difference, mais c'est vraiment pas donner à tout le monde)

Pour en revenir au sujet, peut-être pas une GeForce2 mais une 9600 Pro comme la mienne le fait tourner en 1024*768 config moyenne sans problème :D

Lien vers le commentaire
Partager sur d’autres sites

les "desoptimisations" suivant si les jeux sont sponsorisés par l'un ou l'autre des deux grands c une legende,les editeurs sont pas cons au point de ralentir leur jeux,ce qu'il veulent c vendre leur jeux,et donc,a part une jolie pub pour nvidia ou ATI au lancement du jeu,en fin de compte le moteur parche tres bien sur les deux types de cartes graphiques,dans le pire des cas ils optimiseront un peu plus pour les cartes d'un fabricant mais ca s'arrete la!

C'est pas des légendes...certains testeurs l'avaient remarqué pour les 9800XT et 5950Ultra...m'enfin on ca concernait des jeux que personne ne connait ou presque...

Lien vers le commentaire
Partager sur d’autres sites

Si tu es sur un 17" ou un 19", le 1600*1200 ne sert à RIEN!

ça c'est dans ta tête :craint:

Lorsqu'on augmente la résolution, ca ne peut pas être moins beau ou égal : tout est plus fin, raffiné, moins/pas d'aliasing (il paraît que ça améliore les chances de faire des headshot ou de jouer :chinois::craint: ), il y a plus de détails sur l'écran.

Sur un 19" faire du 1280x1024 c'est comme faire du 1024x768 sur un 17", et à cette résolution je t'assure qu'on voit l'aliasing

Lien vers le commentaire
Partager sur d’autres sites

Archivé

Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.


×
×
  • Créer...