Aller au contenu

[CG] Nvidia ou Ati ???


Messages recommandés

  • Réponses 91
  • Créé
  • Dernière réponse
Déjà, arrête de parler de 1200*1600, tu ne te rend pas compte de ce que ça peut donner :transpi:

C'est 1600*1200, c'est différent quand même :smack:

si tu veux ......

alors vous pensez qu il faut que je prenne un 21 voir 22 pouce pour bien exploiter les derniere carte graphique x800 xt ou 6800 ultra extreme

merci de repondre precisement

Lien vers le commentaire
Partager sur d’autres sites

Au délà de 1600x1200, je pense que les X800 XT ou les 6800 Ultra auront quand même quelques pertes de performances... Et si tu comptes garder ta carte graphique pendant 2 années, alors dans ces deux cas, je te conseille de prendre un 19".

De plus, seulement quelques rares jeux, permettent d'aller au dessus de 1600x1200...

Moi si j'était toi, je prendrai un 19", c'est beaucoup plus joli d'avoir du 1600x1200 sur un 19 pouces, que sur un 21-22 pouces... :transpi:

Moi aussi j'aurais une question :smack: > Si un jeu demande beaucoup de calculs dans les pipelines et que ma résolution est de 1600x1200 -> disons que dans ce cas, le jeu fait 30 fps, si je baisse la résolution en 1280x1024, est-ce que je vais avoir une hausse de FPS ?

Lien vers le commentaire
Partager sur d’autres sites

ok j en prend bonne note merci

car en faite je comptais acheter un 19 pouce crt (mitsubichi) et en suite essaye le bi ecran avec le 19 pouce que j ai actuellement et si sa me plait acheter un lcd 18 pouce pour rester en permanance en bi ecran (pas forcement pour les jeu mais pour les aplication et ce topic ma fait esiter donc je pense rester sur un 19^pouces

merci :transpi:

Lien vers le commentaire
Partager sur d’autres sites

Faut attendre un peu les vraies cartes pour voir car NVidia et ATi on fourni des cartes overclockées aux testeurs, sans parler de la GeForce6800Ultra Extreme produite à 5000 exemplaire max et vendue à 999€

Sinon à part ca, il semblerait que ATi soit toujours devant...Mais faut attendre, c'est pas le moment d'acheter...PCI-Express, nouveaux sockets, nouveaux chipsets, nouveaux boitiers (enfin chez Intel), nouveaux lecteurs de DVD / Graveurs de DVD en SATA...Faut attendre la fin de l'année, pasque la la Radeon X800Pro vendue 500€ (en France) sa la fout un peu mal...Les distributeurs abusent, tout comme pour les GeForce6800 / 6800U...

Sinon à cet instant, les 9800Pro / 9800Xt sont de très bon choix et pour pas trop cher (enfin pour la 9800Pro)

Lien vers le commentaire
Partager sur d’autres sites

Vous avez vu le comparo de FiringSquad (news de PC INpact d'aujourd'hui).

En-dessous d'un 3GHz, les nouvelles CG ne servent à rien :transpi: (c'est exagérer, mais leur intérêt diminue vraiment).

En gros t'as une machine de guerre, ou tu ne l'as pas et avoir une machine pas du tout homogène ne sert strictement à rien, c'est du gachis.

Lien vers le commentaire
Partager sur d’autres sites

Ba oui parce que tout le monde dis "woah ! 12500 point sous 3dmark " ..... seulement pour avoir fait le test le xeek-end dernier ( j'ai eu la chance de tester une X800pro et une 6800Ultra ) et bien avec une config a peu près normal ( 2500+@3200+ ; 2*256mo RAM OCZ EL PC3200 , Abit NF7-s ) et ba on a eu du mal a passer les 10000 points ( 10870 max avec le FX6800Ultra ) ...

Lien vers le commentaire
Partager sur d’autres sites

ce sont des cartes haut de gamme faite pour aller avec le haut de gamme,donc c AMD A64 3400+,ou intel p4EE ou 3.6Ghz!

c quand meme stupide de vouloir faire marcher une CG avec un 2500+oc qui vaut 75€ alors qu'une CG comme la 6800U en vaut 600!!!

ca fait deux ans que les procs n'ont pas gagné en frequence ou presqueca se resset maintenant!

Lien vers le commentaire
Partager sur d’autres sites

ce sont des cartes haut de gamme faite pour aller avec le haut de gamme,donc c AMD A64 3400+,ou intel p4EE ou 3.6Ghz!

c quand meme stupide de vouloir faire marcher une CG avec un 2500+oc qui vaut 75€ alors qu'une CG comme la 6800U en vaut 600!!!

ca fait deux ans que les procs n'ont pas gagné en frequence ou presqueca se resset maintenant!

ba oui mais faut bien essayer car beaucoup vont acheter une telle cg avec un proco genre 2500+

Lien vers le commentaire
Partager sur d’autres sites

le pire c'est que le potentiel de ces cartes n'est exploité que par un ou 2 jeux, du style de farcry

vous en connaissez d'autres jeux actuels qui utilisent bien les shaders 3.0??

bon ok doom3 hl2 et stalker vont arriver, mais ca ne fait que 4 jeux!

et vu qu'en multi joueur la majorité des joueurs baissent les détails pour gagner en fluidité, les cartes ne servent a fond que peu de temps, et ca ne vaut pas 500€

les développeurs ne commencent qu'aujourd'hui a utiliser les pixels et vertex shaders de première génération de facon efficace...

Lien vers le commentaire
Partager sur d’autres sites

Moi je pense que si la puissance des CPU n'augmentent pas c'est une bonne chose, car ça va pousser les développeurs à optimiser leurs jeux pour qu'un plus grand publique puissent jouer.

Et quand je vois une PS2 (~100mhz) ou une Game Cube (405 mhz) qui font tourner des jeux au graphismes presque identiques à celles des PC... :8

Lien vers le commentaire
Partager sur d’autres sites

Moi je pense que si la puissance des CPU n'augmentent pas c'est une bonne chose, car ça va pousser les développeurs à optimiser leurs jeux pour qu'un plus grand publique puissent jouer.

Et quand je vois une PS2 (~100mhz) ou une Game Cube (405 mhz) qui font tourner des jeux au graphismes presque identiques à celles des PC... :8

ne croit pas que ,si le parc d'ordi ne gagne plus en perf, les developpeurs se mettront moins a programmer comme des boeufs!

sinon on peut pas comparer les consoles et les pc pour une simple raison c que les telé c du 640*480 premierement,y'a une limitation du nb de couleurs etc...mais c clair que c tout de meme fort niveau optimisation,quand on voit les cinematiques sur une PS1 alors qu'elle fait 33Mhz :p

Lien vers le commentaire
Partager sur d’autres sites

ne croit pas que ,si le parc d'ordi ne gagne plus en perf, les developpeurs se mettront moins a programmer comme des boeufs!

Heu, tu veux dire que les boulets qui utilisent DX seront obligés de changer de méthode et seront obligés de prendre en compte les perfs réelles des PC...

Les bon programmeurs comme JC (non pas Jésus mais John (OpenGL) Carmack) développent des moteurs très optimisés, du coup, ils peuvent s'amuser a rajouter tout pleins d'effets...Les ombres en temps réels, telles qu'elles sont calculées sous DOOM 3 on n'est pas près d'en voir dans des jeux DX avant un bout de temps...

Le problème c'est qu'avec DX, on n'a pas besoin de bien connaitre le fonctionnement réel de la machine, donc les programmeurs DX passent à coté de bien des optimisations que les programmeurs OpenGL connaissent et utilisent...

Pour faire simple, sous DX, on n'a pas besoin de réinventer la roue, puisqu'elle existe déjà, même si ce n'est ni la plus belle, ni la plus performante...En gros, on n'a pas trop besoin de se poser de questions, alors qu'avec OpenGL, comme on doit presque réinventer la roue, on trouve des solutions pour la faire avancer plus vite, pour la rendre plus belle, plus légère, plus...Donc si on se plante, on le paye cash...

Lien vers le commentaire
Partager sur d’autres sites

Archivé

Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.


×
×
  • Créer...