Aller au contenu

Avis sur Carte graphique AGP8X ATi ou nvidia


Rudy124

Messages recommandés

Bonjour à tous,

Je post aujourd'hui pour une question qui à du etre maintes et maintes fois posée mais je n' ais toujours pas trouvé de réponses claires qui pourrait m' éclairer.

En clair je recherche une carte graphique AGP8X capable de faire marcher convenablement certains jeux comme fear Quake4 BF2 BW2 NFSUMW etc...en 1280*1024

Ma config est la suivante:

-un Barton 2.45Ghz

-1 giga de ram dual channel

-ASus A7n8x deluxe v2

Je cherche donc une bonne carte graphique pour maximum 300 - 320 euros pour succéder à ma bonne vieille Fx 5700 qui ne permet que le 800*600 dans les jeux récents...

J' ai déniché quelques ""perles"" dans prix du net mais j' aimerais obtenir de plus amples informations et si quelqun connait, possède, à entendu parler d'une de ces cartes ou d' autres dans la meme gamme de prix\performances je lui serais gré de me le signaler :D

Les cartes sont les suivantes :

Point of view 6800 GT 310€ chez Cdiscount

Pny 6800GT 319€ chez Cdiscount

Powercolor Radeon X850XT vivo 319€

Aopen 6800GT 299€

PS: Je recherche une "bonne" carte que ce soit Ati ou Nvidia.

D'avance merci

Lien vers le commentaire
Partager sur d’autres sites

Oui et HL² est optimisé pour ATI c'est pas mieux :francais:

Oula j' avais oublier les optimisations ça n' aide pas tellement à choisir ça non plus :cartonrouge:

Si quelqun a des infos sur les nuisances sonores de ces cartes ... parceque bon une turbine dans mon pc déja assez bruyant risque vite de devenir insupportable dans la chambre.

D 'après vous la X850XT est le meilleur choix mais qu'en ai t-il des Pixel shaders en version 3 n'est pas une mauvaise chose pour la pérennité de la carte ? ou est ce peu important ?

Lien vers le commentaire
Partager sur d’autres sites

Oui et HL² est optimisé pour ATI c'est pas mieux :ouioui:

Bonjour,

Non, c'est faux:HL2 n'a jamais été optimisé pour ATI. :fumer:

C'est Nvidia qui a été incapable d'adapter son architecture pour HL2, à tel point que la rumeur avait même officieusement couru que Gordon Freeman ne pourrait évoluer que sous ATI:la firme au caméléon, on s'en souvient, avait même fait son mea culpa lors d'un communiqué de presse.

C'est bien l'équipe de Valve ( et non ATI) qui accusa à l'époque Nvdia de truquer ses drivers, accusation portée en public:les GF devaient être "trafiquées" car autrement leurs performances étaient lamentables, allant jusqu'à 60% en dessous d'ATI.Ce qui était d'autant plus gênant que Nvidia venait de ressortir d'une autre affaire où on l'accusait également de truquer ses drivers pour les benches.

Lien vers le commentaire
Partager sur d’autres sites

asus X850Xt agp8x 320€ chez surcouf :kill: ou encore la leadtek ou gmaxy 6800GT elles ont un super refroidissement enfin va sur rue montgallet car la leadtek 299€ et galaxy 320€

Oui et HL² est optimisé pour ATI c'est pas mieux :fumer:

Bonjour,

Non, c'est faux:HL2 n'a jamais été optimisé pour ATI. :zarb:

C'est Nvidia qui a été incapable d'adapter son architecture pour HL2, à tel point que la rumeur avait même officieusement couru que Gordon Freeman ne pourrait évoluer que sous ATI:la firme au caméléon, on s'en souvient, avait même fait son mea culpa lors d'un communiqué de presse.

C'est bien l'équipe de Valve ( et non ATI) qui accusa à l'époque Nvdia de truquer ses drivers, accusation portée en public:les GF devaient être "trafiquées" car autrement leurs performances étaient lamentables, allant jusqu'à 60% en dessous d'ATI.Ce qui était d'autant plus gênant que Nvidia venait de ressortir d'une autre affaire où on l'accusait également de truquer ses drivers pour les benches.

c'est pas des rumeurs :ouioui: et tiens mon coco c'est optimiser pour ati car ati optimisé pour directx

et half life2 se base sur directx 9.0c donc sur le moteur ati pi c'etait à l'époque des fx5800 le trucage ça sinon je vois pas le topo

Lien vers le commentaire
Partager sur d’autres sites

asus X850Xt agp8x 320€ chez surcouf :ouioui: ou encore la leadtek ou gmaxy 6800GT elles ont un super refroidissement enfin va sur rue montgallet car la leadtek 299€ et galaxy 320€

J' avais commandé une Leadtek A400gt tdh a 300.9 qui ne mais jamais parvenu de plus j'ai entendu dire qu'il y avait un seul importateur Leadtek en France et qu'il était actuellement en rupture de carte AGP8X.

Si je me tourne vers Ati (X850 XT vivo par exemple) ne vais je pas le regretter plus tard pour les jeux utilisant les Shaders en version 3 ?

Certains vendeurs mont aussi confiés que d' ici la fin de l' année les cartes basées sur un 6800GT en AGP8X devrait disparaitre ...

Lien vers le commentaire
Partager sur d’autres sites

c'est pas des rumeurs :D et tiens mon coco c'est optimiser pour ati car ati optimisé pour directx

et half life2 se base sur directx 9.0c donc sur le moteur ati pi c'etait à l'époque des fx5800 le trucage ça sinon je vois pas le topo

Bonjour,

Non, ce ne sont pas des rumeurs, car non seulement il a failli y avoir procédure judiciaire, mais l'arrangement "à l'amiable" (version américaine, c'est à dire on se file discrètement des dollars puis on s'embrasse en public sur la bouche pour faire croire qu'on est redevenus copains) a bel et bien donné lieu à des communiqués officiels :

HL2-NVIDIA

En clair, on a un fabricant qui bidouille ses drivers quand les benches ne lui conviennent pas (Nvidia), et un autre qui n'est pas fichu d'en faire un stable du premier coup (ATI) !! :D

Si je me tourne vers Ati (X850 XT vivo par exemple) ne vais je pas le regretter plus tard pour les jeux utilisant les Shaders en version 3 ?

Bonjour,

De toute façon, ancienne génération de CG ou nouvelle, ATI ne respecte pas les spécifications de Dx question Vertex Shaders, alors......

Lien vers le commentaire
Partager sur d’autres sites

Oui et HL² est optimisé pour ATI c'est pas mieux :francais:

Bonjour,

Non, c'est faux:HL2 n'a jamais été optimisé pour ATI. :D

C'est Nvidia qui a été incapable d'adapter son architecture pour HL2, à tel point que la rumeur avait même officieusement couru que Gordon Freeman ne pourrait évoluer que sous ATI:la firme au caméléon, on s'en souvient, avait même fait son mea culpa lors d'un communiqué de presse.

C'est bien l'équipe de Valve ( et non ATI) qui accusa à l'époque Nvdia de truquer ses drivers, accusation portée en public:les GF devaient être "trafiquées" car autrement leurs performances étaient lamentables, allant jusqu'à 60% en dessous d'ATI.Ce qui était d'autant plus gênant que Nvidia venait de ressortir d'une autre affaire où on l'accusait également de truquer ses drivers pour les benches.

Evite de dire ce type de bêtise STP. :francais:

HL² est le seul et unique jeu paramétré en shader total. L'intérêt --> brider les cartes nVidia. Valve à même poussé le bouchon jusqu'a brider les Geforce5 en DX8. La grosse blague! Heureusement que 3DAnalyser permet de camoufler une carte nVidia en carte ATI. Ce qui active DX9 tout en améliorant les perf!! :non:

Lien vers le commentaire
Partager sur d’autres sites

Point of view 6800 GT 310€ chez Cdiscount

Pny 6800GT 319€ chez Cdiscount

Powercolor Radeon X850XT vivo 319€

Aopen 6800GT 299€

PS: Je recherche une "bonne" carte que ce soit Ati ou Nvidia.

D'avance merci

Entre ces 4 cartes, je te conseillerai sans hésiter la X850XT. C'est une carte de bonne marque et ses performances sont globalement bien supérieur à celle d'une 6800GT. C'est moins vrai si tu compte overclocker ta carte, mais même dans ce cas, une X850XT reste légèrement supérieur à une 6800Ultra dans plupart des jeux.

Lien vers le commentaire
Partager sur d’autres sites

Juste une précision : ATI ne possède pas les shader model 3.0

C'est un point négatif, surtout que tu veux pouvoir faire tourner les dernier jeux qui eux, les utiliseront.

C'est juste. Oui les Gefroce6 gèrent les PS3.0, oui elles gèrent le DST et oui leur HDR est de qualité légèrement meilleur et mieux optimisé.

Mais bon.

--> Pour le DST, l'impact reste limité puisque la fréquence supérieure des X850XT comble le retard sur une 6800Ultra par exemple.

--> Pour le HDR, celui des X850 est plus que correct.

--> Pour les PS3.0, le principal intérêt en terme de perf reste le dynamic branching. Aucun jeux ne l'utilise actuellement, de plus il est vraiment très mal optimisé sur le Geforce6. A telle point qu'il en devient pratiquement inutilisable. :francais:

Donc bref....

Lien vers le commentaire
Partager sur d’autres sites

Evite de dire ce type de bêtise STP. ;)

HL² est le seul et unique jeu paramétré en shader total. L'intérêt --> brider les cartes nVidia. Valve à même poussé le bouchon jusqu'a brider les Geforce5 en DX8. La grosse blague! Heureusement que 3DAnalyser permet de camoufler une carte nVidia en carte ATI. Ce qui active DX9 tout en améliorant les perf!! :fumer:

Bonsoir,

Ah, je viens de froisser un adepte de la secte Nvidia.... :non:

Ce ne sont pourtant pas des bêtises, mais la réalité:

Résumons l'affaire:

- Newell lors d'une conférence de presse avoue que les CG Nvidia ont des performances catastrophiques face aux ATI.Tollé chez NV, qui affirme que c'est à cause de detonators anciens, et qui vont être optimisés.

Sortent ensuite ces detonators qui ne règlent pas le problème.NV parle alors de comparaisons d'architecture qui ne jouent pas en sa faveur. :francais:

Ensuite, on a le droit à la théorie du complot ( car forcément il y en a un!):ATI et Valve, complices, auraient tendu un piège à N en codant les shaders en 32 ( bon, certains disent que c'est en 24 parce qu'ATI fonctionnait en 24 , mais tout le monde n'a pas eu le temps de se mettre d'accord devant le complot ATIen :eeek2: ).Donc, les GF FX ne pouvant faire que du 16, forcément un codage en 32 bits dégrade les performances.

Je dois avouer que je n'ai jamais bien suivi la logique des détracteurs:si les ATI arrivent avant les Nvidia même avec des cartes récentes,autrement dit en 32 c'est bien qu'elles sont meilleures, non? :smack:

De la même manière, ces belles âmes oublient de préciser-par distraction, je suppose- que les spécifications Dx9 impliquent au minimum un codage en 24 bits.....comment Valve aurait fait pour sortir un Dx9 en 16 bits? :yes:

Et quant à ceux qui prétendent que la qualité d'image est la même ou voisine, voici Halo en 16 et 32 (car il n'y a pas que HL2 :

En fait, la réalité est plus simple:avec ses FX gérant le 16 et 32, Nvidia a fait une belle impasse technologique, et c'est tout.....déjà avant la sortie de HL2, on le savait, qu'elles étaient très médiocres les FX....halo_fp16_fp32.jpg

Lien vers le commentaire
Partager sur d’autres sites

--> Pour les PS3.0, le principal intérêt en terme de perf reste le dynamic branching. Aucun jeux ne l'utilise actuellement, de plus il est vraiment très mal optimisé sur le Geforce6. A telle point qu'il en devient pratiquement inutilisable. :transpi:

Donc bref....

Bonsoir,

Et il reste les VS 3.0, avec un vertex texturing non implémenté.....ce qui va être plus que gênant quand une application va essayer d'y accéder. :non:

PS:des jeux actuels comme Splinter Cell utilisent le dynamic branching......

Lien vers le commentaire
Partager sur d’autres sites

--> Brave Heart

Intéressante comme réponse. Si tu tien vraiment à parler du sujet, je suis partante. :francais:

Comme je le disait, Valve à programmé son HL² en shader total. Pour les ATI, pas de problème. Elle tourne avec leur précision maximal, FP24, comme dans n’importe qu’elle autre jeu. Pour les cartes nVidia, là c’est légèrement différent. Dans un jeu normal les Geforce6 alternent le mode FP16 pour les effets d’arrière plan et le mode FP32 pour les effets de premier plan. HL² étant programmé en shader total les cartes nVidia sont forcés en mode FP32. Evidement cela s’accompagne d’une perte de perf plus que conséquente.

La question est pourquoi Valve a programmée son jeu comme cela. Surtout que HL² et parfaitement compatible FP16, ce mode est juste interdit. Chacun ce fera son avis. Je rappel que HL² demeure le seul et unique jeu programmé de la sorte. :roll:

--------------------------------------------------------------------------------------------

Pour le FP16, ce format à été ajouté officiellement à DirectX 9 avec la révision « a » (DirectX 9.0a). Donc bien avant la création d’HL². Mais de toute façon le problème n’est pas là. Même la toute première révision de DirectX 9 pouvais géré les FP16. C’est juste que ce n’été pas officiel. D’ailleurs je rappel que le FP16 est le format le plus couramment utilisé pour le HDR et qu’il est supporté par TOUS les jeu Direct9. Même HL² !!

Ceci dis parlons des geforce5 (FX). Ce sont bien des cartes DirectX9. Là ont est d’accord. L’excuse que Valve a sortie pour brider les FX en DirextX 8 a était que ces cartes gèrent très mal le DirectX 9. Comme je le disais…la grosse blague !

Un petit article pour ton information personnelle >> Half-Life 2 et le rendu DirectX 9 sur les GeForce FX

Comme tu peu le voir, en utilisant 3DAnalyser pour camoufler une GeforceFX en Radeon, il est possible d’activer le mode DirectX 9. Les perf étant un peu faible, la personne à eu l’idée de forcer le mode FP16 toujours grâce à 3DAnalyser. Il y a des photos sur le forum HardOC. Les résultats sont sans appel. Non seulement le mode FP16 DirectX 9 n’est pas plus gourmand mais il est aussi bien plus beau que le mode DirectX 8. En résumé: un simple amateur avec 3DAnalyser a réussie à avoir un rendu bien plus optimisé que celui paramétré par défaut par Valve. :mdr2:

M'enfin bref, tu es sûr d'être de bonne foi? :roll:

PS: Exact pour Splinter Cell CT et le dynamic B. Je l’avais oublié celui là.

Lien vers le commentaire
Partager sur d’autres sites

Merci pour ses réponses constructives :francais: mais je sens comme quelques différents entre vous tous (confrontations pro-ati et pro-nvidia peut etre).

Merci à Ultra pour l' explication du DX9-8 et des Shaders :mdr2: j'ai appris beaucoup de choses.

J' ai entendu parler que la version Aopen de la 6800gt ne possédait "que" de la mémoire cadencée à 900Mhz contre 1ghz pour une 6800GT normal je ne sais pas vraiment s' il s' agit d' une réalité ou d' une intox si quelqun à des infos.

La Powercolor X850XT à 310 euros me parait une bonne affaire (meme trop bonne d' ailleurs) c' est la seule carte X850XT dans cette gamme de prix donc :D méfiance de rigueur.

En me focalisant uniquement sur le rapport Prix\performance\Pérennité je pencherais plutot pour un 6800GT qui pourras surement etre @ en Ultra voir plus et qui possède une gestion des PS3.0.

Je ne suis pas particulièrement pro Ati ou Nvidia je recherche juste LA carte AGP qui seras suceptibles de durer le plus longtemps au sein de mon pc :roll:

:roll:

Lien vers le commentaire
Partager sur d’autres sites

Comme je le disait, Valve à programmé son HL² en shader total. Pour les ATI, pas de problème. Elle tourne avec leur précision maximal, FP24, comme dans n’importe qu’elle autre jeu. Pour les cartes nVidia, là c’est légèrement différent. Dans un jeu normal les Geforce6 alternent le mode FP16 pour les effets d’arrière plan et le mode FP32 pour les effets de premier plan. HL² étant programmé en shader total les cartes nVidia sont forcés en mode FP32. Evidement cela s’accompagne d’une perte de perf plus que conséquente.

Bonsoir,

Pas la peine de m'apprendre ce que sont les shaders.... :non:

Les shaders ( on ne précise d'ailleurs pas total, car tout shader est intrinsèquement supposé être en full precision) n'étaient exploitables qu'en 16/32 pour les FX...alors, forcément, vu que c'était des cartes médiocres, il est évident que cela ne le faisait pas....NV aurait en ce cas préféré des codages en -pph (partial precision hints) tout le long, mais manque de bol, cela aurait enfreint les spécifications Dx9......en langage clair, Nividia a sorti des canards boiteux, et n'a pas pu le supporter. :non:

D'ailleurs, le procès du chemin Dx8.1 est un faux procès:en clair, on accuse ni plus ni moins Valve d'avoir bridé la concurrence.Ce qu'oublie de préciser NV, c'est que HL2 n'est pas le seul jeu qui a utilisé le Dx8 et 8.1 pour ses FX.....simplement, lors de la vente aux enchères de la juteuse licence HL2, NV n'a pas raflé le marché, et cela lui est resté au travers de la gorge, pour une fois que le logo ATI apparaissait sur une boite!!

J'en reviens aux arguments "ATI a filé de l'argent et Valve a donc programmé son jeu pour amoindrir les performances de NV".....cela ne tient d'ailleurs pas chronologiquement , de plus je vois mal ATI débarquer avec l'argent en disant "Vous nous faites un jeu pour nos CG sinon on égorge le chien de Gabe".....et vu que c'est un moteur propriétaire, ce serait suicidaire pour Valve, car cela lui fermerait la moitié du marché auprès des éditeurs intéressés par le moteur

La question est pourquoi Valve a programmée son jeu comme cela. Surtout que HL² et parfaitement compatible FP16, ce mode est juste interdit. Chacun ce fera son avis. Je rappel que HL² demeure le seul et unique jeu programmé de la sorte. :eeek2:

Valve a sans doute programmé comme cela parce que les seules FX ne représentaient pas une grande part du marché.....car plus que des Nvidia, c'est bien des FX bancales qu'il s'agit....les GF6 n'ont bien évidemment aucun problème.Alors, alors faire du code pour quelques % du marché amenés à disparaitre....... :fou:

Pour le FP16, ce format à été ajouté officiellement à DirectX 9 avec la révision « a » (DirectX 9.0a). Donc bien avant la création d’HL². Mais de toute façon le problème n’est pas là. Même la toute première révision de DirectX 9 pouvais géré les FP16. C’est juste que ce n’été pas officiel. D’ailleurs je rappel que le FP16 est le format le plus couramment utilisé pour le HDR et qu’il est supporté par TOUS les jeu Direct9. Même HL² !!

Il ne faut pas tout confondre:ce n'est pas une question de possibilité, mais de qualité minimum:Dx9 n'autorise pas à coder en 16, mais autorise des exceptions en mode mixte-pph.Ce n'est pas du tout la même chose.....

Ceci dis parlons des geforce5 (FX). Ce sont bien des cartes DirectX9. Là ont est d’accord. L’excuse que Valve a sortie pour brider les FX en DirextX 8 a était que ces cartes gèrent très mal le DirectX 9. Comme je le disais…la grosse blague !

Non, pas la grosse blague...la réalité.....les FX ne peuvent pas adopter le mode full, pas la peine de revenir là-dessus:il suffit de voir leurs résultats.Ce qui est étonnant, c'est qu'on se focalise sur leurs piètres performances sur HL2, alors que personne ne se donne la peine de vérifier leurs médiocres résultats, là encore, face aux ATI dans un jeu en mode mixte comme Far Cry.Rien que cela suffirait à prouver d'où vient le problème..... :eeek2:

Non seulement le mode FP16 DirectX 9 n’est pas plus gourmand mais il est aussi bien plus beau que le mode DirectX 8. En résumé: un simple amateur avec 3DAnalyser a réussie à avoir un rendu bien plus optimisé que celui paramétré par défaut par Valve. :-D

Si c'est du 16, par définition, ce ne peut pas être du Dx9, car il faut un minimum de codage en full...il faudrait dire "du 16 avec des effets Dx9".De plus, bidouiller avec un logiciel est une chose, assurer le maximum de compatibilité pour un grand nombre de CG-en saisissant bien souvent le plus petit dénominateur commun- en est une autre, et Valve a d'autres soucis que celui d'une seule personne.

Dommage que mon image de Halo ne fonctionne pas...on verrait que les différences entre le 16 et le 32 ne se résument pas forcément à de vagues considérations esthétiques.

M'enfin bref, tu es sûr d'être de bonne foi?

Je pourrais largement retourner la question à ceux qui accusèrent à l'origine Valve d'avoir triché en faveur d'ATI:à croire qu'ils font partie du staff pour en savoir autant (je ne dis pas cela pour toi). :-D

C'est marrant, parce que les aficionados d'ATI ( dont je ne fais pas partie, ayant une 6800 GT) ne viennent pas hurler au loup lorsque Carmack avoue en public avoir passé une année pour optimiser le code des FX sur D3..... :p

Lien vers le commentaire
Partager sur d’autres sites

--> Brave Heart

Dans le genre têtu, tu fais fort Brave Heart. :D

Ta principale réponse pour défendre le choix de Valve…est que le FX est un GPU peu performant et peu répandu. :fou:

Sache juste qu'a la sortie de HL² les FX étaient encore largement répandu. Ca c’est un fait. Et comme le prouve l’article de HardOC, Valve pouvait très facilement appliquer du DirectX9 FP16 sur ce type de carte. Mode pas plus gourmand et bien plus joli que du DirectX8 !!

De plus, contrairement a ce que tu "essai" de dire depuis le début, la différence entre un mode FP16 et 32 n'a rien de flagrante à l'œil nu!! Dommage, sur le site de HardOC il montrait un lien comparant les deux modes sur HL². Malheureusement le lien est ne répond pas..... :p

Autre point, même si l’impact est limité, le fait que Valve ait choisie de programmer en shader total ne bride pas que les FX. Il bride également les Geforce6 (j’ai comme l’impression que tu n’y a pas pensé). Une 6800GT perd de 5 à 10% de perf selon les paramètres graphique.

Je te rappel juste que Ati était partenaire de Valve sur HL². Il aurait été tellement dommage que les cartes graphique du concurrent soit plus performantes. :yes:

>> ATI : le coût de Half Life 2

Lien vers le commentaire
Partager sur d’autres sites

J' ai entendu parler que la version Aopen de la 6800gt ne possédait "que" de la mémoire cadencée à 900Mhz contre 1ghz pour une 6800GT normal je ne sais pas vraiment s' il s' agit d' une réalité ou d' une intox si quelqun à des infos.

La Powercolor X850XT à 310 euros me parait une bonne affaire (meme trop bonne d' ailleurs) c' est la seule carte X850XT dans cette gamme de prix donc :yes: méfiance de rigueur.

En me focalisant uniquement sur le rapport Prix\performance\Pérennité je pencherais plutot pour un 6800GT qui pourras surement etre @ en Ultra voir plus et qui possède une gestion des PS3.0.

Je ne suis pas particulièrement pro Ati ou Nvidia je recherche juste LA carte AGP qui seras suceptibles de durer le plus longtemps au sein de mon pc :D

:p

Les seul Aopen 6800GT que j'ai vu avaient une fréquence mémoire d'1Ghz. Tu confond peut être avec la 6600GT qui à effectivement une fréquence mémoire de 900Mhz pour les modèles AGP (1Ghz pour les PCI-E). Attention par contre à certaine 6800GT 128Mo Asus qui ont de la simple DDR à 700Mhz.

Pour l'overclock, oui une 6800GT passe très facilement en 6800Ultra et même beaucoup plus. Tout comme une X850XT (520/1080Mhz par défaut) atteint facilement les 580/1200Mhz. De toute façon ce sont deux excellentes cartes. Il n'y a pas de mauvais choix. :fou:

Lien vers le commentaire
Partager sur d’autres sites

Archivé

Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.

×
×
  • Créer...