Charles.w Posté(e) le 26 août 2004 Partager Posté(e) le 26 août 2004 Alors bonjour les invités et surtout à notre VIP, le GoogleBot, présent 24h / 24h Lien vers le commentaire Partager sur d’autres sites More sharing options...
UltrA Posté(e) le 26 août 2004 Partager Posté(e) le 26 août 2004 Non je confont pas les X800Pro et XT...Mais il me s'emblé utile de le rappelé. Charles.w a parlé de l'overclock des X800Pro...prétendant qu'il était bon. Je voulai juste remétre les chose a leur place. Pour les X800Pro "toxic"...charles.w. Tu te ratrape aux branches...et tu n'a pas lut le teste entier. Il on utilisé les même WC pour overclocké les 2 cartes..... Sans MOD mais avec ce WC...la X800Pro arrive à 560/1150. La 6800GT arrive à 450/1200. Comme tu peut le voir....la X800Pro a vraiment besoin du MOD VGPU pour rivalisé avec la 6800GT. Pour le SM3.0...ce que tu avance n'est pas du tout vérifiable. Alors que moi oui. (C'est un peu comme HL2 sa) Si une telle chose était vrai...tu peu me croire qu'ATI aurai réagie. De toute façon tu ne peut renié l'inévitable... --> http://www.3dchips-fr.com/articles/article.php?p=13&IDa=148 "Il n’en demeure pas moins que les Shaders Models 3.0 sont réclamés par les développeurs, car ils vont leurs simplifier la tache". Sa c'est indiscutable. Difficile de prévenire l'avenire...mais avec un telle attout...le SM3.0 "risque" de vite se développé....et les X800 ne pouron pas en profité... Lien vers le commentaire Partager sur d’autres sites More sharing options...
UltrA Posté(e) le 26 août 2004 Partager Posté(e) le 26 août 2004 Premiére argument qu'il met facile de contré...le fait de fait que les 6800Ultra son instable en OC. --> http://www.pcinpact.com/articles/a/90/0.htm?pge=15 La 6800Ultra est monté a 456/1220. Un poile en dessous de la mienne (461/1225). "Bizarement" il ne parle pas du tout de probléme d'affichage ni d'artéfacte. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Charles.w Posté(e) le 26 août 2004 Partager Posté(e) le 26 août 2004 Non je confont pas les X800Pro et XT...Mais il me s'emblé utile de le rappelé. Charles.w a parlé de l'overclock des X800Pro...prétendant qu'il était bon. Je voulai juste remétre les chose a leur place.Il me semble que X800Pro et X800XT n'ont pas le même potentiel d'oc...il en va de même pour les 6800GT et les 6800U Pour les X800Pro "toxic"...charles.w. Tu te ratrape aux branches...et tu n'a pas lut le teste entier. Il on utilisé les même WC pour overclocké les 2 cartes..... Je sais, mais peu de gens on un watercooling et encore moins un watercooling intégral...pourquoi pas un prommy...ou de la glace sèche tant qu'a faire... Sans MOD mais avec ce WC...la X800Pro arrive à 560/1150. La 6800GT arrive à 450/1200. Comme tu peut le voir....la X800Pro a vraiment besoin du MOD VGPU pour rivalisé avec la 6800GT. Dommage, leur carte ne montait pas très haut...la HIS IceQ de materiel.be monte beaucoup plus haut, avec un ATI silencer et sans VMOD aucun... Source : http://www.materiel.be/cg/hisx800/page1.php Les première Radeons montaient mal, mais les dernière, y'a pas de problème, comme tu peux le constater... Pour le SM3.0...ce que tu avance n'est pas du tout vérifiable. Alors que moi oui. (C'est un peu comme HL2 sa) Si une telle chose était vrai...tu peu me croire qu'ATI aurai réagie. De toute façon tu ne peut renié l'inévitable... Pour les SM, regarde le manuel du SDK de DX, suffit de le DL sur le site de M$... --> http://www.3dchips-fr.com/articles/article.php?p=13&IDa=148 "Il n’en demeure pas moins que les Shaders Models 3.0 sont réclamés par les développeurs, car ils vont leurs simplifier la tache". Il est vrai que les SM3.0 simplifient la programmation des shaders, mais vu que 90% des cartes DX9.0 ne supportent pas les PS3.0, y'a peut de chance qu'on en voie beaucoup la couleur d'ici un an...je parle bien entendu des prédictions de branchement...sinon, pour vérifier mes infos, achette des livre d'architecture des ordniateurs (Hennessy et Patterson (créateurs du MIPS) / Tannenbaum (créateur de MINIX, a la base des premières versions de LINUX) / Zanella (heu...)) Sa c'est indiscutable. Difficile de prévenire l'avenire...mais avec un telle attout...le SM3.0 "risque" de vite se développé....et les X800 ne pouron pas en profité... Ce que tu ne semble pas avoir compris, c'est que cette génération de CG n'apporte rien ou presque par rapport a la précédent en terme de fonctionnalités...tout ce qui tourne sur une X800 / GF6 tourne sur ma Radeon 9800 Pro...la nouvelle génération de cg n'emporte pas assez de ram pour supporter les jeux à venir...DooM III demande 512Mo de ram sur la cg pour marcher en Ultra Hight quality dans de bonnes conditions de fluidité...le Unreal Engine 3 demande une carte ayant 512Mo ou 1 Go de ram...quantité de mémoire qu'est loin d'embarquer cette génération (Source : un communiqué d'Epic que je ne retrouve plus, mais en tout cas des GF6800UE en SLI on du mal a le faire tourner tout tout à fond a plus de 20FPS) Une vidéo du Unreal Engine 3 sur des GF en SLI... http://www.clubic.com/t/jeux/demo/1403.html Lien vers le commentaire Partager sur d’autres sites More sharing options...
Charles.w Posté(e) le 26 août 2004 Partager Posté(e) le 26 août 2004 Premiére argument qu'il met facile de contré...le fait de fait que les 6800Ultra son instable en OC.--> http://www.pcinpact.com/articles/a/90/0.htm?pge=15 La 6800Ultra est monté a 456/1220. Un poile en dessous de la mienne (461/1225). "Bizarement" il ne parle pas du tout de probléme d'affichage ni d'artéfacte. J'ai dit sous DooM III...apprend a lire... Lien vers le commentaire Partager sur d’autres sites More sharing options...
bananaday Posté(e) le 26 août 2004 Partager Posté(e) le 26 août 2004 Il on utilisé les même WC pour overclocké les 2 cartes..... je viens mettre un peu d'ambiance dans ce duel .... mmm epique Lien vers le commentaire Partager sur d’autres sites More sharing options...
Charles.w Posté(e) le 26 août 2004 Partager Posté(e) le 26 août 2004 Faut bien s'ammuser a trouver le bon troll pour freeposter intelligent...depuis que Vlad est parti que Guij a pratiquement disparu et que Rabot (il a la réaction rapide pour le DM) ne vient plus beaucoup ici, y'a plus grand monde pour jouer Lien vers le commentaire Partager sur d’autres sites More sharing options...
UltrA Posté(e) le 26 août 2004 Partager Posté(e) le 26 août 2004 Pour les X800Pro....elle monte à 570/1200....avec un VGA silencer. Les perf de ce type de refroidissement son ecxelent....pas loin d'un WC! Tu compare ce qui n'est pas comparable. Attend de voire les VGA silencer 6800 pour affirmé un truc comme sa! Pour Doom3...la encore tu te ratrape aux branche. Doom3 ne demande pas plus que Farcry. Et sous Farcry ya pas de prob. A noté que moi j'ai pas de prob....cela m'étoneré que les autre en on. Pour Doom3 est ces 512Mo GDDr recommandé en Ultra qualité. Sa c'est encore un troll. Doom3 marche nickel en ultra qualité sur ma config! Et en plus je n'est pas un proc trés puissant...... Pour le SM3.0..... "Ce que tu ne semble pas avoir compris, c'est que cette génération de CG n'apporte rien ou presque par rapport a la précédent en terme de fonctionnalités...tout ce qui tourne sur une X800 / GF6 tourne sur ma Radeon 9800 Pro..." Non. Entre le SM2.0 et SM3.0 le nombre d'instruction maximal du shader a énormement évolué. Une 6800Ultra peut géré un shader de 3000 instruction alors qu'une X800/9800Pro/FX5900/ ne peut pas le faire. (Source PC UPDATE). "mais vu que 90% des cartes DX9.0 ne supportent pas les PS3.0, y'a peut de chance qu'on en voie beaucoup la couleur d'ici un an". Sa tu peut pas le prévoir. Tu n'est pas madam soleille! l'ensemble des nouvelle carte de Nvidia support le SM3.0. La je parle des 6600,etc...Bref dans peut de temps....il y aura surment plus que 90% des carte qui le suporteron... Mais il est claire que si toute les nouvelle carte (ATI/Nvidia) supporteré le SM3.0....on aurai déja beaucoup plus de jeux compatible.... ATi a clairement fait une erreur. D'ailleur je pense qu'un mec qui acgéte une 6800 ou une X800 compte la gardé plus d'un an. Ce qui fait que ce non support du SM3.0 finira par être un défaut....c'est inévitable! Lien vers le commentaire Partager sur d’autres sites More sharing options...
UltrA Posté(e) le 26 août 2004 Partager Posté(e) le 26 août 2004 je viens mettre un peu d'ambiance dans ce duel .... mmm epique LOL... :copain: Lien vers le commentaire Partager sur d’autres sites More sharing options...
korrigan Posté(e) le 26 août 2004 Partager Posté(e) le 26 août 2004 cte bataille en bois pour des cartes horriblement cheres!!! et puis charles ton argumentaire sur le fait que ca fait pas tourner D3 a fond en VHQ et le UT engine a fond c assez risible,d'une D3 est loin d'avoir besoin de 60fps pour etre jouable et puis faire tourner un jeu en 1600 faut encore avoir l'ecran qui suit,pas un bete 19p qui te filera ca en 60Htz donc c loin d'etre facile,et puis le UT engine on est loin d'en voir la couleur,et me parlez pas d'achat a long terme,des types achetant ce genre de carte sont exclusivement les geeks qui changeront de cartes a la prochaine generation qui arivera bien avant que le UT engine soit sorti,donc en gros on s'en bat un peu les qu'est-ce que vous en avez a faire que la X800truc machin monte a 6XX sur le GPU en Vmod sur un test turco-grec paru dans le trou du cul du net,et que ca passe pas devant une GT oc en WC a vu d'oeil je defie deja quiconque de voir la difference de perf quand elle est inferieure a 10% entre deux cartes,alors quand on en est a se battre au quart de poil de cul faut se calmer les mecs! Lien vers le commentaire Partager sur d’autres sites More sharing options...
Charles.w Posté(e) le 26 août 2004 Partager Posté(e) le 26 août 2004 Pour les X800Pro....elle monte à 570/1200....avec un VGA silencer. Les perf de ce type de refroidissement son ecxelent....pas loin d'un WC! Tu compare ce qui n'est pas comparable. Attend de voire les VGA silencer 6800 pour affirmé un truc comme sa!Heu, les HIS IceQ et les Toxic sont des cartes dispos dans le commerce, pas besoin de les modifier contrairement aux cartes NVidia... Pour Doom3...la encore tu te ratrape aux branche. Doom3 ne demande pas plus que Farcry. Et sous Farcry ya pas de prob. A noté que moi j'ai pas de prob....cela m'étoneré que les autre en on. Beaucoup de gens en ont, encore une fois, tu prend un cas et tu extrapole...en faisant comme toi, le niveau des mers monterait de 10m en 10 ans... Pour Doom3 est ces 512Mo GDDr recommandé en Ultra qualité. Oui, recommandé, pour avoir un minimum de fluidité, car force est de constater qu'avec une 6800U, tout a fond, c'est pas fluide... Sa c'est encore un troll. Doom3 marche nickel en ultra qualité sur ma config! Et en plus je n'est pas un proc trés puissant...... Pour le SM3.0..... "Ce que tu ne semble pas avoir compris, c'est que cette génération de CG n'apporte rien ou presque par rapport a la précédent en terme de fonctionnalités...tout ce qui tourne sur une X800 / GF6 tourne sur ma Radeon 9800 Pro..." Non. Entre le SM2.0 et SM3.0 le nombre d'instruction maximal du shader a énormement évolué. Une 6800Ultra peut géré un shader de 3000 instruction alors qu'une X800/9800Pro/FX5900/ ne peut pas le faire. (Source PC UPDATE). Oula PC Update...quel connaisseurs...ils savent programmer ? Non, personne n'utilise de shaders contenant un nombre élevé d'instructions...un gros shader bouffe plus de perf qu'un tas de petits shaders...le nombre d'instructions par shader est un écran de fumée...les shaders les plus lourds écris a ce jours concernent le photon mapping...et ca fait ramer une FX5950U alors qu'il n'y a qu'un cube et deux sphères en low details... "mais vu que 90% des cartes DX9.0 ne supportent pas les PS3.0, y'a peut de chance qu'on en voie beaucoup la couleur d'ici un an". Sa tu peut pas le prévoir. Tu n'est pas madam soleille! l'ensemble des nouvelle carte de Nvidia support le SM3.0. La je parle des 6600,etc...Bref dans peut de temps....il y aura surment plus que 90% des carte qui le suporteron... T'est au courant que NVidia vend moins de cartes qu'ATI...et ce depuis plus d'un an et demi... Mais il est claire que si toute les nouvelle carte (ATI/Nvidia) supporteré le SM3.0....on aurai déja beaucoup plus de jeux compatible.... Non, les premiers jeux DX9 sont sortis plus d'un an est demi après la sortie de DX9 et de la radeon 9700Pro... ATi a clairement fait une erreur. D'ailleur je pense qu'un mec qui acgéte une 6800 ou une X800 compte la gardé plus d'un an. Ce qui fait que ce non support du SM3.0 finira par être un défaut....c'est inévitable! Je te l'est déjà dit, quand les jeux compatibles SM3.0 sortirons, les cartes actuelles n'auront pas assez de ram... Lien vers le commentaire Partager sur d’autres sites More sharing options...
UltrA Posté(e) le 26 août 2004 Partager Posté(e) le 26 août 2004 Faut bien s'ammuser a trouver le bon troll pour freeposter intelligent...depuis que Vlad est parti que Guij a pratiquement disparu et que Rabot (il a la réaction rapide pour le DM) ne vient plus beaucoup ici, y'a plus grand monde pour jouer Belle mentalité!!... De tout façon je pensse sue se type de "discusion" est profitable pour tous le monde. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Charles.w Posté(e) le 26 août 2004 Partager Posté(e) le 26 août 2004 cte bataille en bois pour des cartes horriblement cheres!!!et puis charles ton argumentaire sur le fait que ca fait pas tourner D3 a fond en VHQ et le UT engine a fond c assez risible,d'une D3 est loin d'avoir besoin de 60fps pour etre jouable et puis faire tourner un jeu en 1600 faut encore avoir l'ecran qui suit,pas un bete 19p qui te filera ca en 60Htz donc c loin d'etre facile,et puis le UT engine on est loin d'en voir la couleur,et me parlez pas d'achat a long terme,des types achetant ce genre de carte sont exclusivement les geeks qui changeront de cartes a la prochaine generation qui arivera bien avant que le UT engine soit sorti,donc en gros on s'en bat un peu les qu'est-ce que vous en avez a faire que la X800truc machin monte a 6XX sur le GPU en Vmod sur un test turco-grec paru dans le trou du cul du net,et que ca passe pas devant une GT oc en WC a vu d'oeil je defie deja quiconque de voir la difference de perf quand elle est inferieure a 10% entre deux cartes,alors quand on en est a se battre au quart de poil de cul faut se calmer les mecs! Voui, mais bon, je répond a ses argument a la con avec des arguments a la con un peu moins erronés...ceci dit, j'ai assez freeposté ici... Pour voir la différence de perf, appelons notre amis Ultra le troll "Oeil de lynx"... Lien vers le commentaire Partager sur d’autres sites More sharing options...
Charles.w Posté(e) le 26 août 2004 Partager Posté(e) le 26 août 2004 Belle mentalité!!...De tout façon je pensse sue se type de "discusion" est profitable pour tous le monde. Non, ce genre de discussion est totalement inutile, vu que les réponse de réponse de réponse sont si longues que les gens se lassent et quittent le topic pour ne plus y remettre les pieds, je crois que ca aussi tu ne l'avait pas compris... Lien vers le commentaire Partager sur d’autres sites More sharing options...
UltrA Posté(e) le 26 août 2004 Partager Posté(e) le 26 août 2004 Tu tourne en roud.... Pour les HIS et leur VGA S....pas térrible comme arguement.....cela n'empéche que tu compare quand même l'inconparable! Pour Doom3...beaucoup de monde tu dit? Tu peut me montrai quelque article (diiférent bien sûr ) qui parle de sa.... Tu n'a pas répondu a sa... "Sa c'est encore un troll. Doom3 marche nickel en ultra qualité sur ma config! Et en plus je n'est pas un proc trés puissant......" Il est trés fluide....la encore j'aimerai bien que tu me montre plusieur article qui parle de sa...Perso les seul article que j'ai vu sur le sujet n'était que des suposission. Tu généralise Charles....... Pour PC UPDAT....là encore pas térrible. C'est l'un des mag les plus respectable. Pour le shader de 3000 instruction....c'est vrai. Pour l'instant avec le SM2.0 les instruction max son de 256. Je voulai juste te prouvé que cette génération de carte (avec le SM3.0) apporte plus de nouveauté que tu ne veu bien l'admétre..... Je voi quand même que tu ne trouve pas grand chose pour te défendre. D'ici un an les X800 et 6800 seron dépassé?.....non elle seron just des carte moyenne gammes. Ce qui fait que les possésseur de X800 seron pénalisé par le non support du SM3.0.... A toi "N'acceptez rien de moins que la perfection"....sa te dit quelque chose?? Lien vers le commentaire Partager sur d’autres sites More sharing options...
bananaday Posté(e) le 26 août 2004 Partager Posté(e) le 26 août 2004 Je crois que ce post est le dernier ..... Edit: Non je crois pas que ça soit fini.... alors je vais me coucher Lien vers le commentaire Partager sur d’autres sites More sharing options...
UltrA Posté(e) le 26 août 2004 Partager Posté(e) le 26 août 2004 Ouppse j'ai raté quelque message...dsl Ouai on a assez trollé....mais ce son c'est arguement les pires... Lien vers le commentaire Partager sur d’autres sites More sharing options...
Charles.w Posté(e) le 26 août 2004 Partager Posté(e) le 26 août 2004 Oui, faisons l'amour, pas la guerre enfin je suis pas payday (cf Blabla pour l'expression à la con) Lien vers le commentaire Partager sur d’autres sites More sharing options...
UltrA Posté(e) le 26 août 2004 Partager Posté(e) le 26 août 2004 Je ne suis pas qui tu croi!!!..... Lien vers le commentaire Partager sur d’autres sites More sharing options...
Charles.w Posté(e) le 26 août 2004 Partager Posté(e) le 26 août 2004 Tu est comme Nil alors ? Pasque Nil c'est plutôt Lien vers le commentaire Partager sur d’autres sites More sharing options...
Billgates77 Posté(e) le 27 août 2004 Partager Posté(e) le 27 août 2004 Bah moi je trouve que ce genre de discussion est profitable la preuve mon choix de carte a été fait sur une partie de vos argumentations... Je pense donc me tourner vers une sapphire X800 Xt PE de chez sapphire et j'achetrai surement un vga silencer en plus (au diable la garantie lol) Je vous donne les arguments qui ont fait pencher la balance vers ati: -en tournant sur pas mal de forum fr visiblement les 6800ultra sont pas mal toucher par des problemes de freez -les ati consomment beaucoup moins et font baisser ainsi les dépenses post achats comme l'électricité et une alimentation plus puissante -les ati semble trees a l'aise avec les hautes définition et filtrage anisotrope et anti aliasing activé, or je ne supporte pas les aretes crénelées ds les jeux lol -je joue beaucoup a ravenshield qui est un jeux direct3D or les ati semble plus a l'aise avec ce language -les prochains drivers d'ati laisse présagé une meilleure gestion de l'openGL -on trouve plus facilement les ati Voila c'est a peu pres tout, je suspend cepandant mon choix jusqu'en septembre au cas ou de nouveaux arguments ferait leur apparition. Merci messieurs de votre petit duel plus qu'instructif :) Lien vers le commentaire Partager sur d’autres sites More sharing options...
UltrA Posté(e) le 27 août 2004 Partager Posté(e) le 27 août 2004 .... Un article qui ma énormement surpri.... http://www.3dchips-fr.com/News/actualites/200408261.html "Notre confrère en conclut que Valve a volontairement interdit le rendu DirectX 9.0 au GeForce FX." "Quoi qu'il en soit attendons la sortie de Half-Life 2, pour voir ce qu'il en est vraiment." Valve essairai t'il de coulé les FX?? Lien vers le commentaire Partager sur d’autres sites More sharing options...
Charles.w Posté(e) le 27 août 2004 Partager Posté(e) le 27 août 2004 Ben pas spécialement, s'ils ont fait ca, y'a sans doute une bonne raison...les faibles performances des FX sous DX9.0, comme l'ont soulignés de nombreux testeurs à l'époque...sinon, faut croire que vu la laideur de CS-Source, on voit pas la différence... Lien vers le commentaire Partager sur d’autres sites More sharing options...
UltrA Posté(e) le 27 août 2004 Partager Posté(e) le 27 août 2004 Tu trouve cela pas surprenant? A noté que c'est le seul moteur graphique a leur actuelle qui fait sa. Une bonne raison? En tout cas j'éspére que c'est pas pour une raison commerciale. (comme Doom3 avec Nvidia) Mais bon...comme tu dit: "Apparament" cela ne change pas le rendu graphique... Lien vers le commentaire Partager sur d’autres sites More sharing options...
korrigan Posté(e) le 27 août 2004 Partager Posté(e) le 27 août 2004 billgates t'abuses d'avoir choisit la carte en fonction de ces arguments,car les 3/4 sont soit completement faux ou presque soit futiles,et au passage raven shield est vraiment pas gourmand,il tourne a fond sur ma ti4200 a 60fps,il est bloqué a ca,constamment... Lien vers le commentaire Partager sur d’autres sites More sharing options...
Messages recommandés
Archivé
Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.