KouKaVaniLLa Posté(e) le 12 décembre 2005 Partager Posté(e) le 12 décembre 2005 Salut Je dispose d'un X2 3800+ et je souhaitais peut être le troquer contre un opteron 165 ... Si il y a une part de plaisir perso à le faire, je me demande si il risque d'y avoir un réel gain de perf .... Le prix est presque similaire . Vu la pénurie, il est même probable que je n'arrive plus à en avoir un ..... mais bon ... je suis pas sûr que le fait d'avoir plus de cache rende les perfs incroyable . Ma config est destinée uniquement aux jeux. Avis aux experts Lien vers le commentaire Partager sur d’autres sites More sharing options...
raytracer Posté(e) le 12 décembre 2005 Partager Posté(e) le 12 décembre 2005 L'Opteron 165 avec un petit o/c il démonte tout Lien vers le commentaire Partager sur d’autres sites More sharing options...
jetskate Posté(e) le 12 décembre 2005 Partager Posté(e) le 12 décembre 2005 pourquoi seulement un petit Lien vers le commentaire Partager sur d’autres sites More sharing options...
kgabou Posté(e) le 12 décembre 2005 Partager Posté(e) le 12 décembre 2005 Si c' est uniquement pour les jeux oui tu vas pas mal y gagner, mais pour voir vraiment la différence faudra l' OC (de toute façon ne pas OC un opteron serait un crime ) Lien vers le commentaire Partager sur d’autres sites More sharing options...
KouKaVaniLLa Posté(e) le 12 décembre 2005 Auteur Partager Posté(e) le 12 décembre 2005 j'ai quand même un X2 3800+ déjà c'est pas bien Lien vers le commentaire Partager sur d’autres sites More sharing options...
raytracer Posté(e) le 12 décembre 2005 Partager Posté(e) le 12 décembre 2005 pourquoi seulement un petit Parceque avec un gros il démonte trop Moi sans ésiter je prendrait l'opteron Lien vers le commentaire Partager sur d’autres sites More sharing options...
Morbid069 Posté(e) le 12 décembre 2005 Partager Posté(e) le 12 décembre 2005 sisi ton X2 3800+ ets bien aussi mais avec l'opteron tu poourras o/c comme une bete ... Lien vers le commentaire Partager sur d’autres sites More sharing options...
kgabou Posté(e) le 12 décembre 2005 Partager Posté(e) le 12 décembre 2005 Niveau jeu un X2 3800+ c' est comme si t' avais un 3200+... Lien vers le commentaire Partager sur d’autres sites More sharing options...
wizz Posté(e) le 12 décembre 2005 Partager Posté(e) le 12 décembre 2005 Niveau jeu un X2 3800+ c' est comme si t' avais un 3200+... Si un logiciel a été écrit pour utiliser les 2 cores, alors ça donne ça: http://www.xbitlabs.com/articles/cpu/displ...pu-games_5.html Dans le cas contraire, le logiciel n'utilisera qu'un seul core et ça donne ça: http://www.xbitlabs.com/articles/cpu/displ...pu-games_3.html ... et la quasi toalité des jeux n'ont pas été écrits pour utiliser 2 cores. Lien vers le commentaire Partager sur d’autres sites More sharing options...
MyK3 Posté(e) le 12 décembre 2005 Partager Posté(e) le 12 décembre 2005 Niveau jeu un X2 3800+ c' est comme si t' avais un 3200+... Si un logiciel a été écrit pour utiliser les 2 cores, alors ça donne ça: http://www.xbitlabs.com/articles/cpu/displ...pu-games_5.html Dans le cas contraire, le logiciel n'utilisera qu'un seul core et ça donne ça: http://www.xbitlabs.com/articles/cpu/displ...pu-games_3.html ... et la quasi toalité des jeux n'ont pas été écrits pour utiliser 2 cores. pour le môment...mais cela va certainement changer!!! et au cas ou maintenant les drivers video prennent en compte le dual core...c'est pas encore du doublage de puissant mais c'est tjrs ça de pris Lien vers le commentaire Partager sur d’autres sites More sharing options...
wizz Posté(e) le 12 décembre 2005 Partager Posté(e) le 12 décembre 2005 This graph was taken from a system with the dual-core Athlon 64 X2 4800+ processor. As we see, the overall CPU utilization stays around 60%. It means that Serious Sam 2 also involves the second computational core. However, it would be not quite fair to praise only Croteam guys for the implementation of dual-core support. I have to point out NVIDIA drivers also started supporting dual-core architectures. ForceWare version 81.xx allows enjoying the advantages of dual-core technology in DirectX as well as in OpenGL. Ici, pour expliquer l'avantage des dual cores, l'auteur a opté pour le support du dual core par le driver de Nvidia 81.xx Mais si c'était le cas, ce même driver ayant aussi été installé pour le test de BF2, on aurait dû voir le même avantage pour BF2 aussi non? Et aussi FEAR... Puis sous Quake4, l'auteur pense que les développeurs n'ont pas chômé pour améliorer le moteur de Doom3 qui ne supporte pas le dual core. Looks like the software developers didn’t waste their time and modified the engine according to the latest innovations in the hardware world Lien vers le commentaire Partager sur d’autres sites More sharing options...
Yan le Flan Posté(e) le 12 décembre 2005 Partager Posté(e) le 12 décembre 2005 Puis sous Quake4, l'auteur pense que les développeurs n'ont pas chômé pour améliorer le moteur de Doom3 qui ne supporte pas le dual core.Looks like the software developers didn’t waste their time and modified the engine according to the latest innovations in the hardware world il dit justement que les développeurs n'ont même pas pris le temps de modifier le moteur pour qu'il tire parti du dual core.perso, le dual core, ça sera quand j'aurai beaucoup de sous, parce que le jour où j'en achèterai un, ce sera un gros, qui pourra être aussi puissant que mon 3700 actuel, même dans une appli qui ne gère pas le dual... je vous laisse imaginer ! Lien vers le commentaire Partager sur d’autres sites More sharing options...
KouKaVaniLLa Posté(e) le 12 décembre 2005 Auteur Partager Posté(e) le 12 décembre 2005 Je me fais pas de soucis pour le dual core. Vu le montant à l'achat d'un X2 ou d'un 4000+ j'ai préféré choisir le X2 car cela va devenir money courante Et là ça va être génial ... ===> Yan le Flan Très jolie signature Lien vers le commentaire Partager sur d’autres sites More sharing options...
wizz Posté(e) le 12 décembre 2005 Partager Posté(e) le 12 décembre 2005 Looks like the software developers didn’t waste their time and modified the engine according to the latest innovations in the hardware world ...comme si les développeurs de logiciels n'ont pas gaspillé leur temps et ont modifié leur moteur graphique selon les dernières innovations du monde hardware... Lien vers le commentaire Partager sur d’autres sites More sharing options...
V_I_N_C_E_NT Posté(e) le 13 décembre 2005 Partager Posté(e) le 13 décembre 2005 Quelles sont les frequence d origine d un opteron 165 car si c est sa tu peux ajouter 1Ghz deja sans trop de mal mon enfant ! Lien vers le commentaire Partager sur d’autres sites More sharing options...
elclem Posté(e) le 13 décembre 2005 Partager Posté(e) le 13 décembre 2005 et puis apres... ton opty.. tu pourras te la peter parce que c'est le proco ultime ( hors Fx ) s939... Qui me troque son 146 contr mon beau 3200+? Lien vers le commentaire Partager sur d’autres sites More sharing options...
lefuretquicourtvite Posté(e) le 13 décembre 2005 Partager Posté(e) le 13 décembre 2005 ce qui n'a pas été mentioner c'e'st que le 165 a 1mo de cache par core, contre 512 ko pour le 3800+ x2 Lien vers le commentaire Partager sur d’autres sites More sharing options...
KouKaVaniLLa Posté(e) le 14 décembre 2005 Auteur Partager Posté(e) le 14 décembre 2005 c'est fait je viens de commander mon opteron 165 ..... ça va roxxer Lien vers le commentaire Partager sur d’autres sites More sharing options...
elclem Posté(e) le 14 décembre 2005 Partager Posté(e) le 14 décembre 2005 frimeur va! t'etonnes pas de retrouver ta fenetre fracassée Le pere noel sera passé chez toi en avance ! Lien vers le commentaire Partager sur d’autres sites More sharing options...
KouKaVaniLLa Posté(e) le 14 décembre 2005 Auteur Partager Posté(e) le 14 décembre 2005 frimeur va! t'etonnes pas de retrouver ta fenetre fracassée Le pere noel sera passé chez toi en avance ! Ben vu la rupture actuelle des stocks j'attend mais je l'ai déjà réservé chez mon fournisseur de matos informatique. Lien vers le commentaire Partager sur d’autres sites More sharing options...
ALCALOIDE Posté(e) le 15 décembre 2005 Partager Posté(e) le 15 décembre 2005 Enfin tout de même .... sisi ton X2 3800+ ets bien aussi mais avec l'opteron tu poourras o/c comme une bete ... Les X2 3800 dans leur ensemble s 'O/C très bien .Le mien tient très bien @2750 à 1.55v ! je suis limité ensuite par le Vcore autorisé par la CM. Niveau jeu un X2 3800+ c' est comme si t' avais un 3200+... Et un opteron 144 c'est comme si t' avais Quoi ? Et un opteron 165 c'est comme si t' avais quoi ? Et un 3700 c'est comme si t' avais quoi ? Ben le X2 3800 ,pour les joueurs invétérés (Dont je ne fais pas parti) entre lui aussi dans la gamme des cpus qui méritent un O/C .Sinon en effet ils ont peu d'intérêt pour les gamers! Puis sous Quake4, l'auteur pense que les développeurs n'ont pas chômé pour améliorer le moteur de Doom3 qui ne supporte pas le dual core.Looks like the software developers didn’t waste their time and modified the engine according to the latest innovations in the hardware world il dit justement que les développeurs n'ont même pas pris le temps de modifier le moteur pour qu'il tire parti du dual core.perso, le dual core, ça sera quand j'aurai beaucoup de sous, parce que le jour où j'en achèterai un, ce sera un gros, qui pourra être aussi puissant que mon 3700 actuel, même dans une appli qui ne gère pas le dual... je vous laisse imaginer ! Alors la bonne traduction c'est quoi ? Oui c'est wizz qui a raison.Donc ce moteur concu à l'origine pour Doom3 un peut de bricolage et hop ca roule pour les x2 ! Yan le Flan ton 3700 est il O/C ? parceque des X2,des gros, aussi puissant que ton 3700 il en existe quelques uns. Alors en ce qui concerne ce test de X-Bits, j'ose espérer que les jeux choisis ne soit pas le reflet du panel offert dans le commerce.Sur ces 5 jeux : - fear et call of duty 2 > la puissance du Cpu n'apporte quasiment rien au perfs du jeu.(on pourra toujour dire que le protocole de test n'est pas adapté et que ceci et que cela ..... ) mais une config avec 7800 GT quelque soit le proco on aura à peut près les mêmes perfs. - serious sam 2 et quake 4 > il semblerait que des optimisations qui tournent plus ou moins carré bénéficient au X2. - Enfin battlefield seul démontre l'intérêt du gros Proc puissant. Selon le rédacteur :Quoiqu'il en soit tous les cpu actuels ont une puissance suffisante pour faire tourner les jeux à un niveau de fps acceptable.Le goulot en terme de performance serait la CG. la conclusion ce cet article qui n'engage que le rédacteur. "I have to stress that we arrived at this conclusion having one of the today’s fastest and most powerful graphics cards in our system: NVIDIA GeForce 7800 GT. And if this powerful graphics card doesn’t require a super-fast CPU, then what can we say about the mainstream graphics solutions? It means that gamers with the mainstream or slower video subsystem shouldn’t even think of getting a powerful CPU: it will be just a waste of money. So, we can state that games are not the applications you should look at when shopping for the new CPU. There should be some other applications involved, and each of you should define the set of tasks for himself." "waste of money" il s'agit bien ici de gaspillage. Ce qui tend à me faire penser qu'à l'heure actuelle à budget relativement proche pouquoi pas du X2.C'est vrai ils sont chèrs mais quel pied ! Lien vers le commentaire Partager sur d’autres sites More sharing options...
Messages recommandés
Archivé
Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.