Aller au contenu

[RESOLU] Starcraft II et les cartes graphiques


illidanPowa

Messages recommandés

Salut amis INpactiens.

Je viens d'acquérir Starcraft II :D et le jeu rame horriblement chez moi, je m'attendais vraiment pas à une telle catastrophe :mdr2: Blizzard m'avait habitué à mieux par le passer m'enfin... bon

Tout d'abord, les données d'entrée, ma config :

- Core2 Duo E5200 @2.81Ghz (pas un foudre de guerre mais ça devrait tenir le coup quand même)

- 2 Go de ram (je ne sais plus trop laquelle exactement)

- une pov' HD 4350 en carte graphique :francais:

- un écran 24" en 1920*1200

Là vous me dites, ce type est fou :dd: , une HD 4350 pour tourner avec une telle résolution, ben ouais c'est là que j'ai le soucis, il va me falloir changer de carte graphique.

Hors, je n'ai pas l'intention de dépenser une fortune dans ce genre de "détails".

Donc voilà, ma question est quelle carte graphique me conseillez-vous pour pouvoir jouer avec les détails à fond ou presque à Starcraft II, avec votre retour d'expérience bien sur.

Et en prenant en compte le problème de "Stacraft II m'a tuer" .

Mon budget serait autour de 150¤.

Lien vers le commentaire
Partager sur d’autres sites

Effectivement, tu es fou, et le jeu est très bien optimisé. Une HD4350, c'est ce qui vient juste après un IGP de type 785G (HD4200), et ce n'est pas fait pour jouer.

Pour du 1920x1200, il faut au moins une HD5770.

Non je suis pas fou, mais ma carte avait laché, donc en attendant SC II, ben je me suis dis que j'allais prendre une carte pas cher pour upgrade au bon moment.

J'ai repéré celle-là et tu penses qu'en effet elle devrait "suffire"? J'ai peur que ce soit un peu juste ;)

En tout cas, elle est dans mon budget.

> SiskoKorobase : pourquoi tu dis que je vais etre cpu limited, c'est pas un foudre de guerre mais quand même!!! tu le penses vraiment?

Pourquoi dis-tu que ce post n'est pas à sa place? :transpi:

Lien vers le commentaire
Partager sur d’autres sites

J'aurais tendance à dire qu'il te faut changer le couple CG-CPU car ton CPU ne sera pas assez puissant.

Starcraft II est un vrai monstre de programmation bâclée qui va entacher la réputation de Blizzard, alors le faire fonctionner sur une vieille config.

Faudrait retrouver la config minimale proposée par Blizzard pour le jeu (j'ai la boite j'irai voir ce soir).

Actuellement, ma config est la suivante :

Club 3D GeForce 8800 GTS 640 Mo

Intel® Core™ 2 Duo E6750

Gigabyte GA-N650SLI-DS4

Samsung Spinpoint T166 SATA - 400 Go - 16 Mo

Samsung SyncMaster 206BW (1680x1050)

G.Skill Value DDRII 2 x 1 Go PC6400 NQ

Et j'atteins à peine les détails Full sur un écran 1680x1050, après y a Ultra. Avec du ramage à qui mieux mieux lors d'un alt tab ou lors du chargement des maps ou lors de l'exit du jeu. Mais ça c'est pareil pour tout le monde, preuve encore de la mauvaise programmation.

Par contre, ayant lu la news PCI sur "Blizzar m'a tuer", j'ai ouvert mon PC et tout nettoyé à fond, et fait la manip @l'arach préconisée, et le PC survit donc je suis heureux pour l'instant.

Malgré que j'ai une 8800GTS qui n'ait apparemment pas bonne réputation avec SC2.

PS : la bonne section est dans Conseil d'Achats.

Lien vers le commentaire
Partager sur d’autres sites

je déplace :chinois:

j'y joue soit en 1440*900 soit en fenêtré tout en élevé a part post traitement (késako ?) , reflets activé avec une bête 8600 MGT (sli non activé)

C'est vrai que cette rubrique est plus adaptée :tranpsi:

Mais quelle est ton proc???

Pour le cpu limite du j'ai du mal a y croire, ok mon cpu n'est pas un foudre de guerre, mais la il et loin d'être a 100% pendant le jeu, si le chargement ou le alt+tab est long je m'en fou.

Ce que je veux c'est pas de lag en plein écran. Après ce qu'il y a autour je m'en fou.

Remarquez la hd 5770 a l'air de vraiment dépoter ^^

La j'arrive quand meme a jouer en 1360xjesaispluscombien et j'ai un très léger lag limite supportable.

Pourtant mon cpu n'est pas a fond, mais c'est vrai que de la a arriver a 1920 :transpi: y'a un grand pas a franchir.

Me reste que ce cpu est une bête d'overclock, j'ai donc encore cette carte dans la manche au cas ou. Va juste falloir l'équiper pour ça car j'ai encore le ventirad d'origine.... :transpi:

Donc je peux partir sur cette carte et éventuellement upgrader plus tard le reste.

Ça devrait quand meme améliorer les choses. Nan?

>kenpashi 2.81 parce que j'ai pas de quoi évacuer correctement la chaleur. Mais avec un bon ventirad ça devrait passer bien plus haut.

D'après ton lien, une hd 5750 serait suffisante, par contre niveau cpu ça fait peur :dd: pourtant j'ai pas la sensation que ça le mets a genoux pour le moment.

Rien que le passage de xp a 7 m'a fait gagner car ma carte actuelle est optimisée dx11 et qu'il parait qu'il est plus performant. De plus, 7 gère mieux la ram. On s'en la différence. Je suis en dual boot entre les 2 car j'ai mis 7 pour essayer et vraiment on s'en la différence de performance a config égale.

Configuration recommandée

- Windows Vista/Windows 7

- Processeur : Dual Core 2.4Ghz Processor

- Carte vidéo : 512 MB NVIDIA GeForce 8800 GTX or ATI Radeon HD 3870 or better

- 2 GB RAM

 

Donc je suis plutôt dans les clous sauf la cg.

Lien vers le commentaire
Partager sur d’autres sites

Pour le CPU, il n'y a qu'à regarder les performances sous Lost Planet et World in Conflict, et on se rend compte qu'un petit overclocking ne fait pas de tort.

Être CPU limited, ça ne pas nécessairement dire avoir une grosse charge processeur: ça dépend de la vélocité à traiter les informations.

Les informations à traiter par la carte graphique passent par le CPU, alors si la carte graphique traite ces informations plus rapidement que le processeur est capable de les lui fournir, on est CPU limited.

Dans le cas d'un E5200, la faible quantité de cache (qui sert de tampon aux informations envoyées par la RAM) constitue un goulot d'étranglement pour ces informations à traiter par le CPU, alors on est obligé de l'overclocker pour accélérer le traitement de ces données et libérer la place pour les suivantes.

Lien vers le commentaire
Partager sur d’autres sites

Pour le CPU, il n'y a qu'à regarder les performances sous Lost Planet et World in Conflict, et on se rend compte qu'un petit overclocking ne fait pas de tort.

Être CPU limited, ça ne pas nécessairement dire avoir une grosse charge processeur: ça dépend de la vélocité à traiter les informations.

Les informations à traiter par la carte graphique passent par le CPU, alors si la carte graphique traite ces informations plus rapidement que le processeur est capable de les lui fournir, on est CPU limited.

Dans le cas d'un E5200, la faible quantité de cache (qui sert de tampon aux informations envoyées par la RAM) constitue un goulot d'étranglement pour ces informations à traiter par le CPU, alors on est obligé de l'overclocker pour accélérer le traitement de ces données et libérer la place pour les suivantes.

Décidément tu es vraiment riche en bons liens :chinois:

Bon je pars sur cette carte et je vais essayer de tirer un peu sur le cpu pour voir ce qu'il a dans le ventre.

En tout cas merci a tous et surtout a toi pour ces infos.

Ps: on a le meme écran :transpi:

Lien vers le commentaire
Partager sur d’autres sites

  • 1 mois après...

pour le cpu c'est celui du tosh dans ma sign (t9300) pas besoin d'avoir une bête de course pour y jouer de manière fluide et jolie :) ouai ma config se fait un peut vieillissante mais j'ai pas vraiment les sous pour en changer pour le moment (à quand la suite des aventures ah on me dit que je n'ai pas fini le jeu :transpi:)

un jour j'aurais un clevo x7200...quand je gagnerais au loto

Lien vers le commentaire
Partager sur d’autres sites

  • 8 mois après...

Effectivement, tu es fou, et le jeu est très bien optimisé. Une HD4350, c'est ce qui vient juste après un IGP de type 785G (HD4200), et ce n'est pas fait pour jouer.

j'ai joué à starcraft 2 avec mon pc actuel : une hd4650... pour ordinateur portable ! en 1600*900

Lien vers le commentaire
Partager sur d’autres sites

Archivé

Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.

×
×
  • Créer...