tib44 Posté(e) le 4 novembre 2015 Partager Posté(e) le 4 novembre 2015 moi non plus je n'ai pas de problème avec ma 970 sur Windows 10 et mon frère a une 760 sur windows 10 et pareil aucun problème Lien vers le commentaire Partager sur d’autres sites More sharing options...
Edtech Posté(e) le 4 novembre 2015 Partager Posté(e) le 4 novembre 2015 Moi je joue actuellement avec ma 970 (et un i7 6700) sur un écran 1080p a 60fps aux deniers jeux et ma carte gère 3 écrans, ma télé 1080p, mon 24pouces 1080p et mon 19pouces 1440*900 donc je pense qu'un deuxième écran est envisageable @Edtech c'est sure que si elle ne consomme réellement que 175W ca me parait bizarre 600w d'alim, mais bon c'est la fiche produit materiel.net il y a peu etre une erreur Je viens de voir qu'en jeux d'après les numeriques elle consomme pas 175W mais c'est plus 280W, http://www.lesnumeriques.com/carte-graphique/amd-radeon-r9-nano-4-go-p26959/test.html Je comprends mieux les 600W Tu fais confiance aux numériques toi ? regarde plutôt là : http://www.hardware.fr/articles/942-4/consommation-efficacite-energetique.html Ils indiquent 185W (attention, le mode Uber ce n'est pas le mode normal !) Lien vers le commentaire Partager sur d’autres sites More sharing options...
chaps Posté(e) le 4 novembre 2015 Partager Posté(e) le 4 novembre 2015 Pour ceux qui ne l'aurait pas lu : http://www.hardware.fr/news/14350/gtx-900-supportent-elles-correctement-directx-12.html Je suis d'accord pour dire qu'acheter maintenant est une mauvaise idée, mais là, sa carte est morte, donc... Quand je vois ce graphique : J'en conclue qu'une GTX980 s'en sort bien dans tous les cas, là où la R9 390X est à la ramasse en DX11. Sachant que ça semble correspondre à un pire cas pour Nvidia (puisque c'est le seul benchmark qui met en avant une telle différence à ma connaissance), j'en conclue donc qu'aujourd'hui il semble y avoir plus de jeux jouables avec une GTX980 qu'avec une R9 390X, et que pour les jeux DX12 à venir la différence ne sera pas forcément énorme (même s'il est possible que les AMD reprennent la tête). J'en conclue également que si c'est un bug de drivers immatures, la marge de progression est apriori bien plus importante chez les verts que chez les rouges. Et si la limitation est matérielle, et bah au pire en DX12 les perfs ne sont pas moisies comparées à celle de la concurrence. Bref, en lisant ce graphique, de mon coté j'en conclue qu'aujourd'hui il vaut mieux acheter une GTX980 qu'une R9 390X... Lien vers le commentaire Partager sur d’autres sites More sharing options...
Edtech Posté(e) le 4 novembre 2015 Partager Posté(e) le 4 novembre 2015 Lis toute la news, c'est plus subtile que ça, même si je te l'accorde, en DX11 nVidia a largement de l'avance. Le problème c'est la pérennité. Acheter une carte HDG nVidia aujourd'hui est encore une moins bonne idée qu'une AMD car la limitation est bien matérielle. Lien vers le commentaire Partager sur d’autres sites More sharing options...
chaps Posté(e) le 4 novembre 2015 Partager Posté(e) le 4 novembre 2015 Oui, mais à première vue la limitation matérielle de Nvidia permet à AMD de rattraper son retard en DX12, mais pas non plus de prendre vraiment de l'avance. Sachant qu'en plus il ne faut pas perdre de vue qu'il s'agit ici d'un bench qui se concentre justement sur la partie pour laquelle Nvidia est limité. Dans un vrai jeu complet, il n'est pas dit que la différence soit si flagrante. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Edtech Posté(e) le 4 novembre 2015 Partager Posté(e) le 4 novembre 2015 Oui, mais à première vue la limitation matérielle de Nvidia permet à AMD de rattraper son retard en DX12, mais pas non plus de prendre vraiment de l'avance. Sachant qu'en plus il ne faut pas perdre de vue qu'il s'agit ici d'un bench qui se concentre justement sur la partie pour laquelle Nvidia est limité. Dans un vrai jeu complet, il n'est pas dit que la différence soit si flagrante. Bah, si c'est comme d'habitude, nVidia va faire des pieds et des mains pour que ça ne soit pas utilisé (comme DX10.1 à l'époque) et oui, ça ne se verra jamais en jeu. Lien vers le commentaire Partager sur d’autres sites More sharing options...
chaps Posté(e) le 4 novembre 2015 Partager Posté(e) le 4 novembre 2015 Si sur un bench centré sur le problème on est à 44.1FPS contre 39.4FPS, je ne suis pas certain qu'il y aura besoin de faire un lobbying de ouf pour qu'en situation réelle les différences de perfs ne soient qu'anecdotiques Lien vers le commentaire Partager sur d’autres sites More sharing options...
bred94 Posté(e) le 4 novembre 2015 Partager Posté(e) le 4 novembre 2015 Bonjour, @Edtech c'est sure que si elle ne consomme réellement que 175W ca me parait bizarre 600w d'alim, mais bon c'est la fiche produit materiel.net il y a peu etre une erreur Les recommandations constructeurs en terme de puissance d'alimentation ne sont pas à prendre au pied de la lettre ^^. Je pense qu'elles prennent également en compte l'existence d'alimentations incapable de tenir leur propres specs, la vieillesse des alim (perte de rendement), etc. C'est pour avoir un discours "safe" que les constructeurs surdimensionnent les besoins de puissance côté alimentation. Je viens de voir qu'en jeux d'après les numeriques elle consomme pas 175W mais c'est plus 280W, http://www.lesnumeri...26959/test.htmlJe comprends mieux les 600W Tu n'as pas du lire en entier, les consommations relevées par lesnums, dans leurs tests de CG, concernent toujours (en tout cas jusqu'à maintenant) celle de la tour entière... Lien vers le commentaire Partager sur d’autres sites More sharing options...
tib44 Posté(e) le 4 novembre 2015 Partager Posté(e) le 4 novembre 2015 Oui je pense qu'il prennent en compte le fait que tu es un CPU AMD qui consomme genre 130W alors que tu peux très bien avoir un cpu intel a 60w sinon autant pour moi pour le test lesnums tu dois avoir raison Lien vers le commentaire Partager sur d’autres sites More sharing options...
Carpe_Diem Posté(e) le 4 novembre 2015 Partager Posté(e) le 4 novembre 2015 Le plus fiable à mon avis Et ça donne un total de 400W en charge avec la GTX 970. Donc pas de souci avec une Be Quiet 520W si elle a un connecteur PCI-e 6 broches et un de 8 broches. Sinon, AMD comme nVidia supporte Dx12. C'est une histoire de feature Level qui est + élevé chez AMD mais aussi une histoire de traitement asynchrone moins efficace chez nVidia (Asynchrone Compute). Et il y a fort à parier que les développeurs tireront vers le bas pour être le + compatible possible avec les deux camps. Et pas de jeux Dx12 avant fin 2016. Conclusion, pour le moment, Dx12, perso, je n'y attache pas plus d'importance que ça. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Messages recommandés
Archivé
Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.