Aller au contenu

Conseils pour nouvelle config


chaps

Messages recommandés

Hello !

Ma config actuelle commence à dater (Xeon W3680 + GTX 980), et il est temps de penser à un upgrade. Mon écran ne supporte que du DVI-D Dual Link, donc il va également falloir le changer (après 15 ans de bons et loyaux services).

Je n'ai pas vraiment de limite de budget, mais histoire que ça ne devienne pas non plus n'importe quoi, disons pas plus de 12.000€ pour la tour + l'écran (ça devrait quand même laisser de la marge). Mais si c'est moins, je prends aussi 😅.

Mes critères sont :

- Des perfs gaming aussi bonnes que possible (y compris en VR)

- Un écran 4K HDR d'environ 30". Je suis pas fan des formats trop "wide" ou courbés. Le support d'un frame rate variable (gsync ou équivalent) est important.

- Au moins 64Gio de RAM, mais si possible plutôt 128Gio (j'en bouffe plein)

- Une consommation électrique raisonnable. J'habite sous les tropiques, je n'ai pas besoin d'un chauffage. Et j'aimerai éviter d'avoir le bruit d'un hélicoptère en continu avec les ventilos.

- Pour la consommation électrique, j'ai vu que la RTX 4090 n'est pas si mal si on limite son TDP à 50% ou 60%. Ce genre de solutions me conviennent.

- Un setup qui utilise autant que possible les derniers standards, même si le rapport perf/prix est moins intéressant. En fait le rapport perfs/watt est un critère plus important que le rapport perfs/prix pour moi.

- Niveau stockage, j'ai pas mal de HDD que je peux recycler pour les données qui ne nécessitent pas de perfs. Pour l'OS et les jeux, un SSD nvme de 4To devrait faire l'affaire je pense.

Je dois avouer que ça fait quelques années que je n'ai pas suivi l'actualité hardware, je suis un peu perdu sur les dernières nouveautés. Par exemple niveau carte mère je n'ai aucune idée des derniers chipsets et des dernières normes. Donc si certains experts parmis vous pouviez me donner quelques conseils pour orienter mes recherches, ça serait super sympa 😀 !

Merci d'avance de m'avoir lu, et pour tous les conseils que vous pourrez m'apporter. Ça n'est pas très urgent, je pense que je changerai ma config en début / milieu d'année prochaine. Donc si y'a des trucs sympas sur le point de sortir, je peux attendre un peu 👍.

Lien vers le commentaire
Partager sur d’autres sites

2 - 3 pistes :mrgreen:

*) le meilleur SSD NVMe est le Kingston KC3000 et il n'a pas 1 prix abusé comme le WD Black ou les Samsung. 

*) Actuellement le mieux c'est 1 plateforme Intel. Niveau processeur, je pense à 1 processeur Raptor Lake  i5-13600 ou  i7-13700. D'après ce que j'ai vu, tous les processeurs n'arrivent pas à suivre avec la RTX 4090 en 1080p et 1440p. Donc, sauf si tu joues en 4K, le processeur avec cette carte graphique n'est pas trop important (juste 1 récent)

Attention : la RTX 4090 a 1 connecteur 12 pins qui crame. Regarde les internets, c'est 1 grosse polémique. Tu as trop de fils qui arrivent sur les 12 pins, et les soudures sautent si le câble est plié proche du connecteur.

Niveau plateforme part sur du Z790 + DDR 5 5600 Mhz  CL 30 ou 28 : tu auras de l'USB 20 Gb/s (type C), USB 10 Gb/s (arrière et en façade), ThunderBolt 40 Gb/s, 1 gros lien DMI (entre le chipset et le processeur), 1 étalage d'alimentation balèze et 1 port PCI Express 5.0 (même s'il ne sert à rien actuellement)

Le premier prix carte mère Z790 actuellement (mi-novembre 2022) est l'Asus PRIME Z790-P à 300 €uros. Mais le Black Friday - Cyber Monday arrivent.

*) Avec 128 Go de mémoire, il te faudra prendre 4x 32 Go (soit 2 kits de 2 barrettes soit 1 kit de 4 barrettes (<- cela ne semble pas exister en DDR 5))

*) Pour 1 refroidissement, c'est 1 watercooling AIO obligatoire avec le i7-13700 (il a des boosts de performance à 230 Watts). Avec le i5-13600, tu peux prendre 1 ventirad 2 tours et tu as le choix entre le Noctua NH-D15 et le be quiet! Dark Rock 4 Pro.

 

Pour le reste, tu peux prendre le dissipateur thermique SSD SABRENT SB-HTSK et la pâte thermique THERMAL GRIZZLY Kryonaut.

THERMAL GRIZZLY fait de la pâte thermique en métal liquide (comme la PS5 si Sony ne l'a pas viré) très efficace mais aucune expérience avec (mais j'ai lu qu'il faut changer tous les ans et faire attention à surtout ne pas en mettre sur la carte mère)

Modifié par foetus
Lien vers le commentaire
Partager sur d’autres sites

Salut foetus !

Merci beaucoup pour ton retour rapide, je vais regarder ça. 

Je suis un peu étonné que tu proposes une plateforme Intel, il me semblait qu'AMD était plus intéressant en ce moment. Mais je me trompe peut être, c'est bien pour ça que je demande conseil 😅.

Pour la 4090, je suis au courant des problèmes de connecteurs. Mais je n'ai pas dit que je veux absolument une 4090, j'ai juste dit que c'est envisageable si ça tient la route côté perfs et consommation (donc si c'est une 4090, il faudra l'underclocker).

Pour la résolution, oui, comme mentionné je veux un écran 4K, et jouer en 4K. Par contre apriori 60Hz devraient me suffit, même si je ne suis pas contre un écran 120Hz. Au delà par contre je ne vois pas la différence.

Pour le refroidissement, je ne suis pas très chaud pour du water-cooling. Je préférerais à la rigueur un truc un peu moins puissant et qui chauffe moins. Ou alors underclocker le CPU, et prendre un gros ventirad. Et puis changer la pâte thermique tous les ans, bof bof. Encore une fois je préfère un truc un truc qui chauffe moins et qui ne me prendra pas la tête 😅

Lien vers le commentaire
Partager sur d’autres sites

Il y a 4 heures, foetus a dit :

Attention : la RTX 4090 a 1 connecteur 12 pins qui crame. Regarde les internets, c'est 1 grosse polémique. Tu as trop de fils qui arrivent sur les 12 pins, et les soudures sautent si le câble est plié proche du connecteur.

ce n'est pas généralisé, par exemple GN n'a pas réussi à reproduire le problème que tu décris et qu'à eu igor labs par exemple donc on ne peux pas conclure pour l'instant cela ressemble plus à un problème d'un fabricant de cet adaptateur que un cas général. De toute façon s'il change sa config autant prendre une alim avec un 12pin direct comme ça pas de soucis d'adaptateur

tu lui proposes du cpu grand public quand il est en xéon donc rien à voir et aussi pas en rapport avec les 128Go de ram demandé il lui faut du hedt type xéon avec du quad channel. Les xeon saphirre rapids ws sortent le 10 janvier 2023 avec support du quad channel ddr5 et 128 lignes pcie 5.0 avec le nouveau chipset W790

honnêtement vu le budget je partirai sur du full watercooling plutôt qu'un AIO simple faut voir s'il est ok par contre

+1 par contre pour les pates thermique kryonaut et conductonaut (metal liquide) qui sont excellentes c'est ce que j'ai. Par contre non il n'y a pas besoin de la remplacer tous les ans il n'y a pas de dégradation de performances non plus au bout de 4ans

si je resume @chaps est ce que tu veux rester en plateforme hedt comme tu as actuellement ? ou passer en grand public qui sera bien moins cher mais c'est différent il y aura bien moins de coeurs mais qui tournent à plus haute fréquences, il n'y a pas de quad channel ram donc grosse perte de perf en débit brut ram.

est ce que tu es ok pour du full watercooling ?

pour la carte graphique je pense aussi que la 4090 sera parfaite avec limite du TDP à 60% comme montré par derBaueur fait perdre presque rien en perf pour une conso bien réduite.

pour l'écran 30" ça te suffit ? Moi je suis passé en 43" pouces 4k HDR sur du OLED et c'est juste fantastique

Lien vers le commentaire
Partager sur d’autres sites

Salut ashlol !

Pour la partie watercooling, je préfèrerai vraiment un truc non prise de tête avec entretien minimal. Donc un bon gros ventirad bien quali, apriori ça me correspondrait mieux (par exemple mon actuel Noctua NH-U12P tourne pratiquement depuis 12 ans H24, sans faire de bruit outre mesure et ça me va parfaitement).

Pour la partie Xeon, en fait je suis passé sur un Xeon pour remplacer mon i7 950 parce qu'il y avait des Xeon pas cher d'occasion. Donc pour 150€ j'ai gagné 2 cœurs et 300MHz, ça valait le coup (et le coût). J'utilise mon PC de temps à autre pour faire du dev (C++), donc plus de cœurs est appréciable. Mais après si c'est pour dépenser 2000€ de plus pour un gain marginal, ça ne vaut pas forcément l'investissement. Mais si d'un autre coté ça permet d'avoir une meilleure carte mère, avec un meilleur chipset et de meilleurs composants, qui supportera de tourner H24 pendant des années sans problèmes, ça peut m'intéresser. C'est un autre critère important pour moi, je préfère payer plus cher du matos moins puissant, mais qui ne chauffe pas outre mesure et surtout est fiable. Donc pour l'alim par exemple, je compte bien prendre une alim avec des composants de qualité qui peuvent durer au moins 10 ans H24 sans broncher.

En gros je préfère une belle citadine bien finie avec de bonnes perfs, plutôt qu'une grosse F1 qui va tout défoncer en bouffant 200L au 100km et qui sera rincée après 10h d'utilisation 😅.

Pour la partie perf en débit brut ram, je pense que ça n'est pas forcément primordial pour moi. Coté RAM, en fait j'ai plus besoin de quantité que de perf bruts.

Et enfin pour la partie écran, j'habite à HK et ici les apparts sont plutôt du genre petits. Je ne pense pas avoir le recul suffisant pour un écran de 43", donc je préfèrerai rester aux alentours de 30", qui est une taille qui me convient bien. Et j'ai également un 24" en moniteur secondaire d'appoint, quand je code par exemple (le double écran pour développer, c'est un must-have).

 

 

 

 

Lien vers le commentaire
Partager sur d’autres sites

ok compris

pour les écrans je dev aussi et j'ai viré un 30 en 2k et un 24 1k comme toi pour passer à 1 43" 4k et honnêtement c'est parfais du fait du 4k il n'y a pas besoin de recul supplémentaire comme les pixels sont très petit sur un 43" 4k. j'ai les yeux à 80cm de l'écran et c'est confortable. Le truc relou avec 2 écrans c'est quand une fenêtre UAC pope elle arrive en général pas sur le bon écran idem les fenêtres de setup et s'il y a une résolution différentes les interfaces le gèrent pas toujours bien. En plus avec les raccourcis Windows pour basculer sur le coté droit ou gauche une fenêtre c'est comme si on basculait d'un écran à l'autre sans inconvénient en fait je trouve. C'est un point de vu personnel et je comprends très bien si tu veux rester en 30".

Lien vers le commentaire
Partager sur d’autres sites

Je pense que pour le dev, effectivement un unique 43" pourrait éventuellement remplacer un combo 30" + 24". Mais pour le jeu pour le coup, ça ne fait pas trop grand ? Autant pour coder on concentre notre regard sur un partie bien spécifique, donc c'est pas un problème de tourner la tête de temps en temps, mais pour le jeu c'est quand même mieux de pouvoir regarder l'écran dans son ensemble sans tourner sans cesse la tête et/ou les yeux, non 😅?

Lien vers le commentaire
Partager sur d’autres sites

Actuellement c'est 1 problème : les constructeurs "surcadencent".

NVidia l'a fait avec la RTX 4090 : c'est pour cela qu'il faut réduire sa puissance.

AMD : la dernière génération 7000 (sortie en octobre 2022) a été conçue pour fonctionner à 95 °C. Il faut activer le mode eco

Intel : depuis 2 génération (12 ou 13) les i7 ont des boosts de performances à + de 200 W (le i7-13900 c'est 320 Watts). On peut les limiter.

Donc le dernier processeur qui a de bonnes performances, ne chauffe pas trop et consomme peu, c'est le Ryzen 5 5600X

 

Avec les processeurs Intel, il faut faire attention avec 4 barrettes (2 kits). Il faut respecter les fréquences officielles (3200 Mhz pour la DDR4, 4800 Mhz ou 5600 MHz pour la DDR5) sinon les profils XMP ne passent pas et le surcadencage a du mal à passer (par exemple prendre de la DDR4 à 3600 Mhz, le "sweet spot")

Modifié par foetus
Lien vers le commentaire
Partager sur d’autres sites

Il y a 3 heures, foetus a dit :

Donc le dernier processeur qui a de bonnes performances, ne chauffe pas trop et consomme peu, c'est le Ryzen 5 5600X

Dommage, je préférerais éviter de partir sur une plateforme déjà en fin de vie 😥.

Il y a 3 heures, foetus a dit :

Avec les processeurs Intel, il faut faire attention avec 4 barrettes (2 kits). Il faut respecter les fréquences officielles (3200 Mhz pour la DDR4, 4800 Mhz ou 5600 MHz pour la DDR5) sinon les profils XMP ne passent pas et le surcadencage a du mal à passer (par exemple prendre de la DDR4 à 3600 Mhz, le "sweet spot")

Merci, c'est bon à savoir. Je me souviens d'avoir eu un problème similaire quand j'étais passé à 4 barrettes sur mon Core 2 Duo E6600. J'avais dû régler la tension manuellement dans le bios, sinon ça crashait régulièrement. Mais encore une fois je n'ai pas de problème à rester à fréquences "@stock", je ne cherche surtout pas l'overclocking 😅.

Il y a 3 heures, foetus a dit :

AMD : la dernière génération 7000 (sortie en octobre 2022) a été conçue pour fonctionner à 95 °C. Il faut activer le mode eco

Intel : depuis 2 génération (12 ou 13) les i7 ont des boosts de performances à + de 200 W (le i7-13900 c'est 320 Watts). On peut les limiter.

Si ce sont juste de brefs pics, ça peut encore passer (mais faut avoir une alim capable de les encaisser). Mais un CPU qui bouffe 320W en continu, très peu pour moi... Quand tu dis qu'on peut les limiter, est-ce que ça veut dire qu'on peut définir un TDP maximal qu'on ne veut pas dépasser, comme la 4090 ? Si c'est le cas, pourquoi pas, mais faut voir l'impact sur les perfs. Si ça reste limité (genre -10%), ça paraît jouable. Si c'est -50% de perfs par contre, va falloir trouver autre chose 😔.

Lien vers le commentaire
Partager sur d’autres sites

il y a 22 minutes, chaps a dit :

Si ce sont juste de brefs pics, ça peut encore passer (mais faut avoir une alim capable de les encaisser). Mais un CPU qui bouffe 320W en continu, très peu pour moi... Quand tu dis qu'on peut les limiter, est-ce que ça veut dire qu'on peut définir un TDP maximal qu'on ne veut pas dépasser, comme la 4090 ? Si c'est le cas, pourquoi pas, mais faut voir l'impact sur les perfs. Si ça reste limité (genre -10%), ça paraît jouable. Si c'est -50% de perfs par contre, va falloir trouver autre chose 😔.

tiens derbaueur explique tout et honnètement en mode "eco" 90W les cpu marchent pas mal.

https://www.youtube.com/watch?v=H4Bm0Wr6OEQ

 

Lien vers le commentaire
Partager sur d’autres sites

Hum, quand on limite sa consommation à 90W (voir même 70W), il n'a vraiment pas l'air mal ce 13900K 😍 !

Mais franchement je ne comprends pas pourquoi les constructeurs sont partis dans un délire de CPU à 320W et GPU à 450W, c'est n'importe quoi ! Surtout quand on voit que ça ne fait gagner que 10% à 15% de perfs par rapport à la même puce limitée à 50% de consommation électrique...

Si les gens veulent OC pour grapiller des cacahouètes au prix d'une consommation délirante, pourquoi pas. Chacun son kiff. Mais ça ne devrait pas être le réglage par défaut 😅.

Lien vers le commentaire
Partager sur d’autres sites

il y a 23 minutes, chaps a dit :

Si les gens veulent OC pour grapiller des cacahouètes au prix d'une consommation délirante, pourquoi pas. Chacun son kiff. Mais ça ne devrait pas être le réglage par défaut 

entièrement d'accord avec toi. C'est en fait depuis 2 gen comme l'a dis @foetus tous ce sont mis à sortir tout ce que le cpu pouvait faire de base donc avec conso et température délirante. En fait cela reviens à dire que maintennat l'OC est fait de base et si tu veux une conso faible et perf/watt correcte il faut limiter soit même le TDP aussi bien des CPU que des GPU.

il y a 26 minutes, chaps a dit :

GPU à 450W

c'est même encore pire que ça pour la 4090 elle peux monter à 600W. c'est juste du délire.

Donc on part sur un 13900K et une 4090 les deux avec limite de TDP à 125W sur le 13900K et 300W sur la 4090 comme ça tu perds tout juste 10% de perf mais économise plus de 50% de conso ?

Ou alors tu veux attendre les xeon ws de mi janvier pour etre en plateforme hedt qui a quand même de gros arguments pour comme le quad channel, les perf ram, le nombre de coeur qui au final sont super important pour avoir plusieurs vm et faire du "content creation".

Lien vers le commentaire
Partager sur d’autres sites

Je plussoie tout à fait tes propos, je vois qu'on est sur la même longueur d'onde 🤗.

il y a 18 minutes, ashlol a dit :

Donc on part sur un 13900K et une 4090 les deux avec limite de TDP à 125W sur le 13900K et 300W sur la 4090 comme ça tu perds tout juste 10% de perf mais économise plus de 50% de conso ?

En fait de ce que j'ai vu jusqu'ici, j'irai même plus loin en limitant le 13900K à 70W et la 4090 à 220W. Après évidemment faut voir à l'usage, mais de prime abord ça a l'air pas mal 👍. Et ça a aussi l'avantage de laisser de la puissance potentielle sous la pédale en cas de besoin ponctuel spécifique.

il y a 20 minutes, ashlol a dit :

Ou alors tu veux attendre les xeon ws de mi janvier pour etre en plateforme hedt qui a quand même de gros arguments pour comme le quad channel, les perf ram, le nombre de coeur qui au final sont super important pour avoir plusieurs vm et faire du "content creation".

Comme dit plus haut, je ne suis pas pressé. Je vais enfin être de passage en France pour les fêtes de fin d'année (ça fait 4 ans que je n'ai pas mis les pieds en France), en ce moment c'est plus ça ma priorité 😅. Pour le changement de config, je verrai tranquillement à mon retour à HK, sachant que fin janvier y'a le nouvel an chinois également. Donc je ne me déciderai probablement pas avant février au plus tôt.

Du coup ça laisse l'occasion de voir ces fameux Xeon ws dont tu parles, et du coup on verra en fonction de ce qu'ils valent (en perf, en consommation, mais aussi en prix. Je gagne très bien ma vie, mais je n'ai pas envie non plus de dépenser beaucoup plus cher si je n'y ai pas d'intérêt 😅).

Lien vers le commentaire
Partager sur d’autres sites

Le 13/11/2022 à 09:30, chaps a dit :

Je pense que pour le dev, effectivement un unique 43" pourrait éventuellement remplacer un combo 30" + 24". Mais pour le jeu pour le coup, ça ne fait pas trop grand ? Autant pour coder on concentre notre regard sur un partie bien spécifique, donc c'est pas un problème de tourner la tête de temps en temps, mais pour le jeu c'est quand même mieux de pouvoir regarder l'écran dans son ensemble sans tourner sans cesse la tête et/ou les yeux, non 😅?

Bon retour !

 C'est ce que j'ai fait : virer le 34"(21/9)+17" (vertical) par un 43'' (4k). Je ne joue jamais en full screen, ça n'est pas super agréable car je ne vois pas correctement les bords sans tourner la tête : trop près du moniteur.
Pour coder, par contre, avoir 2x plus de lignes c'est un plaisir.

Lien vers le commentaire
Partager sur d’autres sites

Il y a 7 heures, ashlol a dit :

ok pas de soucis remet un up à ce moment là alors.

👍

Il y a 5 heures, Aloyse57 a dit :

Bon retour !

Pour vous jouer un mauvais tour 😋 ? J'espère que tu vas bien, ça fait un bail 😄.

Il y a 5 heures, Aloyse57 a dit :

Je ne joue jamais en full screen

Les perfs sont pourtant généralement meilleures en full screen qu'en fenêtré. Du moins dans la plupart des cas, y'a toujours des exceptions.

Il y a 5 heures, Aloyse57 a dit :

Pour coder, par contre, avoir 2x plus de lignes c'est un plaisir.

C'est sûr. Mais un écran 4K reste un écran 4K. Donc un 30" affiche autant de lignes qu'un 43". C'est juste que c'est écrit plus petit 😁.

Je vais quand même réfléchir à l'option du 43" pour remplacer le double écran vu que vous êtes déjà deux à en faire la promotion 👍.

Lien vers le commentaire
Partager sur d’autres sites

Il y a 7 heures, chaps a dit :

Les perfs sont pourtant généralement meilleures en full screen qu'en fenêtré. Du moins dans la plupart des cas, y'a toujours des exceptions.

Je pense qu'@Aloyse57 voulais dire qu'il choisit une résolution qui laisse des "bords noirs" sur les côtés pour avoir l'image du jeu au centre, ça reste certainement en full screen mais résolution < écran.

Sinon, j'avais repéré ces benchs: Test • AMD Ryzen 9 7950X, 7900X, Ryzen 7 7700X & Ryzen 5 7600X : Zen 4, AM5, X670E, B650E & DDR5 - Le comptoir du hardware (comptoir-hardware.com)

Bel article, il montre que les derniers ryzen ne donnent pas tellement plus de perfs 105W que à 65W. Je trouvais que le 7600X et surtout le 7700X à 65W sont très intéressants (7600X pour le jeu, 7700X pour plus de dev/VM).

Lien vers le commentaire
Partager sur d’autres sites

Merci pour le lien, effectivement les Ryzen à 65W ont l'air pas mal. Mais j'ai l'impression que le 13900K à 70W est quand même devant (je me trompe ?).

Après faut aussi voir les différences côté cartes mères et chipsets, et là je dois avouer que je n'ai aucune idée de s'il y a une réelle différence entre Intel et AMD, et si oui lequel est meilleur.

Lien vers le commentaire
Partager sur d’autres sites

Non le lien n'est pas terrible :mrgreen:, il ne confronte pas les Ryzen 7000 et les Intel 13 (Raptor Lake)

13th Gen Intel Core Processors Content Creation Review : le i5-13600 est le meilleur pour le milieu de gamme.

Test : Intel Raptor Lake i9-13900K et i5-13600K

Pour les Ryzen 7000, il ne sont bon qu'avec Winzip en décompression :troll:

1 précision, il n'y a plus vraiment de course aux nombres de cœurs. Depuis la génération 12 (Alder Lake) et 13 (Raptor Lake), Intel a introduit l'architecture big.LITTLE : 1 mélange de gros cœurs/ p-cores/ performance cores (avec de l'hypertheading) et de petits cœurs/ e-cores/ efficicent cores.

Par exemple le i5-13600 (6 p-cores + 8 e-cores, 20 threads) est presque 1 i7-12700 optimisé (8 p-cores + 4 e-cores, 20 threads) : juste avec les gros logiciels, les 8 gros cœurs font la différence.

KitGuru a fait 1 test du i5-13600 en limitant sa consommation Intel Core i5-13600K Review

 

Dans les jeux, c'est kif-kif : VCG a fait 1 vidéo avec i5-13600/ i5-12600 vs 7700X/ 58003D/ 3600 avec 1 RTX 4090

D'accord tu as 20-25% de + mais tu es déjà a + de 80 fps. C'est + la carte graphique qui fait les performances et ton écran qui limite.

 

Pour la plateforme avec AMD, AM5/ Ryzen 7000 c'est la première génération DDR5 et PCI Express 5.0. J'ai vu qu'il y a quelques soucis de compatibilité DDR5.

Du côté d'Intel, le chipset Z790 permet d'avoir @stock de la DDR5 5600 Mhz

DDR4 vs. DDR5 on Intel Core i9-12900K Alder Lake Review

Test mémoire DDR5 G.Skill Trident Z5 RGB 2 x 32 Go 5600 c28

Entre de la DDR4 3200 Mhz CL14 chère et de la DDR5 5600 Mhz + performante, le choix semble vite fait :mrgreen:

Pour la DDR4 faible latence, elle n'est bonne qu'avec SuperPI :troll:

Attention, la DDR5 5600 Mhz CL28 fonctionne à 1.45V au lieu de 1.2/ 1.35V. Avec 4 barrettes (2 kits), j'aurai 1 petite crainte.

Le seul regret : l'absence des SSDs NVMe PCI Express 5.0 :reflechis: mais pas de problème pour 1 carte graphique PCI Express 5.0 qui n'existe pas encore.

 

1 écran 43 pouces, son + gros problème l'uniformité. Pour de la bureautique, développement ce n'est pas trop grave, mais pour du multimédia (vidéo, film, jeu), cela peut être gênant.

Par exemple, le moniteur Asus ROG Strix XG43UQ (dalle VA) : HDR1000, sRGB 125%, 144 Mhz ... ces spécifications sur displayspecifications.com

Mais le test de Clubic est très clair Test Asus ROG Strix XG43UQ : un grand moniteur 4K et HDR pour remplacer notre téléviseur ?

Je partirais + sur 1 moniteur 32 ou 34 pouces [en double écran] pour 1 meilleure uniformité, 1 HDR 600 inférieur mais mieux fait :mrgreen:

Modifié par foetus
Lien vers le commentaire
Partager sur d’autres sites

Il y a 9 heures, chaps a dit :

Merci pour le lien, effectivement les Ryzen à 65W ont l'air pas mal. Mais j'ai l'impression que le 13900K à 70W est quand même devant (je me trompe ?).

 

Il y a 3 heures, foetus a dit :

Non le lien n'est pas terrible :mrgreen:, il ne confronte pas les Ryzen 7000 et les Intel 13 (Raptor Lake)

Je le citais car il montre que les Ryzen se comportent quasi pareil à 65W et à 105W, pour apporter de l'eau au moulin sur la partie "auto overclock de lamuerte" qui n'apporte pas grand-chose, et adoucir les propos de @foetus "Donc le dernier processeur qui a de bonnes performances, ne chauffe pas trop et consomme peu, c'est le Ryzen 5 5600X"

Sinon de mon point de vue, AMD ou Intel, les deux ont de très bonnes configs qui se valent. J'ai toutefois l'impression que l'implémentation de la DDR5 chez AMD a été faite un peu à la va vite vu les quelques retours (et les benchs AIDA): à croire que leur méthode pour la DDR5 c'est de simuler l'ancien transfert DDR4

Rappel sur le principe de la DDR4/DDR5: La ddr5, c'est un peu comme avoir deux canaux DDR4 bridé à la moitié de largeur. La DDR5 peut ingurgiter 2 fois plus de commandes mais fait des transferts de 2 fois moins d'information à la fois. Elle brille donc dans le multithread si le CPU sait faire des demandes séparées. Et AMD ne semble pas en profiter, malgré leur avance dans la techno multi-coeurs. A croire que ce simili doublage de canal les pénalise comme sur les anciennes gen (qui ont de slimites de vitesse bus mémoire qui diminuent avec le nombre de barettes)

Par contre, les AMD 7000 excellent dans les tests AVX-512, techno que Intel était en train de tenter de tuer...

Pas facile le choix 🙂 - sauf que je considère que Intel 13600K ou AMD 7700X sont tous les deux d'excellents CPU qui font d'excellentes machines si bien entourés

Lien vers le commentaire
Partager sur d’autres sites

Il y a 7 heures, foetus a dit :

Attention, la DDR5 5600 Mhz CL28 fonctionne à 1.45V au lieu de 1.2/ 1.35V. Avec 4 barrettes (2 kits), j'aurai 1 petite crainte.

Bon à savoir, merci !

Il y a 7 heures, foetus a dit :

1 écran 43 pouces, son + gros problème l'uniformité.

@ashlol parlait d'écran OLED 43". J'imagine que sur du OLED, ce problème d'uniformité n'apparait pas. Et puis mon 30" actuel n'est pas un modèle d'uniformité non plus (il date de 2007 aussi, ça aide pas), ça ne me gêne pas outre mesure 😅.

Il y a 4 heures, brice.wernet a dit :

Rappel sur le principe de la DDR4/DDR5: La ddr5, c'est un peu comme avoir deux canaux DDR4 bridé à la moitié de largeur. La DDR5 peut ingurgiter 2 fois plus de commandes mais fait des transferts de 2 fois moins d'information à la fois. Elle brille donc dans le multithread si le CPU sait faire des demandes séparées. Et AMD ne semble pas en profiter, malgré leur avance dans la techno multi-coeurs. A croire que ce simili doublage de canal les pénalise comme sur les anciennes gen (qui ont de slimites de vitesse bus mémoire qui diminuent avec le nombre de barettes)

Je ne savais pas, merci ! C'est intéressant 👍.

Il y a 4 heures, brice.wernet a dit :

Pas facile le choix 🙂 - sauf que je considère que Intel 13600K ou AMD 7700X sont tous les deux d'excellents CPU qui font d'excellentes machines si bien entourés

Pour le jeu ils ont effectivement l'air de se valoir plus ou moins. Mais pour l'applicatif, Intel reste devant. Même en limitant la consommation si j'ai bien compris.

Il y a 4 heures, brice.wernet a dit :

Je le citais car il montre que les Ryzen se comportent quasi pareil à 65W et à 105W, pour apporter de l'eau au moulin sur la partie "auto overclock de lamuerte" qui n'apporte pas grand-chose

Je pense qu'on est tous d'accord là-dessus. Et mon plan est clairement de limiter le TDP du CPU et du GPU autant que possible en fonction de mes besoins. Actuellement mon CPU a un TDP de 130W et mon GPU un TDP de 165W. Si je limite le i9-13900K à 70W et la RTX 4090 à 220W, je me retrouve avec grosso-modo la même consommation 🥰. Et j'ai la possibilité d'allouer plus de patate au CPU quand je code ou que je fais de l'applicatif, puisque le GPU ne sera pas vraiment utilisé à ce moment. Faudra juste que je reste dans les limites de l'air-cooling, car j'avoue ne pas être très motivé pour me taper l'entretien d'un watercooling.

A moins qu'il n'existe des watercooling qu'on peut juste laisser tourner des années sans y toucher, mais la dernière fois que je me suis intéressé au sujet, ça n'avait pas l'air d'exister ☹️. Et même en watercooling, je limiterai quand même la consommation autant que possible car par principe je ne veux pas avoir un PC qui consomme plus que ma clim 😅.

Lien vers le commentaire
Partager sur d’autres sites

Rejoindre la conversation

Vous pouvez publier maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous maintenant pour publier avec votre compte.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

×
×
  • Créer...