Aller au contenu

Messages recommandés

Posté(e)

Hello !

Ma config actuelle commence à dater (Xeon W3680 + GTX 980), et il est temps de penser à un upgrade. Mon écran ne supporte que du DVI-D Dual Link, donc il va également falloir le changer (aprÚs 15 ans de bons et loyaux services).

Je n'ai pas vraiment de limite de budget, mais histoire que ça ne devienne pas non plus n'importe quoi, disons pas plus de 12.000€ pour la tour + l'Ă©cran (ça devrait quand mĂȘme laisser de la marge). Mais si c'est moins, je prends aussi 😅.

Mes critĂšres sont :

- Des perfs gaming aussi bonnes que possible (y compris en VR)

- Un écran 4K HDR d'environ 30". Je suis pas fan des formats trop "wide" ou courbés. Le support d'un frame rate variable (gsync ou équivalent) est important.

- Au moins 64Gio de RAM, mais si possible plutĂŽt 128Gio (j'en bouffe plein)

- Une consommation électrique raisonnable. J'habite sous les tropiques, je n'ai pas besoin d'un chauffage. Et j'aimerai éviter d'avoir le bruit d'un hélicoptÚre en continu avec les ventilos.

- Pour la consommation électrique, j'ai vu que la RTX 4090 n'est pas si mal si on limite son TDP à 50% ou 60%. Ce genre de solutions me conviennent.

- Un setup qui utilise autant que possible les derniers standards, mĂȘme si le rapport perf/prix est moins intĂ©ressant. En fait le rapport perfs/watt est un critĂšre plus important que le rapport perfs/prix pour moi.

- Niveau stockage, j'ai pas mal de HDD que je peux recycler pour les données qui ne nécessitent pas de perfs. Pour l'OS et les jeux, un SSD nvme de 4To devrait faire l'affaire je pense.

Je dois avouer que ça fait quelques annĂ©es que je n'ai pas suivi l'actualitĂ© hardware, je suis un peu perdu sur les derniĂšres nouveautĂ©s. Par exemple niveau carte mĂšre je n'ai aucune idĂ©e des derniers chipsets et des derniĂšres normes. Donc si certains experts parmis vous pouviez me donner quelques conseils pour orienter mes recherches, ça serait super sympa 😀 !

Merci d'avance de m'avoir lu, et pour tous les conseils que vous pourrez m'apporter. Ça n'est pas trĂšs urgent, je pense que je changerai ma config en dĂ©but / milieu d'annĂ©e prochaine. Donc si y'a des trucs sympas sur le point de sortir, je peux attendre un peu 👍.

Posté(e) (modifié)

2 - 3 pistes :mrgreen:

*) le meilleur SSD NVMe est le Kingston KC3000 et il n'a pas 1 prix abusé comme le WD Black ou les Samsung. 

*) Actuellement le mieux c'est 1 plateforme Intel. Niveau processeur, je pense à 1 processeur Raptor Lake  i5-13600 ou  i7-13700. D'aprÚs ce que j'ai vu, tous les processeurs n'arrivent pas à suivre avec la RTX 4090 en 1080p et 1440p. Donc, sauf si tu joues en 4K, le processeur avec cette carte graphique n'est pas trop important (juste 1 récent)

Attention : la RTX 4090 a 1 connecteur 12 pins qui crame. Regarde les internets, c'est 1 grosse polémique. Tu as trop de fils qui arrivent sur les 12 pins, et les soudures sautent si le cùble est plié proche du connecteur.

Niveau plateforme part sur du Z790 + DDR 5 5600 Mhz  CL 30 ou 28 : tu auras de l'USB 20 Gb/s (type C), USB 10 Gb/s (arriĂšre et en façade), ThunderBolt 40 Gb/s, 1 gros lien DMI (entre le chipset et le processeur), 1 Ă©talage d'alimentation balĂšze et 1 port PCI Express 5.0 (mĂȘme s'il ne sert Ă  rien actuellement)

Le premier prix carte mùre Z790 actuellement (mi-novembre 2022) est l'Asus PRIME Z790-P à 300 €uros. Mais le Black Friday - Cyber Monday arrivent.

*) Avec 128 Go de mémoire, il te faudra prendre 4x 32 Go (soit 2 kits de 2 barrettes soit 1 kit de 4 barrettes (<- cela ne semble pas exister en DDR 5))

*) Pour 1 refroidissement, c'est 1 watercooling AIO obligatoire avec le i7-13700 (il a des boosts de performance Ă  230 Watts). Avec le i5-13600, tu peux prendre 1 ventirad 2 tours et tu as le choix entre le Noctua NH-D15 et le be quiet! Dark Rock 4 Pro.

 

Pour le reste, tu peux prendre le dissipateur thermique SSD SABRENT SB-HTSK et la pùte thermique THERMAL GRIZZLY Kryonaut.

THERMAL GRIZZLY fait de la pùte thermique en métal liquide (comme la PS5 si Sony ne l'a pas viré) trÚs efficace mais aucune expérience avec (mais j'ai lu qu'il faut changer tous les ans et faire attention à surtout ne pas en mettre sur la carte mÚre)

Modifié par foetus
Posté(e)

Salut foetus !

Merci beaucoup pour ton retour rapide, je vais regarder ça. 

Je suis un peu Ă©tonnĂ© que tu proposes une plateforme Intel, il me semblait qu'AMD Ă©tait plus intĂ©ressant en ce moment. Mais je me trompe peut ĂȘtre, c'est bien pour ça que je demande conseil 😅.

Pour la 4090, je suis au courant des problÚmes de connecteurs. Mais je n'ai pas dit que je veux absolument une 4090, j'ai juste dit que c'est envisageable si ça tient la route cÎté perfs et consommation (donc si c'est une 4090, il faudra l'underclocker).

Pour la rĂ©solution, oui, comme mentionnĂ© je veux un Ă©cran 4K, et jouer en 4K. Par contre apriori 60Hz devraient me suffit, mĂȘme si je ne suis pas contre un Ă©cran 120Hz. Au delĂ  par contre je ne vois pas la diffĂ©rence.

Pour le refroidissement, je ne suis pas trĂšs chaud pour du water-cooling. Je prĂ©fĂ©rerais Ă  la rigueur un truc un peu moins puissant et qui chauffe moins. Ou alors underclocker le CPU, et prendre un gros ventirad. Et puis changer la pĂąte thermique tous les ans, bof bof. Encore une fois je prĂ©fĂšre un truc un truc qui chauffe moins et qui ne me prendra pas la tĂȘte 😅

Posté(e)
Il y a 4 heures, foetus a dit :

Attention : la RTX 4090 a 1 connecteur 12 pins qui crame. Regarde les internets, c'est 1 grosse polémique. Tu as trop de fils qui arrivent sur les 12 pins, et les soudures sautent si le cùble est plié proche du connecteur.

ce n'est pas généralisé, par exemple GN n'a pas réussi à reproduire le problÚme que tu décris et qu'à eu igor labs par exemple donc on ne peux pas conclure pour l'instant cela ressemble plus à un problÚme d'un fabricant de cet adaptateur que un cas général. De toute façon s'il change sa config autant prendre une alim avec un 12pin direct comme ça pas de soucis d'adaptateur

tu lui proposes du cpu grand public quand il est en xéon donc rien à voir et aussi pas en rapport avec les 128Go de ram demandé il lui faut du hedt type xéon avec du quad channel. Les xeon saphirre rapids ws sortent le 10 janvier 2023 avec support du quad channel ddr5 et 128 lignes pcie 5.0 avec le nouveau chipset W790

honnĂȘtement vu le budget je partirai sur du full watercooling plutĂŽt qu'un AIO simple faut voir s'il est ok par contre

+1 par contre pour les pates thermique kryonaut et conductonaut (metal liquide) qui sont excellentes c'est ce que j'ai. Par contre non il n'y a pas besoin de la remplacer tous les ans il n'y a pas de dégradation de performances non plus au bout de 4ans

si je resume @chaps est ce que tu veux rester en plateforme hedt comme tu as actuellement ? ou passer en grand public qui sera bien moins cher mais c'est différent il y aura bien moins de coeurs mais qui tournent à plus haute fréquences, il n'y a pas de quad channel ram donc grosse perte de perf en débit brut ram.

est ce que tu es ok pour du full watercooling ?

pour la carte graphique je pense aussi que la 4090 sera parfaite avec limite du TDP à 60% comme montré par derBaueur fait perdre presque rien en perf pour une conso bien réduite.

pour l'écran 30" ça te suffit ? Moi je suis passé en 43" pouces 4k HDR sur du OLED et c'est juste fantastique

Posté(e)

Salut ashlol !

Pour la partie watercooling, je prĂ©fĂšrerai vraiment un truc non prise de tĂȘte avec entretien minimal. Donc un bon gros ventirad bien quali, apriori ça me correspondrait mieux (par exemple mon actuel Noctua NH-U12P tourne pratiquement depuis 12 ans H24, sans faire de bruit outre mesure et ça me va parfaitement).

Pour la partie Xeon, en fait je suis passĂ© sur un Xeon pour remplacer mon i7 950 parce qu'il y avait des Xeon pas cher d'occasion. Donc pour 150€ j'ai gagnĂ© 2 cƓurs et 300MHz, ça valait le coup (et le coĂ»t). J'utilise mon PC de temps Ă  autre pour faire du dev (C++), donc plus de cƓurs est apprĂ©ciable. Mais aprĂšs si c'est pour dĂ©penser 2000€ de plus pour un gain marginal, ça ne vaut pas forcĂ©ment l'investissement. Mais si d'un autre cotĂ© ça permet d'avoir une meilleure carte mĂšre, avec un meilleur chipset et de meilleurs composants, qui supportera de tourner H24 pendant des annĂ©es sans problĂšmes, ça peut m'intĂ©resser. C'est un autre critĂšre important pour moi, je prĂ©fĂšre payer plus cher du matos moins puissant, mais qui ne chauffe pas outre mesure et surtout est fiable. Donc pour l'alim par exemple, je compte bien prendre une alim avec des composants de qualitĂ© qui peuvent durer au moins 10 ans H24 sans broncher.

En gros je prĂ©fĂšre une belle citadine bien finie avec de bonnes perfs, plutĂŽt qu'une grosse F1 qui va tout dĂ©foncer en bouffant 200L au 100km et qui sera rincĂ©e aprĂšs 10h d'utilisation 😅.

Pour la partie perf en débit brut ram, je pense que ça n'est pas forcément primordial pour moi. Coté RAM, en fait j'ai plus besoin de quantité que de perf bruts.

Et enfin pour la partie écran, j'habite à HK et ici les apparts sont plutÎt du genre petits. Je ne pense pas avoir le recul suffisant pour un écran de 43", donc je préfÚrerai rester aux alentours de 30", qui est une taille qui me convient bien. Et j'ai également un 24" en moniteur secondaire d'appoint, quand je code par exemple (le double écran pour développer, c'est un must-have).

 

 

 

 

Posté(e)

ok compris

pour les Ă©crans je dev aussi et j'ai virĂ© un 30 en 2k et un 24 1k comme toi pour passer Ă  1 43" 4k et honnĂȘtement c'est parfais du fait du 4k il n'y a pas besoin de recul supplĂ©mentaire comme les pixels sont trĂšs petit sur un 43" 4k. j'ai les yeux Ă  80cm de l'Ă©cran et c'est confortable. Le truc relou avec 2 Ă©crans c'est quand une fenĂȘtre UAC pope elle arrive en gĂ©nĂ©ral pas sur le bon Ă©cran idem les fenĂȘtres de setup et s'il y a une rĂ©solution diffĂ©rentes les interfaces le gĂšrent pas toujours bien. En plus avec les raccourcis Windows pour basculer sur le cotĂ© droit ou gauche une fenĂȘtre c'est comme si on basculait d'un Ă©cran Ă  l'autre sans inconvĂ©nient en fait je trouve. C'est un point de vu personnel et je comprends trĂšs bien si tu veux rester en 30".

Posté(e)

Je pense que pour le dev, effectivement un unique 43" pourrait Ă©ventuellement remplacer un combo 30" + 24". Mais pour le jeu pour le coup, ça ne fait pas trop grand ? Autant pour coder on concentre notre regard sur un partie bien spĂ©cifique, donc c'est pas un problĂšme de tourner la tĂȘte de temps en temps, mais pour le jeu c'est quand mĂȘme mieux de pouvoir regarder l'Ă©cran dans son ensemble sans tourner sans cesse la tĂȘte et/ou les yeux, non 😅?

Posté(e) (modifié)

Actuellement c'est 1 problĂšme : les constructeurs "surcadencent".

NVidia l'a fait avec la RTX 4090 : c'est pour cela qu'il faut réduire sa puissance.

AMD : la derniÚre génération 7000 (sortie en octobre 2022) a été conçue pour fonctionner à 95 °C. Il faut activer le mode eco

Intel : depuis 2 génération (12 ou 13) les i7 ont des boosts de performances à + de 200 W (le i7-13900 c'est 320 Watts). On peut les limiter.

Donc le dernier processeur qui a de bonnes performances, ne chauffe pas trop et consomme peu, c'est le Ryzen 5 5600X

 

Avec les processeurs Intel, il faut faire attention avec 4 barrettes (2 kits). Il faut respecter les fréquences officielles (3200 Mhz pour la DDR4, 4800 Mhz ou 5600 MHz pour la DDR5) sinon les profils XMP ne passent pas et le surcadencage a du mal à passer (par exemple prendre de la DDR4 à 3600 Mhz, le "sweet spot")

Modifié par foetus
Posté(e)
Il y a 3 heures, foetus a dit :

Donc le dernier processeur qui a de bonnes performances, ne chauffe pas trop et consomme peu, c'est le Ryzen 5 5600X

Dommage, je prĂ©fĂ©rerais Ă©viter de partir sur une plateforme dĂ©jĂ  en fin de vie đŸ˜„.

Il y a 3 heures, foetus a dit :

Avec les processeurs Intel, il faut faire attention avec 4 barrettes (2 kits). Il faut respecter les fréquences officielles (3200 Mhz pour la DDR4, 4800 Mhz ou 5600 MHz pour la DDR5) sinon les profils XMP ne passent pas et le surcadencage a du mal à passer (par exemple prendre de la DDR4 à 3600 Mhz, le "sweet spot")

Merci, c'est bon Ă  savoir. Je me souviens d'avoir eu un problĂšme similaire quand j'Ă©tais passĂ© Ă  4 barrettes sur mon Core 2 Duo E6600. J'avais dĂ» rĂ©gler la tension manuellement dans le bios, sinon ça crashait rĂ©guliĂšrement. Mais encore une fois je n'ai pas de problĂšme Ă  rester Ă  frĂ©quences "@stock", je ne cherche surtout pas l'overclocking 😅.

Il y a 3 heures, foetus a dit :

AMD : la derniÚre génération 7000 (sortie en octobre 2022) a été conçue pour fonctionner à 95 °C. Il faut activer le mode eco

Intel : depuis 2 génération (12 ou 13) les i7 ont des boosts de performances à + de 200 W (le i7-13900 c'est 320 Watts). On peut les limiter.

Si ce sont juste de brefs pics, ça peut encore passer (mais faut avoir une alim capable de les encaisser). Mais un CPU qui bouffe 320W en continu, trĂšs peu pour moi... Quand tu dis qu'on peut les limiter, est-ce que ça veut dire qu'on peut dĂ©finir un TDP maximal qu'on ne veut pas dĂ©passer, comme la 4090 ? Si c'est le cas, pourquoi pas, mais faut voir l'impact sur les perfs. Si ça reste limitĂ© (genre -10%), ça paraĂźt jouable. Si c'est -50% de perfs par contre, va falloir trouver autre chose 😔.

Posté(e)
il y a 22 minutes, chaps a dit :

Si ce sont juste de brefs pics, ça peut encore passer (mais faut avoir une alim capable de les encaisser). Mais un CPU qui bouffe 320W en continu, trĂšs peu pour moi... Quand tu dis qu'on peut les limiter, est-ce que ça veut dire qu'on peut dĂ©finir un TDP maximal qu'on ne veut pas dĂ©passer, comme la 4090 ? Si c'est le cas, pourquoi pas, mais faut voir l'impact sur les perfs. Si ça reste limitĂ© (genre -10%), ça paraĂźt jouable. Si c'est -50% de perfs par contre, va falloir trouver autre chose 😔.

tiens derbaueur explique tout et honnĂštement en mode "eco" 90W les cpu marchent pas mal.

https://www.youtube.com/watch?v=H4Bm0Wr6OEQ

 

Posté(e)

Hum, quand on limite sa consommation Ă  90W (voir mĂȘme 70W), il n'a vraiment pas l'air mal ce 13900K 😍 !

Mais franchement je ne comprends pas pourquoi les constructeurs sont partis dans un dĂ©lire de CPU Ă  320W et GPU Ă  450W, c'est n'importe quoi ! Surtout quand on voit que ça ne fait gagner que 10% Ă  15% de perfs par rapport Ă  la mĂȘme puce limitĂ©e Ă  50% de consommation Ă©lectrique...

Si les gens veulent OC pour grapiller des cacahouĂštes au prix d'une consommation dĂ©lirante, pourquoi pas. Chacun son kiff. Mais ça ne devrait pas ĂȘtre le rĂ©glage par dĂ©faut 😅.

Posté(e)
il y a 23 minutes, chaps a dit :

Si les gens veulent OC pour grapiller des cacahouĂštes au prix d'une consommation dĂ©lirante, pourquoi pas. Chacun son kiff. Mais ça ne devrait pas ĂȘtre le rĂ©glage par dĂ©faut 

entiĂšrement d'accord avec toi. C'est en fait depuis 2 gen comme l'a dis @foetus tous ce sont mis Ă  sortir tout ce que le cpu pouvait faire de base donc avec conso et tempĂ©rature dĂ©lirante. En fait cela reviens Ă  dire que maintennat l'OC est fait de base et si tu veux une conso faible et perf/watt correcte il faut limiter soit mĂȘme le TDP aussi bien des CPU que des GPU.

il y a 26 minutes, chaps a dit :

GPU Ă  450W

c'est mĂȘme encore pire que ça pour la 4090 elle peux monter Ă  600W. c'est juste du dĂ©lire.

Donc on part sur un 13900K et une 4090 les deux avec limite de TDP à 125W sur le 13900K et 300W sur la 4090 comme ça tu perds tout juste 10% de perf mais économise plus de 50% de conso ?

Ou alors tu veux attendre les xeon ws de mi janvier pour etre en plateforme hedt qui a quand mĂȘme de gros arguments pour comme le quad channel, les perf ram, le nombre de coeur qui au final sont super important pour avoir plusieurs vm et faire du "content creation".

Posté(e)

Je plussoie tout Ă  fait tes propos, je vois qu'on est sur la mĂȘme longueur d'ondeÂ đŸ€—.

il y a 18 minutes, ashlol a dit :

Donc on part sur un 13900K et une 4090 les deux avec limite de TDP à 125W sur le 13900K et 300W sur la 4090 comme ça tu perds tout juste 10% de perf mais économise plus de 50% de conso ?

En fait de ce que j'ai vu jusqu'ici, j'irai mĂȘme plus loin en limitant le 13900K Ă  70W et la 4090 Ă  220W. AprĂšs Ă©videmment faut voir Ă  l'usage, mais de prime abord ça a l'air pas mal 👍. Et ça a aussi l'avantage de laisser de la puissance potentielle sous la pĂ©dale en cas de besoin ponctuel spĂ©cifique.

il y a 20 minutes, ashlol a dit :

Ou alors tu veux attendre les xeon ws de mi janvier pour etre en plateforme hedt qui a quand mĂȘme de gros arguments pour comme le quad channel, les perf ram, le nombre de coeur qui au final sont super important pour avoir plusieurs vm et faire du "content creation".

Comme dit plus haut, je ne suis pas pressĂ©. Je vais enfin ĂȘtre de passage en France pour les fĂȘtes de fin d'annĂ©e (ça fait 4 ans que je n'ai pas mis les pieds en France), en ce moment c'est plus ça ma prioritĂ©Â đŸ˜…. Pour le changement de config, je verrai tranquillement Ă  mon retour Ă  HK, sachant que fin janvier y'a le nouvel an chinois Ă©galement. Donc je ne me dĂ©ciderai probablement pas avant fĂ©vrier au plus tĂŽt.

Du coup ça laisse l'occasion de voir ces fameux Xeon ws dont tu parles, et du coup on verra en fonction de ce qu'ils valent (en perf, en consommation, mais aussi en prix. Je gagne trĂšs bien ma vie, mais je n'ai pas envie non plus de dĂ©penser beaucoup plus cher si je n'y ai pas d'intĂ©rĂȘt 😅).

Posté(e)
Le 13/11/2022 à 09:30, chaps a dit :

Je pense que pour le dev, effectivement un unique 43" pourrait Ă©ventuellement remplacer un combo 30" + 24". Mais pour le jeu pour le coup, ça ne fait pas trop grand ? Autant pour coder on concentre notre regard sur un partie bien spĂ©cifique, donc c'est pas un problĂšme de tourner la tĂȘte de temps en temps, mais pour le jeu c'est quand mĂȘme mieux de pouvoir regarder l'Ă©cran dans son ensemble sans tourner sans cesse la tĂȘte et/ou les yeux, non 😅?

Bon retour !

 C'est ce que j'ai fait : virer le 34"(21/9)+17" (vertical) par un 43'' (4k). Je ne joue jamais en full screen, ça n'est pas super agrĂ©able car je ne vois pas correctement les bords sans tourner la tĂȘte : trop prĂšs du moniteur.
Pour coder, par contre, avoir 2x plus de lignes c'est un plaisir.

Posté(e)
Il y a 7 heures, ashlol a dit :

ok pas de soucis remet un up Ă  ce moment lĂ  alors.

👍

Il y a 5 heures, Aloyse57 a dit :

Bon retour !

Pour vous jouer un mauvais tour 😋 ? J'espùre que tu vas bien, ça fait un bail 😄.

Il y a 5 heures, Aloyse57 a dit :

Je ne joue jamais en full screen

Les perfs sont pourtant gĂ©nĂ©ralement meilleures en full screen qu'en fenĂȘtrĂ©. Du moins dans la plupart des cas, y'a toujours des exceptions.

Il y a 5 heures, Aloyse57 a dit :

Pour coder, par contre, avoir 2x plus de lignes c'est un plaisir.

C'est sĂ»r. Mais un Ă©cran 4K reste un Ă©cran 4K. Donc un 30" affiche autant de lignes qu'un 43". C'est juste que c'est Ă©crit plus petit 😁.

Je vais quand mĂȘme rĂ©flĂ©chir Ă  l'option du 43" pour remplacer le double Ă©cran vu que vous ĂȘtes dĂ©jĂ  deux Ă  en faire la promotion 👍.

Posté(e)
Il y a 7 heures, chaps a dit :

Les perfs sont pourtant gĂ©nĂ©ralement meilleures en full screen qu'en fenĂȘtrĂ©. Du moins dans la plupart des cas, y'a toujours des exceptions.

Je pense qu'@Aloyse57 voulais dire qu'il choisit une résolution qui laisse des "bords noirs" sur les cÎtés pour avoir l'image du jeu au centre, ça reste certainement en full screen mais résolution < écran.

Sinon, j'avais repĂ©rĂ© ces benchs: Test ‱ AMD Ryzen 9 7950X, 7900X, Ryzen 7 7700X & Ryzen 5 7600X : Zen 4, AM5, X670E, B650E & DDR5 - Le comptoir du hardware (comptoir-hardware.com)

Bel article, il montre que les derniers ryzen ne donnent pas tellement plus de perfs 105W que à 65W. Je trouvais que le 7600X et surtout le 7700X à 65W sont trÚs intéressants (7600X pour le jeu, 7700X pour plus de dev/VM).

Posté(e)

Merci pour le lien, effectivement les Ryzen Ă  65W ont l'air pas mal. Mais j'ai l'impression que le 13900K Ă  70W est quand mĂȘme devant (je me trompe ?).

AprÚs faut aussi voir les différences cÎté cartes mÚres et chipsets, et là je dois avouer que je n'ai aucune idée de s'il y a une réelle différence entre Intel et AMD, et si oui lequel est meilleur.

Posté(e) (modifié)

Non le lien n'est pas terrible :mrgreen:, il ne confronte pas les Ryzen 7000 et les Intel 13 (Raptor Lake)

13th Gen Intel Core Processors Content Creation Review : le i5-13600 est le meilleur pour le milieu de gamme.

Test : Intel Raptor Lake i9-13900K et i5-13600K

Pour les Ryzen 7000, il ne sont bon qu'avec Winzip en décompression :troll:

1 prĂ©cision, il n'y a plus vraiment de course aux nombres de cƓurs. Depuis la gĂ©nĂ©ration 12 (Alder Lake) et 13 (Raptor Lake), Intel a introduit l'architecture big.LITTLE : 1 mĂ©lange de gros cƓurs/ p-cores/ performance cores (avec de l'hypertheading) et de petits cƓurs/ e-cores/ efficicent cores.

Par exemple le i5-13600 (6 p-cores + 8 e-cores, 20 threads) est presque 1 i7-12700 optimisĂ© (8 p-cores + 4 e-cores, 20 threads) : juste avec les gros logiciels, les 8 gros cƓurs font la diffĂ©rence.

KitGuru a fait 1 test du i5-13600 en limitant sa consommation : Intel Core i5-13600K Review

 

Dans les jeux, c'est kif-kif : VCG a fait 1 vidéo avec i5-13600/ i5-12600 vs 7700X/ 58003D/ 3600 avec 1 RTX 4090

D'accord tu as 20-25% de + mais tu es déjà a + de 80 fps. C'est + la carte graphique qui fait les performances et ton écran qui limite.

 

Pour la plateforme avec AMD, AM5/ Ryzen 7000 c'est la premiÚre génération DDR5 et PCI Express 5.0. J'ai vu qu'il y a quelques soucis de compatibilité DDR5.

Du cÎté d'Intel, le chipset Z790 permet d'avoir @stock de la DDR5 5600 Mhz

DDR4 vs. DDR5 on Intel Core i9-12900K Alder Lake Review

Test mémoire DDR5 G.Skill Trident Z5 RGB 2 x 32 Go 5600 c28

Entre de la DDR4 3200 Mhz CL14 chÚre et de la DDR5 5600 Mhz + performante, le choix semble vite fait :mrgreen:

Pour la DDR4 faible latence, elle n'est bonne qu'avec SuperPI :troll:

Attention, la DDR5 5600 Mhz CL28 fonctionne Ă  1.45V au lieu de 1.2/ 1.35V. Avec 4 barrettes (2 kits), j'aurai 1 petite crainte.

Le seul regret : l'absence des SSDs NVMe PCI Express 5.0 :reflechis: mais pas de problÚme pour 1 carte graphique PCI Express 5.0 qui n'existe pas encore.

 

1 Ă©cran 43 pouces, son + gros problĂšme l'uniformitĂ©. Pour de la bureautique, dĂ©veloppement ce n'est pas trop grave, mais pour du multimĂ©dia (vidĂ©o, film, jeu), cela peut ĂȘtre gĂȘnant.

Par exemple, le moniteur Asus ROG Strix XG43UQ (dalle VA) : HDR1000, sRGB 125%, 144 Mhz ... ces spécifications sur displayspecifications.com

Mais le test de Clubic est trÚs clair : Test Asus ROG Strix XG43UQ : un grand moniteur 4K et HDR pour remplacer notre téléviseur ?

Je partirais + sur 1 moniteur 32 ou 34 pouces [en double écran] pour 1 meilleure uniformité, 1 HDR 600 inférieur mais mieux fait :mrgreen:

Modifié par foetus
Posté(e)
Il y a 9 heures, chaps a dit :

Merci pour le lien, effectivement les Ryzen Ă  65W ont l'air pas mal. Mais j'ai l'impression que le 13900K Ă  70W est quand mĂȘme devant (je me trompe ?).

 

Il y a 3 heures, foetus a dit :

Non le lien n'est pas terrible :mrgreen:, il ne confronte pas les Ryzen 7000 et les Intel 13 (Raptor Lake)

Je le citais car il montre que les Ryzen se comportent quasi pareil Ă  65W et Ă  105W, pour apporter de l'eau au moulin sur la partie "auto overclock de lamuerte" qui n'apporte pas grand-chose, et adoucir les propos de @foetus "Donc le dernier processeur qui a de bonnes performances, ne chauffe pas trop et consomme peu, c'est le Ryzen 5 5600X"

Sinon de mon point de vue, AMD ou Intel, les deux ont de trÚs bonnes configs qui se valent. J'ai toutefois l'impression que l'implémentation de la DDR5 chez AMD a été faite un peu à la va vite vu les quelques retours (et les benchs AIDA): à croire que leur méthode pour la DDR5 c'est de simuler l'ancien transfert DDR4

Rappel sur le principe de la DDR4/DDR5: La ddr5, c'est un peu comme avoir deux canaux DDR4 bridé à la moitié de largeur. La DDR5 peut ingurgiter 2 fois plus de commandes mais fait des transferts de 2 fois moins d'information à la fois. Elle brille donc dans le multithread si le CPU sait faire des demandes séparées. Et AMD ne semble pas en profiter, malgré leur avance dans la techno multi-coeurs. A croire que ce simili doublage de canal les pénalise comme sur les anciennes gen (qui ont de slimites de vitesse bus mémoire qui diminuent avec le nombre de barettes)

Par contre, les AMD 7000 excellent dans les tests AVX-512, techno que Intel était en train de tenter de tuer...

Pas facile le choix 🙂 - sauf que je considĂšre que Intel 13600K ou AMD 7700X sont tous les deux d'excellents CPU qui font d'excellentes machines si bien entourĂ©s

Posté(e)
Il y a 7 heures, foetus a dit :

Attention, la DDR5 5600 Mhz CL28 fonctionne Ă  1.45V au lieu de 1.2/ 1.35V. Avec 4 barrettes (2 kits), j'aurai 1 petite crainte.

Bon Ă  savoir, merci !

Il y a 7 heures, foetus a dit :

1 écran 43 pouces, son + gros problÚme l'uniformité.

@ashlol parlait d'Ă©cran OLED 43". J'imagine que sur du OLED, ce problĂšme d'uniformitĂ© n'apparait pas. Et puis mon 30" actuel n'est pas un modĂšle d'uniformitĂ© non plus (il date de 2007 aussi, ça aide pas), ça ne me gĂȘne pas outre mesure 😅.

Il y a 4 heures, brice.wernet a dit :

Rappel sur le principe de la DDR4/DDR5: La ddr5, c'est un peu comme avoir deux canaux DDR4 bridé à la moitié de largeur. La DDR5 peut ingurgiter 2 fois plus de commandes mais fait des transferts de 2 fois moins d'information à la fois. Elle brille donc dans le multithread si le CPU sait faire des demandes séparées. Et AMD ne semble pas en profiter, malgré leur avance dans la techno multi-coeurs. A croire que ce simili doublage de canal les pénalise comme sur les anciennes gen (qui ont de slimites de vitesse bus mémoire qui diminuent avec le nombre de barettes)

Je ne savais pas, merci ! C'est intĂ©ressant 👍.

Il y a 4 heures, brice.wernet a dit :

Pas facile le choix 🙂 - sauf que je considĂšre que Intel 13600K ou AMD 7700X sont tous les deux d'excellents CPU qui font d'excellentes machines si bien entourĂ©s

Pour le jeu ils ont effectivement l'air de se valoir plus ou moins. Mais pour l'applicatif, Intel reste devant. MĂȘme en limitant la consommation si j'ai bien compris.

Il y a 4 heures, brice.wernet a dit :

Je le citais car il montre que les Ryzen se comportent quasi pareil Ă  65W et Ă  105W, pour apporter de l'eau au moulin sur la partie "auto overclock de lamuerte" qui n'apporte pas grand-chose

Je pense qu'on est tous d'accord lĂ -dessus. Et mon plan est clairement de limiter le TDP du CPU et du GPU autant que possible en fonction de mes besoins. Actuellement mon CPU a un TDP de 130W et mon GPU un TDP de 165W. Si je limite le i9-13900K Ă  70W et la RTX 4090 Ă  220W, je me retrouve avec grosso-modo la mĂȘme consommationÂ đŸ„°. Et j'ai la possibilitĂ© d'allouer plus de patate au CPU quand je code ou que je fais de l'applicatif, puisque le GPU ne sera pas vraiment utilisĂ© Ă  ce moment. Faudra juste que je reste dans les limites de l'air-cooling, car j'avoue ne pas ĂȘtre trĂšs motivĂ© pour me taper l'entretien d'un watercooling.

A moins qu'il n'existe des watercooling qu'on peut juste laisser tourner des annĂ©es sans y toucher, mais la derniĂšre fois que je me suis intĂ©ressĂ© au sujet, ça n'avait pas l'air d'exister â˜č. Et mĂȘme en watercooling, je limiterai quand mĂȘme la consommation autant que possible car par principe je ne veux pas avoir un PC qui consomme plus que ma clim 😅.

Rejoindre la conversation

Vous pouvez publier maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous maintenant pour publier avec votre compte.

Invité
Répondre à ce sujet


×   CollĂ© en tant que texte enrichi.   Coller en tant que texte brut Ă  la place

  Seulement 75 Ă©moticĂŽnes maximum sont autorisĂ©es.

×   Votre lien a Ă©tĂ© automatiquement intĂ©grĂ©.   Afficher plutĂŽt comme un lien

×   Votre contenu prĂ©cĂ©dent a Ă©tĂ© rĂ©tabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insĂ©rez-les depuis une URL.

×
×
  • CrĂ©er...