Aller au contenu

RTX 3080 ou 3090 sur vieux setup de 2010 : Ca marche :transpi: ?


chaps

Messages recommandés

Hello !

J'ai une question con, plus hypothétique qu'autre chose pour le moment.
Je tourne actuellement avec un Xeon W3680 sur une Asus Rampage III Extreme, avec 24Gio de RAM et une GTX 980. J'ai un écran 30" en 2560x1600 60Hz qui n'accepte que du DVI-D dual Link (Dell 3007 WFP-HC), et un AlienWare AW2310 (FullHD 120Hz) qui accepte du DVI-D dual Link (120Hz) ou du HDMI (seulement en 60Hz). Mon alim est une Seasonic M12D 850W.

Donc en gros c'est du bon matos, mais qui date (la carte mère a 10 ans, mon écran principal a déjà fêté ses 13 ans !). La partie la plus récente est la GTX980, mais elle a déjà plus de 6 ans...

Etonnamment, je n'ai pas rencontré de problème insurmontable même sur les jeux plus ou moins récents. Par exemple j'ai pu profiter de Half-Life Alyx de manière fluide sur un HTC-Vive, j'ai pu faire Shadow of the Tomb Raider en 2560x1600, Final Fantasy XV, Nier Automata, FarCry 5... Et dernièrement les Trails in the Sky, mais bon ça ça ne compte pas :dd:. Et en regardant un peu en détails ce qui se passe, j'ai l'impression d'être toujours GPU limited, et pas vraiment CPU limited. C'est rare que le CPU soit vraiment à 100%, quand le GPU lui reste volontier collé aux 100%.

J'en suis malheureusement à un point où, si je veux changer de GPU, je vais surement également devoir changer d'écran (les adaptateurs DP - DVI c'est pas top en dual link, si j'ai bien compris il faut des adaptateurs actifs à 100€ qui en plus rajoutent de la latence. Et il m'en faudrait deux !). Et comme je considère l'écran comme la partie la plus importante du PC, avant tout le reste (c'est sur lui que j'ai les yeux fixés, et c'est la partie que je change le moins souvent), si je change j'ai l'intention de prendre le top du top (4K, 120Hz ou plus, HDR, G-Sync et tout le bazar). Et donc apriori on part sur un écran à 1500€ ou plus (j'ai pas vraiment de limite de budget pour l'écran si je le garde 10 ou 15 ans...).

Du coup, si je part sur du 4K 120Hz et tout le bazar, il me faut une bonne carte (genre GTX 3080 ou GTX 3090) pour aller avec. Donc à nouveau 1500€ si on prend la 3090 (si je peux la garder 6 ans comme la GTX 980, pourquoi pas). Donc ça fait déjà 3000€ au bas mot (surement plus) juste pour un écran et la carte graphique (sachant que je garderai surement le Alienware en second moniteur pour le moment, mais en HDMI 60Hz malheureusement).

Donc sachant que mon alimentation devrait suffire, que j'ai la place dans mon boitier, que mon CPU date mais ne semble pas si à la rue qu'on pourrait le croire, je me demande si ça serait possible de ne changer que ça dans un premier temps. Histoire d'avoir à éviter d'acheter une carte mère, un CPU et de la RAM en plus tout de suite. Histoire d'étaler les dépenses :D.

Voilà... Je vois des débats genre "est-ce que c'est grave de brancher une GTX 3080 sur un port PCie 3.0", mais moi j'en suis plus au point "si on la branche sur port PCie 2.0 avec de la bonne vielle DDR3, ça marche :transpi:" ?

J'avais prévenu, c'est une question con :p. Au plaisir de vous lire !

 

 

Lien vers le commentaire
Partager sur d’autres sites

Hello !

Ambitieux visiblement 🙂 Théoriquement ça devrait passer avec quelques adaptateurs DVI. En pratique j'ai quelques doutes.

Les adaptateurs un peu bâtard en plus faut bien calculer mais y'en a encore en dvi-d dual link LDLC. La ou je me question c'est sur le proc'. Ca va encore car t'as quand même un 6 cœurs mais ça peu être parfois un facteur bridant. Moi même ayant une petite conf' de 2009 avec un quad core Q9550 oc, c'est lui qui bride une GTX 770. Qui plus est, il ne supporte pas certain jeux d'instruction SSE ce qui peux poser problèmes dans certains jeux.

Pour l'histoire du PCIe c'est un peu du bullshit. Je sais pas pourquoi les gens ont eu cette crainte du PCIe 3.0 pour les 30x0 mais suffit de regarder un peu sur le net pour voir que la bande passante est pas le soucis. On fait bien du SLI sur des port PCIe 3.0 en 8x ou 4x selon le nombre le CG alors ont arrive vite aux mêmes chiffres que du PCIe 2.0 16x. A la rigueur ce qui creuse l'écart entre les différentes normes c'est leurs différences technique d'implémentations. Si je dis pas de connerie la grosse différence avec le 3 c'est l'encodage qui passe de 8/10B à 128/130B. Donc bon. une RTX3080 sur PCIe 2.0 ça tournera pas trop mal, mais t'aura peu être 10% de perf en moins. Ca serai quand même moins en 3.0 mais bon.

Lien vers le commentaire
Partager sur d’autres sites

Effectivement il faut un adaptateur actif pour convertir du DP en DVI-D qui effectivement va ajouter un peu d'input lag mais à moins de jouer à un fps en ligne je ne pense pas que ce soit rédibitoire. Les adaptateurs passif hdmi vers dvi ne supporte que max 1080p60. Les adaptateurs de club3d sont en général qualitatif et celui ci https://www.amazon.com/3D-CAC-1010-DisplayPort-Dual-Link-Adapter/dp/B07T16LLB8/ permet du 2560x1600@60 tout en coutant 46$

Aucun problème de bande passante comme l'a souligné Fab'z du PCIe 2.0 x16 est équivalent à du PCIe 3.0 x8 donc no problème.

Pour le CPU c'est le gros avantage des configs server c'est qu'elle dure longtemps, je dirais que à priori il ne devrais pas y avoir de soucis étant un 6C12T en triple channel donc bande passante mémoire très bonne, la fréquence turbo peux être un poil juste mais si t'arrive à l'OC un peu ça devrais passer tranquille. Au pire si vraiment tu vois un soucis coté CPU tu peux upgrade après. Je dirais a tester mais devrais fonctionner encore.

Lien vers le commentaire
Partager sur d’autres sites

Non pas du tout :non:le DisplayPort supporte le mode DisplayPort Dual-Mode++ qui permet à 1 source DisplayPort de se connecter à 1 port HDMI ou DVI avec 1 câble.

Évidement, si tu as de la chance, avec du DVI-D Dual Link (25 broches), tu pourras avoir au + du 1440p.

Pour le HDMI, cela va dépendre de ta norme DisplayPort (1.1 - 1.2 - 1.3 - 1.4)

 

Lien wiki sur ce mode :windu:

Lien vers le commentaire
Partager sur d’autres sites

Hello !

Merci beaucoup pour vos réponses !

Il y a 2 heures, foetus a écrit :

Non pas du tout :non:le DisplayPort supporte le mode DisplayPort Dual-Mode++ qui permet à 1 source DisplayPort de se connecter à 1 port HDMI ou DVI avec 1 câble.

Évidement, si tu as de la chance, avec du DVI-D Dual Link (25 broches), tu pourras avoir au + du 1440p.

Pour le HDMI, cela va dépendre de ta norme DisplayPort (1.1 - 1.2 - 1.3 - 1.4)

 

Lien wiki sur ce mode :windu:

En fait, je pense que le DisplayPort Dual-Mode++ supporte effectivement des résolutions de "1920 × 1080 à 120 Hz", "2560 × 1440 à 60 Hz", ou "3840 × 2160 à 30 Hz", mais pour la partie HDMI. Pour la partie DVI, je suis pratiquement persuadé que ça reste du DVI single Link. Et pour mon écran AlienWare y'a pas de questions à se poser, les 120Hz ne sont supportés qu'avec l'entrée DVI (dual link). Donc à 99.99% de chances, si je veux garder mon 30" il me faut un adaptateur actif.

 

Il y a 3 heures, ashlol a écrit :

Effectivement il faut un adaptateur actif pour convertir du DP en DVI-D qui effectivement va ajouter un peu d'input lag mais à moins de jouer à un fps en ligne je ne pense pas que ce soit rédibitoire. Les adaptateurs passif hdmi vers dvi ne supporte que max 1080p60. Les adaptateurs de club3d sont en général qualitatif et celui ci https://www.amazon.com/3D-CAC-1010-DisplayPort-Dual-Link-Adapter/dp/B07T16LLB8/ permet du 2560x1600@60 tout en coutant 46$

Aucun problème de bande passante comme l'a souligné Fab'z du PCIe 2.0 x16 est équivalent à du PCIe 3.0 x8 donc no problème.

Pour le CPU c'est le gros avantage des configs server c'est qu'elle dure longtemps, je dirais que à priori il ne devrais pas y avoir de soucis étant un 6C12T en triple channel donc bande passante mémoire très bonne, la fréquence turbo peux être un poil juste mais si t'arrive à l'OC un peu ça devrais passer tranquille. Au pire si vraiment tu vois un soucis coté CPU tu peux upgrade après. Je dirais a tester mais devrais fonctionner encore.

Merci pour le lien de l'adaptateur, j'avais un prix de l'ordre de 100€ en tête, mais apparemment on peut en trouver effectivement autour de 50€. C'est toujours pas donné pour un adaptateur, mais c'est plus raisonnable.

Sinon ma config n'est pas vraiment une config serveur. Certes j'ai un Xeon, mais sinon ma carte mère est une carte de gamer, et ma RAM n'est pas ECC. Mais bon, ça marche parfaitement quand même :D. Et mon CPU n'est pas OC, pour le moment je n'en ai jamais ressenti le besoin.

Pour la bande passante, AIDA64 me donne 17800Mo/s en lecture et 17475Mo/s en écriture, 70.6ns de latence.

 

Il y a 18 heures, Fab'z a écrit :

Hello !

Ambitieux visiblement 🙂 Théoriquement ça devrait passer avec quelques adaptateurs DVI. En pratique j'ai quelques doutes.

Les adaptateurs un peu bâtard en plus faut bien calculer mais y'en a encore en dvi-d dual link LDLC. La ou je me question c'est sur le proc'. Ca va encore car t'as quand même un 6 cœurs mais ça peu être parfois un facteur bridant. Moi même ayant une petite conf' de 2009 avec un quad core Q9550 oc, c'est lui qui bride une GTX 770. Qui plus est, il ne supporte pas certain jeux d'instruction SSE ce qui peux poser problèmes dans certains jeux.

Pour l'histoire du PCIe c'est un peu du bullshit. Je sais pas pourquoi les gens ont eu cette crainte du PCIe 3.0 pour les 30x0 mais suffit de regarder un peu sur le net pour voir que la bande passante est pas le soucis. On fait bien du SLI sur des port PCIe 3.0 en 8x ou 4x selon le nombre le CG alors ont arrive vite aux mêmes chiffres que du PCIe 2.0 16x. A la rigueur ce qui creuse l'écart entre les différentes normes c'est leurs différences technique d'implémentations. Si je dis pas de connerie la grosse différence avec le 3 c'est l'encodage qui passe de 8/10B à 128/130B. Donc bon. une RTX3080 sur PCIe 2.0 ça tournera pas trop mal, mais t'aura peu être 10% de perf en moins. Ca serai quand même moins en 3.0 mais bon.

Les adaptateurs DVI que tu proposes ne fonctionneront pas (comme dit au dessus). Enfin si, mais je serai limité en 1280x800, ce qui n'est pas top ^^.
Pour le PCIe 2.0, vous êtes donc plusieurs à dire que ça ne devrait pas poser de problème majeur, c'est plutôt rassurant :D. Merci !

 

Je n'ai pas encore décidé de sauter le pas (c'est quand même un investissement). La partie qui me bloque le plus, c'est l'écran. Il marche comme au premier jour (jamais eu le moindre soucis avec en 13ans, jamais !), et depuis le temps je m'y suis attaché :). Si je dois le remplacer, comme dit dans mon précédent post j'ai bien l'intention de prendre ce qu'il se fait de mieux, pour ne pas regretter le changement (même si je dois lâcher 3000€ juste dans l'écran, je suis prêt à l'envisager si l'écran vaut vraiment le coup). Mais pour le moment je n'ai pas trouvé mon coup de cœur, je n'ai pas vu d'écran "ultime" qui soit juste "objectivement le meilleur". Surtout entre 30" et 32" (j'aimerai un écran dans ces eaux là, du coup je veux un écran 4K, mais je pense que 8K n'est pas utile sur cette diagonale). Donc au moins ça me permet de me retenir pour ne pas craquer pour les nouvelles RTX 30XX, mais elles me font quand même vraiment de l’œil :D.

 

Lien vers le commentaire
Partager sur d’autres sites

Il y a 39 minutes, Aloyse57 a écrit :

J'ai un 32 4K et objectivement c'est pas mal. Mais un peu petit pour ma vue à mon âge.

Malheureusement, il n'y en a pas en 38/40'', et plus grand, j'ai pas la place.

Hello Aloyse, ça fait un bail 🙂 !

Pour le moment ma vue se porte bien, je touche du bois 🤞. Je pense que 4K en 32" c'est effectivement pas mal quand on se tient entre 50cm et 1m de l'écran. Et au delà de 32" ça fait trop grand pour une utilisation bureautique (je ne fais pas que jouer sur mon PC). Et je n'ai pas un appart énorme (faut pas oublier que j'habite dans la ville avec les loyers les plus chers du monde 😅).

Lien vers le commentaire
Partager sur d’autres sites

Il y a 11 heures, chaps a écrit :

En fait, je pense que le DisplayPort Dual-Mode++ supporte effectivement des résolutions de "1920 × 1080 à 120 Hz", "2560 × 1440 à 60 Hz", ou "3840 × 2160 à 30 Hz", mais pour la partie HDMI. Pour la partie DVI, je suis pratiquement persuadé que ça reste du DVI single Link. Et pour mon écran AlienWare y'a pas de questions à se poser, les 120Hz ne sont supportés qu'avec l'entrée DVI (dual link). Donc à 99.99% de chances, si je veux garder mon 30" il me faut un adaptateur actif.

Effectivement c'est la loterie complète  :kill:

Si tu prends le câble StarTech.com DP2DVI2MM6, d'après les spécifications, c'est au + 1920 x 1200.

Mais l'adaptateur actif StarTech.com DVI2DP2, d'après les spécifications, c'est au + 1920 x 1200 @60Hz

Et si tu prends les prix à LDLC (40 vs 70, septembre 2020) la différence n'est pas significative.

Mais l'adaptateur passif StarTech.com DP2DVI2 le moins cher (25, septembre 2020), d'après les spécifications, c'est au + 1920 x 1200.

 

Donc la conversion DisplayPort++ vers DVI-D :windu:, actif ou passif, c'est clair qu'il faut oublier la 4K (peut-être espérer avec de la chance du 1440p @30Hz avec 1 source DisplayPort 1.4) et le 1080p @120Hz semble n'être pas possible.

 

PS : j'ai mis les 3 liens officiels :mrgreen:

Lien vers le commentaire
Partager sur d’autres sites

les adaptateurs c'est toujours la loterie si on ne regarde pas attentivement.

Startech est le low cost des adaptateurs donc je ne suis pas étonné qu'il soit limité à du 1080p60 la puce active dedans doit limiter à 1080p.

Comme dis plus haut il faut prendre les adaptateurs club3d c'est de la deutsch qualitat jamais été déçus par leurs adaptateurs

celui que j'ai mis en lien fais bien du 2560x1600@60 et 4k@30 c'est normal car c'est du display port 1.2 donc c'est le max de bande passante autorisé par cette norme. https://www.club-3d.com/en/detail/2479/displayport_to_dual_link_dvi_i_active_adapter/

[HS] Pour mon cas perso le display port 1.3 vers hdmi 2.0 pour faire du 4k@60 il en existe plein mais le club3d est un des seul à bien faire 4k@60 et à avoir tous les canaux audio j'ai en renvoyé plusieurs chez amazon qui ne faisait pas 4k@60 ou n'avait pas tous les canaux audio. bref [/HS]

Lien vers le commentaire
Partager sur d’autres sites

Merci pour toutes ces infos sur les adaptateurs !
Mais dans le lien de ashol (club-3d), je peux lire "you can enjoy the ultimate widescreen canvas with a resolution of 2560 x 1600 pixels @ 50Hz or 2560 x 1440 @ 60Hz on any other capable display.". Ca ne gère même pas le 2560 x 1600 @ 60Hz (alors que mon écran le supporte bien, c'est ma résolution actuelle au moment où j'écris ces lignes).

Bref, les adaptateur c'est la loterie, mais c'est aussi un peu la misère. C'est pourquoi je préfère encore changer d'écran avant de pouvoir changer (enfin) de carte graphique. Et c'est ce qui m'a permit d'être aussi patient et de ne pas craquer pour une 1080 ou une 2080 :D. Reste à voir si je pourrais attendre les 4080 ou si je vais craquer avant (car mon écran, lui, n'a pas l'air de vouloir craquer...).

Lien vers le commentaire
Partager sur d’autres sites

Il y a 20 heures, ashlol a écrit :

Startech est le low cost des adaptateurs donc je ne suis pas étonné qu'il soit limité à du 1080p60 la puce active dedans doit limiter à 1080p.

:mrgreen: certes, chacun son expérience. Mais juste pour 1 câble d'au + 3 mètres, est-ce bien nécessaire d'avoir du blindage individuel, séparation des brins 2 par 2, isolation en plastique, cuivre top-qualité, connecteur [plaqué] or, ... si le prix est correct, certes c'est mieux :yes:

:mrgreen: mais ici on parle de définitions de 1080p et de 2560x1600 et non pas de la 4K/ 5K/ 8K @120 HDR et + encore, qui pousse les connectiques au maximum

Par contre, pour le convertisseur actif DisplayPort vers HDMI,  tu as raison :mrgreen: : 1080p @60 ce n'est pas terrible.

Mais bon, 70 €uros pour avoir 1 convertisseur 1440p @50 (et non 60) Est-ce mieux ? Quelle va être la réaction de ton moniteur ? :zarb:

Tout ceci est 1 question de débit. Celui du DVI-D "dual-link" est de 7,4 Gbps et peut faire passer au + du 3840x2400 (si je ne me trompe pas :oops:). Mais, le problème ce sont les limitations et bridages du matériel/ convertisseur - impossible de le savoir sans tester :siffle:

Et même la fiche technique officielle n'est pas 1 garantie :kill:  on peut avoir des surprises en bien ou en mal - toi même le dit : 1 convertisseur 2560x1600 te sort du 4k@30.

 

Il y a 15 heures, chaps a écrit :

Bref, les adaptateur c'est la loterie, mais c'est aussi un peu la misère. 

Je ne te critique pas :mrgreen: 1 écran Dell est très très souvent 1 écran de qualité (colorimétrie par exemple) et technologiquement (on se souvient des écrans 5K Apple en 2014),.

Mais acheter 1 écran en 2007 - année du changement de connectiques écran - (ou après) en DVI-D "dual-link" était 1 erreur :siffle: : il fallait prendre 1 écran HDMI 1.3 ou DisplayPort 1.1 et tu n'aurais sûrement jamais eu de problème.

Si tu achètes 1 écran et 1 carte graphique, prend les avec 1 connectique DisplayPort 1.4 - HDMI 2.0 ou 2.1 :yes:

Lien vers le commentaire
Partager sur d’autres sites

Il y a 3 heures, foetus a écrit :

Mais bon, 70 €uros pour avoir 1 convertisseur 1440p @50 (et non 60) Est-ce mieux ? Quelle va être la réaction de ton moniteur ? 

 

Il y a 17 heures, chaps a écrit :

Ca ne gère même pas le 2560 x 1600 @ 60Hz (alors que mon écran le supporte bien, c'est ma résolution actuelle au moment où j'écris ces lignes).

si si il fait bien 2560x1600@60 il faut bien lire la spec le @50 est la limite pour l'écran Apple mais c'est écris @60 pour autre écran

spec :

• Support resolution 2560 x 1600@50Hz on the 30-inch Apple™ Cinema Display

• Support Dual-Link DVI-D highest video resolution to WQXGA 2560 x 1600 @ 60Hz * For Apple users please check the checklist under Downloads

• Support Dual-Link DVI-D highest video resolution 3840*2160 @ 30Hz

 

Lien vers le commentaire
Partager sur d’autres sites

Il y a 3 heures, foetus a écrit :

 certes, chacun son expérience. Mais juste pour 1 câble d'au + 3 mètres, est-ce bien nécessaire d'avoir du blindage individuel, séparation des brins 2 par 2, isolation en plastique, cuivre top-qualité, connecteur [plaqué] or, ... si le prix est correct, certes c'est mieux 

rien à voir avec la qualité du câble que je disais ça je disais par rapport à la puce active dedans, pour les passifs oui du starteck fait l'affaire même amazon basic est souvent encore mieux.

 

Il y a 3 heures, foetus a écrit :

Et même la fiche technique officielle n'est pas 1 garantie :kill:  on peut avoir des surprises en bien ou en mal - toi même le dit : 1 convertisseur 2560x1600 te sort du 4k@30.

comme mis au dessus la spec est claire et nette 2560x1600@50 pour l'écran Apple, 2560x1600@60 et/ou 4k@30 pour les autres en fonction si l'écran le supporte ou pas.

Lien vers le commentaire
Partager sur d’autres sites

Il y a 18 heures, foetus a écrit :

Mais acheter 1 écran en 2007 - année du changement de connectiques écran - (ou après) en DVI-D "dual-link" était 1 erreur :siffle: : il fallait prendre 1 écran HDMI 1.3 ou DisplayPort 1.1 et tu n'aurais sûrement jamais eu de problème.

Vu la satisfaction que m'a apporté l'écran depuis 13 ans, ne t'inquiètes pas je ne regrette absolument pas mon achat 😁.

 

Il y a 15 heures, ashlol a écrit :

si si il fait bien 2560x1600@60 il faut bien lire la spec le @50 est la limite pour l'écran Apple mais c'est écris @60 pour autre écran

spec :

• Support resolution 2560 x 1600@50Hz on the 30-inch Apple™ Cinema Display

• Support Dual-Link DVI-D highest video resolution to WQXGA 2560 x 1600 @ 60Hz * For Apple users please check the checklist under Downloads

• Support Dual-Link DVI-D highest video resolution 3840*2160 @ 30Hz

C'est curieux ça, pourquoi 50Hz pour l'écran Apple et 60Hz pour les autres 🤨?  Bref, ça confirme ce que je pense, les adaptateurs c'est de la m***e, j'en veux pas (surtout au prix que ça coûte 😅).

Il y a 18 heures, foetus a écrit :

Si tu achètes 1 écran et 1 carte graphique, prend les avec 1 connectique DisplayPort 1.4 - HDMI 2.0 ou 2.1 

Si j'achète un écran, je demanderai vos conseils avisés :DD. Mais attention, il me faudra le top !

Lien vers le commentaire
Partager sur d’autres sites

Archivé

Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.

×
×
  • Créer...