ttdog Posté(e) le 8 novembre 2008 Partager Posté(e) le 8 novembre 2008 Bonjour je viens de me monter un SLI de 9800GTX+ une Twintech ( PCB court avec ventirad zalman ) et une gainward ( Normale ). Tout marche nikel avec les derniers forceware BETA 180.43 ( 13500 ss Vantage ) En regardant un peu GPUZ je me suis aperçus que mes cartes ne sont pas gravées en 55nm mais en 65nm! Pareil pour les GPU, le logiciel me met G92 Rev A2 ( j'avais lu que les 9800GTX+ devais être des G92B ! ) Ces cartes ne serais en fait que des 9800GTX overclockées? Ca sent l'arnaque tout ça... Lien vers le commentaire Partager sur d’autres sites More sharing options...
psikobare Posté(e) le 8 novembre 2008 Partager Posté(e) le 8 novembre 2008 une arnaque? impossible! se tromper dans les références? qui l'eu crut? Lien vers le commentaire Partager sur d’autres sites More sharing options...
ttdog Posté(e) le 8 novembre 2008 Auteur Partager Posté(e) le 8 novembre 2008 une arnaque? impossible! se tromper dans les références? qui l'eu crut? Ou veux tu en venir? que les constructeurs aurais fait "semblant" de se tromper ( car ça le fait sur mes 2 cartes de constructeurs différents!! ) en plus ça serais gros car les fréquences sont celle d'une 9800GTX+ et les carte sont reconnu comme telle mais c'est juste la gravure qui est celle des ancienne ( 65nm ) En gros ils ont juste changer le bios de leur ancienne GTX et les vendent comme des GTX+, ce qui du coup se rapproche de plus en plus des bonnes vieilles méthode de Nvidia... bref jme suis fait avoir... Lien vers le commentaire Partager sur d’autres sites More sharing options...
Eagle4_92 Posté(e) le 8 novembre 2008 Partager Posté(e) le 8 novembre 2008 Il aurait fallu se renseigner un peu avant... Ceci est un post d'Illuminati poster dans les commentaires de cette news : Ce sont de très bon points que tu apportes.HD 4850 512 Mo = RV770 = 55nm = 625/ 625/1933 Mhz -> $175 (grâce à un rabais postal de $25) 8800 GTS 512 Mo = G92 = 65nm = 650/1625/1940 Mhz -> $160 (grâce à un rabais postal de $50) 9800 GTX 512 Mo = G92 = 65nm = 675/1688/2200 Mhz -> $199 (nouveau prix annoncé par nVidia) 9800 GTX+ 512 Mo = G92b = 55nm = 738/1836/2200 Mhz -> $229 (prix lorsque la carte sortira dans 1 mois) La 9800 GTX+ n'est donc qu'une 9800 GTX overclocké de 9%, qui n'est autre qu'une 8800 GTS overclocké de 4%. On s'attendrait à ce que le G92b, étant gravé en 55nm, chauffe moins que le G92 même lorsqu'overclocké de 9%. Et pourtant ce n'est pas le cas, ni en load (ce à quoi on peu s'attendre vu l'OC de 9%), ni en idle ! -> LIEN En idle le G92b comsomme 9 watts de plus que le G92 pourtant gravé en 65nm, soit 4.6% de conso en plus. Quant au prix de vente, il est clair que les cartes à base de G92b devraient être vendues moins cher car nVidia peut en produire plus sur chaque wafer. Le fait qu'il demande 30$ de plus montre à quel point nVidia se moque de ses clients. Et puis, pourquoi tester une carte qui n'est qu'une 9800 GTX overclocké de 9%, sans overcocker de 9% la HD 4850 ? Une ligne pour la HD 4850 à 625 MHz et une 2e ligne avec une HD 4850 à 681 MHz permettrait de se faire une bonne idée de la puissance que l'on peut obtenir de la "petite" Radeon. (Fin du roman ) Lien vers le commentaire Partager sur d’autres sites More sharing options...
ttdog Posté(e) le 8 novembre 2008 Auteur Partager Posté(e) le 8 novembre 2008 Il aurait fallu se renseigner un peu avant...Ceci est un post d'Illuminati poster dans les commentaires de cette news : Ce sont de très bon points que tu apportes.HD 4850 512 Mo = RV770 = 55nm = 625/ 625/1933 Mhz -> $175 (grâce à un rabais postal de $25) 8800 GTS 512 Mo = G92 = 65nm = 650/1625/1940 Mhz -> $160 (grâce à un rabais postal de $50) 9800 GTX 512 Mo = G92 = 65nm = 675/1688/2200 Mhz -> $199 (nouveau prix annoncé par nVidia) 9800 GTX+ 512 Mo = G92b = 55nm = 738/1836/2200 Mhz -> $229 (prix lorsque la carte sortira dans 1 mois) La 9800 GTX+ n'est donc qu'une 9800 GTX overclocké de 9%, qui n'est autre qu'une 8800 GTS overclocké de 4%. On s'attendrait à ce que le G92b, étant gravé en 55nm, chauffe moins que le G92 même lorsqu'overclocké de 9%. Et pourtant ce n'est pas le cas, ni en load (ce à quoi on peu s'attendre vu l'OC de 9%), ni en idle ! -> LIEN En idle le G92b comsomme 9 watts de plus que le G92 pourtant gravé en 65nm, soit 4.6% de conso en plus. Quant au prix de vente, il est clair que les cartes à base de G92b devraient être vendues moins cher car nVidia peut en produire plus sur chaque wafer. Le fait qu'il demande 30$ de plus montre à quel point nVidia se moque de ses clients. Et puis, pourquoi tester une carte qui n'est qu'une 9800 GTX overclocké de 9%, sans overcocker de 9% la HD 4850 ? Une ligne pour la HD 4850 à 625 MHz et une 2e ligne avec une HD 4850 à 681 MHz permettrait de se faire une bonne idée de la puissance que l'on peut obtenir de la "petite" Radeon. (Fin du roman ) Heu... je ne crois pas avoir dit que je pensais qu'il s'agissait d'un nouveau GPU ( il faut lire ) mon problème est que mes cartes ne possèdent pas de G92b en 55nm mais des G92A2 en 65nm alors qu'elles sont estampiller 9800GTX+ et c'est cela qui m'étonne ( les pratiques de nvidia je les connais depuis le temps ) Lien vers le commentaire Partager sur d’autres sites More sharing options...
Lexshowbiz Posté(e) le 9 novembre 2008 Partager Posté(e) le 9 novembre 2008 pas étonnant quand on connait un peu Nvidia. c'est pareil avec les 8800GT et 9800GT. ce sont les mêmes, 8800 en 65nm et 9800 normalement en 55nm sauf que Nvidia a autorisé les constructeurs à flasher les BIOS des 8800 pour en faire des 9800 afin découler les socks. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Zabuza66 Posté(e) le 9 novembre 2008 Partager Posté(e) le 9 novembre 2008 Bien sûr que c'est plus ou moins de l'arnaque. Tu n'as qu'à voir avec les fausses 9800 gt mobile ( donc pour portable ) Ils te balancent des 9800 gt, alors qu'en fait ce n'est que des 8800. C'est tout de même bon la concurrence qu'ATI a remis au goût du jour. Les gtx 260 core 216, elle, sont plus qu'une update Lien vers le commentaire Partager sur d’autres sites More sharing options...
ttdog Posté(e) le 9 novembre 2008 Auteur Partager Posté(e) le 9 novembre 2008 Reste à savoir si GPUZ ne se trompe pas... au pire faudrait que je démonte la carte et que je calcule la surface du die de la puce : 324mm² pour un G92 en 65nm contre 231mm² pour le G92b J'y vais de suite Lien vers le commentaire Partager sur d’autres sites More sharing options...
ttdog Posté(e) le 9 novembre 2008 Auteur Partager Posté(e) le 9 novembre 2008 Bon ca y est j'ai demonter les 2 cartes et mesuré les dies bilan : 15mm L * 16mm l = 240mm² !!!!! Heu?!!!... Ben vive GPUZ alors... La morale de ce post : il faut croire que ce que l'on peut vérifié Quelqu'un connais un autre logiciel que GPUZ pour vérifié? Lien vers le commentaire Partager sur d’autres sites More sharing options...
Big Dragon Posté(e) le 9 novembre 2008 Partager Posté(e) le 9 novembre 2008 Bon ca y est j'ai demonter les 2 cartes et mesuré les dies bilan :15mm L * 16mm l = 240mm² !!!!! Heu?!!!... Ben vive GPUZ alors... La morale de ce post : il faut croire que ce que l'on peut vérifié Quelqu'un connais un autre logiciel que GPUZ pour vérifié? avais-tu la dernière version du logiciel? regarde avec everest onglet moniteur/GPU Lien vers le commentaire Partager sur d’autres sites More sharing options...
ttdog Posté(e) le 9 novembre 2008 Auteur Partager Posté(e) le 9 novembre 2008 oui j'ai la derniere de gpuz et everest me dit la même chose 65nm 315mm² G92 A2 alors que c'est sûr les puces ne font pas 315mm²... Lien vers le commentaire Partager sur d’autres sites More sharing options...
digital-jedi Posté(e) le 10 novembre 2008 Partager Posté(e) le 10 novembre 2008 Bon ca y est j'ai demonter les 2 cartes et mesuré les dies bilan :15mm L * 16mm l = 240mm² !!!!! Heu?!!!... Ben vive GPUZ alors... La morale de ce post : il faut croire que ce que l'on peut vérifié apprendre à écrire Quelqu'un connais un autre logiciel que GPUZ pour vérifié? Et non, je ne connais pas d'autres logiciels. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Zabuza66 Posté(e) le 11 novembre 2008 Partager Posté(e) le 11 novembre 2008 Regarde du côté de Gpu Cap viewer, mais je ne me souviens plus s'il donne ce genre d'info Lien vers le commentaire Partager sur d’autres sites More sharing options...
Messages recommandés
Archivé
Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.