Heelflip Posté(e) le 7 octobre 2009 Partager Posté(e) le 7 octobre 2009 Tu dis ca dans quel sens? Car moi c'est ironique, cette carte est une bouse, que j'aurais jamais du testé, heureusemet je l'ai refilé à mon beau frère pour prendre une Rampage, et si j'avais su j'aurai pris un Evga... Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
NiceOne Posté(e) le 7 octobre 2009 Partager Posté(e) le 7 octobre 2009 Mouais.... ma gigabyte tient tjrs le coup depuis un sacré moment mtn avec mon quad bien poussé... les series UD chez gigabyte méritent qu'on s'y attardent franchement... Trop cher pour ce que ça apporte et BIOS toujours autant en carton. Pour ton OC, toi t'es un gros cocul donc ça fausse les résultats ! N'oublions pas la magnifique Striker II extrème Asus, pwoa, gigabyte aurait pu la sortir celle là Ouais la Striker et la Rampage Formula sont 2 cartes mères à l'instabilité.......extrême ! La Striker II concourt vraiment pour le titre de la pire carte mère HDG de tous les temps, mais se fait quand même griller la politesse par les DQ6 qui sont encore pire ! Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Heelflip Posté(e) le 7 octobre 2009 Partager Posté(e) le 7 octobre 2009 Ce qui est dommage c'est qu'on a très peu de retour sur les X58 Evga, soit elle arrache le slip ou alors pas assez de personne qui en ont... En tout cas elle me donne envie... Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
NiceOne Posté(e) le 7 octobre 2009 Partager Posté(e) le 7 octobre 2009 Bah si c'est du même niveau que les EVGA s775 ça devrait roxxer ! Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
KloWh Posté(e) le 7 octobre 2009 Partager Posté(e) le 7 octobre 2009 N'oublions pas la magnifique Striker II extrème Asus, pwoa, gigabyte aurait pu la sortir celle là transpi.gif En gros "ils persévèrent dans leur médiocrité" (Mode Traduit) Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Heelflip Posté(e) le 7 octobre 2009 Partager Posté(e) le 7 octobre 2009 Tu m'étonne j'avais fait joujou avec un pote et sa Evga 780i, pwooa Pareil leur nouveau monstre avec la 4SLi, powa 7 ports PCIe, ca devient trop démesuré, limite c'est pour dire d'avoir la plus grosse, mais elle donne trop la trique Je rêve d'un O/C xt la dessus... Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Drak Posté(e) le 7 octobre 2009 Partager Posté(e) le 7 octobre 2009 Mouais.... ma gigabyte tient tjrs le coup depuis un sacré moment mtn avec mon quad bien poussé... les series UD chez gigabyte méritent qu'on s'y attardent franchement... Trop cher pour ce que ça apporte et BIOS toujours autant en carton. Pour ton OC, toi t'es un gros cocul donc ça fausse les résultats ! Le bios est le même que dans mon ancienne Evga 750i ... bref.. tous les réglages qu'il faut... et le prix était le meme que les P5Q deluxe... Chance ? tu dis ça juste parce que je peux trier les bons des mauvais CPU avant de les acheter la où je bosse... après de toute façon je les pousse au max et ça c'est pas de la chance mais du savoir faire aussi ( si si c'est même toi qui me l'a sortie cette maxime là ) Toutes les cartes mères que j'ai eu on toujours fait des miracles sans exception... MSI K8N Neo2 -> Poussé un 3500+ presque à 3ghz... à l'époque ou avoir une Geforce 6800 en agp c'était le top du top... et probablement la dernière vraie bonne carte mère de MSI (merci le Nforce3) DFI NF4 SLI-DR Expert -> X2 3800+ à 3Ghz ... seule carte mère qui m'avait poussé de la Corsair DDR à près de 660Mhz (barrettes que j'ai tjrs d'ailleurs...) Evga 680i -> seule carte que j'aurais presque gardé 2 ans !! une bete... une tuerie dans la stabilité des tensions... probablement la carte que je regrette le plus... aura vu passer trois Core2 différents à +4Ghz Evga 750i -> Rien a redire... carte impec... haut FSB.... C2D @ 4.7Ghz... increvable... j'ai du m'y reprendre à 5x avant de la tuer (volontairement je précise) Gigabyte GA-EP45-UD3P -> supporte depuis fevrier 2009 un Q9550 à 4.3Ghz sans broncher et sans avoir eu a retoucher le vCore... Perso... pas convaincu par les i7 et encore moins par les i5... peut etre prendre une GT300 quand elle sortira mais j'en doute... enfin trouvé une config stable et équilibrée que j'ai envie de garder longtemps ! Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
NiceOne Posté(e) le 7 octobre 2009 Partager Posté(e) le 7 octobre 2009 Héhé pareil que moi ! Et puis bon ce sont pas mes 300 Mhz que je te rends qui vont changer la donne surtout que je tourne sur SSD et GTX 285 ! Ma config ne changera que si les i7 en 32 nm valent vraiment le coup et permettent d'atteindre les 4.5 Ghz en air ! Sinon je ne changerai que lorsque mon brave Q9550 aura décidé de passer l'arme à gauche niveau OC ! Et ça sera le grand changement avec l'upgrade de mon serveur ! Passer d'un P4 s478 3.2 Ghz HT à un Q9550 ça va déchirer sévère ! De toute façon ça sera invendable d'ici là une telle config... Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Drak Posté(e) le 7 octobre 2009 Partager Posté(e) le 7 octobre 2009 ??... bah moi aussi je tourne sur SSD (vertex) et GTX285 (watercoolée gniark gniark gniark)... Ahahah... ton P4 dans le serveur qui fait radiateur en hiver et barbecue en été... pratique Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Heelflip Posté(e) le 7 octobre 2009 Partager Posté(e) le 7 octobre 2009 Le i7 ca roxe sérieux, mais c'est cher, moi c'est le i5 qui m'emballe pas... Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
NiceOne Posté(e) le 7 octobre 2009 Partager Posté(e) le 7 octobre 2009 ??... bah moi aussi je tourne sur SSD (vertex) et GTX285 (watercoolée gniark gniark gniark)... Ahahah... ton P4 dans le serveur qui fait radiateur en hiver et barbecue en été... pratique Ah bon ? Je savais pas que tu avais une 285 et encore moins que tu avais un Vertex ailleurs que dans ton laptop ! Le i7 ca roxe sérieux, mais c'est cher, moi c'est le i5 qui m'emballe pas... Moi c'est l'inverse... L'i7 en 1366 n'a pas d'avenir tandis que la plateforme i5 sera plus upgradable par la suite ! Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
KloWh Posté(e) le 7 octobre 2009 Partager Posté(e) le 7 octobre 2009 C'est à voir ça ... intel en ce moment chez eux s'la fête au sockets j'ai l'impression, m'enfin ça serait bien qu'ils arrêtent un peu le tir côté socket que les constructeur ai le temps de créer des refroidissement décents Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Heelflip Posté(e) le 7 octobre 2009 Partager Posté(e) le 7 octobre 2009 Je m'en fou de son avenir il est là (enfin bientôt j'espère), et je le garde avec mon SLI 280 et mon vertex turbo jusqu'en 2012, le temps d'économiser pour passer aux nouveautés, d'ici la j'epsère le sata3 et le PCIe3.0... Et à mon avis le i7 tiendra largement jusque là... Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
NiceOne Posté(e) le 7 octobre 2009 Partager Posté(e) le 7 octobre 2009 Jusqu'en 2012 ? J'ai un doute tu vois parce que c'est dans 3 ans et mon E6600 qui a 3 ans maintenant est largement dépassé ! Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Heelflip Posté(e) le 7 octobre 2009 Partager Posté(e) le 7 octobre 2009 J'ai pas dis que je voulais jouer non plus, il sera O/C, déjà watercoolé, je tiendrais largement pour taper les jeux dans 1 ans, et après ben je me contenterai d'un COD6 en résau, comme la je ne joue quasi qu'a COD4... Je peux pas foutre 4000¤ chaque année pour un pc... Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Drak Posté(e) le 7 octobre 2009 Partager Posté(e) le 7 octobre 2009 Ah bon ? Je savais pas que tu avais une 285 et encore moins que tu avais un Vertex ailleurs que dans ton laptop ! Rhoo.... faut lire ma config dans le profil... la GTX 285 je l'ai depuis janvier 2009 je l'avais achetée au même temps que ma Antec Signature 650w Config: Intel Core 2 Quad Q9550 (E0) @ 4.37 Ghz Gigabyte EP45-UD3P @ 515Mhz FSB 2*2Gb DDR2 Corsair Dominator PC8500 @ 1030Mhz - 5-5-5-15-2T Gainward Geforce 285 GTX @ 710/1610/2700 Mhz 20.1" ViewSonic VX2025wm HD : SSD OCZ Vertex 120Gb + RE3 250GB + RE3 500GB Antec Signature 650w Clavier : Logitech G19 Souris : Logitech G9 Carte son : X-Fi Fatal1ty FPS Haut parleurs : Logitech Z-5500 WaterCooling : Innovatek HPPS+ 12v -> CPU Nexxxos X2 Plus Highflow -> BlackIce Micro -> GPU EK 285GTX -> BlackIce Xtrem 2 dans le portable j'ai un SSD aussi mais c'est le Intel 80Gb... quand j'aurais trouvé un meilleur SSD encore pour PC bah le vertex ira dans le portable ouais et le intel je sais pas.. le vendre ou le mettre dans une autre config... on verra Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
NiceOne Posté(e) le 7 octobre 2009 Partager Posté(e) le 7 octobre 2009 MDR ! Ta GTX 285 WC monte moins haut que la mienne en AC ! Terrible quoi ! Mais putain quand même CM Gigabyte et RAM Corsair quand même c'est fort que t'arrives à en tirer quoi que ce soit ! Putain de cocul va ! Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Lexshowbiz Posté(e) le 7 octobre 2009 Partager Posté(e) le 7 octobre 2009 quelle bande de pipelettes Donc NiceOne crache sur les HD4xxx mais ça : http://www.pcinpact.com/actu/news/53416-nv...-genl-patch.htm c'est tout à fait normal en tout cas, en ce moment, ce qui me fait peur, c'est la disponibilité des CG. ça risque d'être tendax si le 40nm n'arrive pas rapidement Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Heelflip Posté(e) le 7 octobre 2009 Partager Posté(e) le 7 octobre 2009 Moi je trouve ca normal, Nvidia veut pas baisser sa cote en s'alliant avec les mauvaise ati, surtout pour les rendre plus perfs. Nan plus sérieusement, ils gardent leur savoir et leur inventions, ce que je trouve normal. Tu crois qu'ati va partager son eyefinity? Ils garde l'exclusivité comme tout le monde... Après c'est sur ca fou les boules aux autres utilisateurs, mais un patch existe... Pas comme le blockage occt d'ati... EDIT: Bon ok, j'admet quand même ma mauvaise foi... Car j'adore le eyefinity sur 3 écrans pour un jeu de course ou un call of duty, et encore plus sur 6 écrans pour un flght simulator Excuse Nice, mais tout être a ses faiblesses, je ne faillirai plus ô maître NiceOne Kénobi (donc oublie ta pelle)... Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Lexshowbiz Posté(e) le 7 octobre 2009 Partager Posté(e) le 7 octobre 2009 et toi, t'as tout lu de travers. eyefinity, Nvidia peut faire la même chose si il le veut. s'pas compliqué, soit c'est au niveau des drivers, soit ils faut adapter l'archi mais en rien ATI les empêche de faire la même chose. mais lit bien l'article (et je en suis pas fanboy ati, j'ai eu aussi du nvidia quand les prix étaient intéressant). nvidia a racheté la physX pour l'intégrer dans ses CG, OK, pas de soucis. seulement, ils sont en train de bloquer au niveau des drivers tous ceux qui possèdent des cartes physX Ageia pour obliger les gens à s'équiper en GeForce et ça, c'est honteux. et en plus, en ce moment, ils sont dans la merde si ATI augmente la production des HD5xxx (je sais, ils ont du mal toussa toussa) car Nvidia n'a ABSOLUMENT RIEN à mettre en face. alors que laisser les gens s'équiper en HD5xxx (ce que les gens vont faire) tout en proposant la physX avec une 9800GT par ex, ça, ça serait intelligent, surtout que Microsoft permet via Seven d'utiliser 2 CG différentes : ATI et Nvidia. et puis Dx11 est en train de foutre la merde dans PhysX en apportant quelque chose de différent mais ayant un but similaire. et pour le patch, c'est un crack donc faut s'y connaitre un petit peu pour l'exploiter. et espérer que le patch soit mis à jour à chaque changement de driveres Nvidia car eux vont faire la chasse à ce patch pour empêcher les gens de faire du combo ATI / Nvidia. Sur ce sujet, Nvidia va se saborder lui même. Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
NiceOne Posté(e) le 7 octobre 2009 Partager Posté(e) le 7 octobre 2009 quelle bande de pipelettes Donc NiceOne crache sur les HD4xxx mais ça : http://www.pcinpact.com/actu/news/53416-nv...-genl-patch.htm c'est tout à fait normal en tout cas, en ce moment, ce qui me fait peur, c'est la disponibilité des CG. ça risque d'être tendax si le 40nm n'arrive pas rapidement Euhhhhh là tu vois, c'est pas comme Apple : j'adore les produits nVidia ils sont parfait d'un point de vue technique. Par contre je chie comme jamais sur leurs méthodes de marketting et autre comportement par rapport aux autres entreprises ! T'inquiètes pas que je leur chie dessus pour l'histoire du SLi tout ça !!! Y'a que leurs produits que j'aime ! Pour tout le reste ils sont quasiment (bon ils ont quand même une ENORME longueur de retard) au même niveau qu'Apple ! Putain ce que je peux chier sur cette marque c'est tellement de la merde !!!!!!! Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Heelflip Posté(e) le 7 octobre 2009 Partager Posté(e) le 7 octobre 2009 Oui je sait lex, je suis d'accord avec toi sur le point de vue marketing, déjà qu'ils sont pas en forme, ils vont encore plus se couler avec ca... C'est juste pour faire mon rabajoie. J'espère juste que voyant la conerie qu'ati fait en bloquant occt et autres, ils vont stoper ca rapidement (blocage physX), surtout que ce serait un avantage pour eux si l'on pouvait coupler une ati avec une nvidia point de vue des ventes... Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Lexshowbiz Posté(e) le 7 octobre 2009 Partager Posté(e) le 7 octobre 2009 clair que le Xfire est bien plus souple que le SLI. le jour où on verra permis un SLI de GTX285 et GTX295 n'est pas arrivé, alors qu'un Xfire de HD4870 1Go et HD4870X2 2Go, c'est possible sans soucis (reste juste l'optimisation des drivers en jeux ...). en gors, si je pousse ton raisonnement à l'extrême, il faudrait des CG Nvidia avec la politique d'ATI Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Heelflip Posté(e) le 7 octobre 2009 Partager Posté(e) le 7 octobre 2009 Alors ca ca serait le pied, il faut qu'on te nomme à la tête de Nvidia, des carte Nvidia, avec souplesse et prix d'ati . Ensuite tu passes chez intel, pour mettre les prix au niveau des amd et là Passe aussi chez gygabite pour couler la boite Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
moitrux Posté(e) le 7 octobre 2009 Partager Posté(e) le 7 octobre 2009 En meme temps le Bi GPU c'est un peu de la merde donc c'est pas un probleme Et puis bon, maintenant c'est deja ca le SLi marche sur X58 ... Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Messages recommandés
Rejoindre la conversation
Vous pouvez publier maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous maintenant pour publier avec votre compte.