Aller au contenu

[CG] Ati R600-Nvidia G80


Messages recommandés

Il semblerait que le futur GPU d'ati présente ces caracteristiques physiques

-meme longueur que le G80 SAUF le cooling serait plus long que le pcb .. ( cool va falloir un Mozart pour caser tout ça :fou: )

-300 W de conso... oui vous avez bien lu ... :eeek2:

-2 connecteurs d'alim PCI -e ( vu la ligne au dessus , ça parait moins surprenant hein ... )

-dual slot ( oui je disais un mozart au moins :non: )

ah UNE BONNE NOUVELLE !!!!

il est gravé en 80 µ... je savais que ça vous ferez plaisir bande de canailloux ( hiboux choux genoux tiens pour le fun )

c'est cool Nvidia et Ati, parce que vous gravez plus fin vous pensez qu'on est happy que vous mettez les watts avec hmmm ?

:francais::francais::francais::francais:

c'était mon coup de gueule mais bon .

ah oui Vista au niveau jeu risque d'etre hard ...vous l'aviez déduit puisqu'il gerera DX10 et que les cartes que vous trouvez déjà gourmandes sont DX9 .. mince on a droit qu'aux watts ... :p:p

pour les afficionados du crossfire ça fera 600W ?... :mad:

c'est fete !!

:chinois:

Lien vers le commentaire
Partager sur d’autres sites

encore un qui n'aime pas ati :(

raté ... :francais:

je comptais passer au crossfire ... :francais:

et ma derniere ati etait une X800 GTO² moddée et flashée en XTX ... :mad:

pas si vieux tu vois :francais:

Ah oui Vista aurait un autre genre d'activation qu'Xp et peut etre selon la rumeur autoriserait 2 upgrades materiels maximum .....

"encore un qui n'aime pas microsoft"

ben je serais sous Linux si tel était le cas ... :francais:

Lien vers le commentaire
Partager sur d’autres sites

Lorsque Nvidia et Ati ont sorti leur GF5 et 9700 avec un connecteur molex au cul, tout le monde avait dit au mon dieu, il va falloir changer mon alim 300W, il ne suffira plus, il faudrait prendre une 350W......

Lorsque Nvidia et Ati ont sorti leur GF6 et X8** avec un connecteur molex au cul, tout le monde avait dit au mon dieu, il va falloir changer mon alim 350W, il ne suffira plus, il faudrait prendre une 400W......

Et ainsi de suite....

Pas de quoi crier au loup

Soit on fait avec, soit on refuse et on reste avec sa vieille bonne GF2 et on joue à Pacman...

Lien vers le commentaire
Partager sur d’autres sites

Lorsque Nvidia et Ati ont sorti leur GF5 et 9700 avec un connecteur molex au cul, tout le monde avait dit au mon dieu, il va falloir changer mon alim 300W, il ne suffira plus, il faudrait prendre une 350W......

Lorsque Nvidia et Ati ont sorti leur GF6 et X8** avec un connecteur molex au cul, tout le monde avait dit au mon dieu, il va falloir changer mon alim 350W, il ne suffira plus, il faudrait prendre une 400W......

Et ainsi de suite....

Pas de quoi crier au loup

Soit on fait avec, soit on refuse et on reste avec sa vieille bonne GF2 et on joue à Pacman...

ça tourne meme pas avec une GF1 ? :invasion:

nan ce que je trouve personellement ralant c'est cette direction divergente en terme de watts ou tdp etc entre les fabricants de gpu et ceux de proc.

c'est sur que difficile de résister au progres mais 300wtass tout de meme pour un seul élément micro ..

apres , y a plus qu'à attendre les solutions d'alim exterieure car avec des monstres pareils , on peut evidemment l'adopter mais en air cooling ça va pas trop le faire , donc autant qu'ils sortnent directos des solutions watercoolées non ?

;)

Lien vers le commentaire
Partager sur d’autres sites

Lorsque Nvidia et Ati ont sorti leur GF5 et 9700 avec un connecteur molex au cul, tout le monde avait dit au mon dieu, il va falloir changer mon alim 300W, il ne suffira plus, il faudrait prendre une 350W......

Lorsque Nvidia et Ati ont sorti leur GF6 et X8** avec un connecteur molex au cul, tout le monde avait dit au mon dieu, il va falloir changer mon alim 350W, il ne suffira plus, il faudrait prendre une 400W......

Et ainsi de suite....

Pas de quoi crier au loup

Soit on fait avec, soit on refuse et on reste avec sa vieille bonne GF2 et on joue à Pacman...

ça tourne meme pas avec une GF1 ? :zarb:

nan ce que je trouve personellement ralant c'est cette direction divergente en terme de watts ou tdp etc entre les fabricants de gpu et ceux de proc.

c'est sur que difficile de résister au progres mais 300wtass tout de meme pour un seul élément micro ..

apres , y a plus qu'à attendre les solutions d'alim exterieure car avec des monstres pareils , on peut evidemment l'adopter mais en air cooling ça va pas trop le faire , donc autant qu'ils sortnent directos des solutions watercoolées non ?

:corde:

petit HS mais tn score 3dmark, c'est uniquement avec 1 7900GT (ou du SLI ??) pck, tn score cpu est correct, mais le score de la CG, hum, je ne crois pas, tu ferais plus qu'une X1900XTX @ 720/850 .....(a moins que ce ne soit en SLI)

Lien vers le commentaire
Partager sur d’autres sites

Oh un troll :byebye:

Sinon, pour l'instant ce qui est sûr, c'est qu'on ne sait rien sur les CG next gen, si ce n'est que NVidia essaie de faire croire que son archi est unifiée, ce qui n'est pas le cas...et que sous DX9 elle est moins de deux fois performante (le reste de la config ne changeant pas) qu'une X1950XTX (7600pts)...puisqu'elle aligne un petit 12000points...

Après, d'après the inq, la R600 serait plus performante...et disposerait d'un bus en anneau d'une largeur de 512bits...ce qui serait un avantage non négligeable face à NVidia...

Lien vers le commentaire
Partager sur d’autres sites

Oh un troll :roll:

Sinon, pour l'instant ce qui est sûr, c'est qu'on ne sait rien sur les CG next gen, si ce n'est que NVidia essaie de faire croire que son archi est unifiée, ce qui n'est pas le cas...et que sous DX9 elle est moins de deux fois performante (le reste de la config ne changeant pas) qu'une X1950XTX (7600pts)...puisqu'elle aligne un petit 12000points...

Après, d'après the inq, la R600 serait plus performante...et disposerait d'un bus en anneau d'une largeur de 512bits...ce qui serait un avantage non négligeable face à NVidia...

On en sait quand même un peu du G80 de NVIDIA.

8800GTX

* 575MHz Core Clock

* 900MHz Mem Clock

* 768MB GDDR3 memory

* 384-bit memory interface (86GB/s)

* 128 unified shaders clocked at 1350 MHz

* 38.4 billion pixels per second theoretical texture fill-rate

* 450W PSU Recommended

* Hard launch in second week of November

8800GTS

* 500MHz Core Clock

* 900MHz Mem Clock

* 640MB GDDR3 memory

* 320-bit memory interface (64GB/s)

* 96 unified shaders clocked at 1200 MHz

* ?? billion pixels per second theoretical texture fill-rate

* 400W PSU Recommended

* Hard launch in second week of November

Sortie prévue le 8 novembre ;-)

prix 650¤ pour la 8800gtx.

Pour les performances ... Les tests ne devront pas tardés à arriver. :byebye:

Lien vers le commentaire
Partager sur d’autres sites

petit HS mais tn score 3dmark, c'est uniquement avec 1 7900GT (ou du SLI ??) pck, tn score cpu est correct, mais le score de la CG, hum, je ne crois pas, tu ferais plus qu'une X1900XTX @ 720/850 .....(a moins que ce ne soit en SLI)

c'est en sli les scores 3dmark05 19400 et des brouettes et 10400 et des brouettes pour 3dmark06

drivers moddés pour core 2 duo

Oh un troll :transpi:

Sinon, pour l'instant ce qui est sûr, c'est qu'on ne sait rien sur les CG next gen, si ce n'est que NVidia essaie de faire croire que son archi est unifiée, ce qui n'est pas le cas...et que sous DX9 elle est moins de deux fois performante (le reste de la config ne changeant pas) qu'une X1950XTX (7600pts)...puisqu'elle aligne un petit 12000points...

Après, d'après the inq, la R600 serait plus performante...et disposerait d'un bus en anneau d'une largeur de 512bits...ce qui serait un avantage non négligeable face à NVidia...

un troll c'est qq qui est obtus d'esprit. et partisan de l'un ou de l'autre

j'ai déjà possédé de l'ati ou du nvidia et de l'amd aussi bien qu'intel

si apres émettre des critiques vis à vis de l'un ou l'autre est qualifiable de troll alors oui je veux bien etre un troll , et pas un mouton....

je peux me payer le matos mais c'est ralant de devoir tjs user de solutions aftermarket pour avoir un rig à son gout

je suis désolé mais c'est comme les composants de carte mere , à +200¤ certaines ils pourraient livrer des heatpipes au moins efficaces et dont la pate thermique est réellement appliquée de façon correcte .

ça m'amuse pas particulierement de devoir démonter les rads parce que sans ça le truc il chauffe du feu de dieu ..

alors ça aussi c'est du trollisme..et j'en suis à ma 6eme asus ..

faut arreter de voir du troll partout ... pffffff

tiens nvidia , font que des drivers de merde... ( et je le pense pourtant je roule avec .. )

:mdr2:

:smack:

Lien vers le commentaire
Partager sur d’autres sites

Oh un troll :D

Sinon, pour l'instant ce qui est sûr, c'est qu'on ne sait rien sur les CG next gen, si ce n'est que NVidia essaie de faire croire que son archi est unifiée, ce qui n'est pas le cas...et que sous DX9 elle est moins de deux fois performante (le reste de la config ne changeant pas) qu'une X1950XTX (7600pts)...puisqu'elle aligne un petit 12000points...

Après, d'après the inq, la R600 serait plus performante...et disposerait d'un bus en anneau d'une largeur de 512bits...ce qui serait un avantage non négligeable face à NVidia...

un troll c'est qq qui est obtus d'esprit. et partisan de l'un ou de l'autre

j'ai déjà possédé de l'ati ou du nvidia et de l'amd aussi bien qu'intel

si apres émettre des critiques vis à vis de l'un ou l'autre est qualifiable de troll alors oui je veux bien etre un troll , et pas un mouton....

je peux me payer le matos mais c'est ralant de devoir tjs user de solutions aftermarket pour avoir un rig à son gout

je suis désolé mais c'est comme les composants de carte mere , à +200¤ certaines ils pourraient livrer des heatpipes au moins efficaces et dont la pate thermique est réellement appliquée de façon correcte .

ça m'amuse pas particulierement de devoir démonter les rads parce que sans ça le truc il chauffe du feu de dieu ..

alors ça aussi c'est du trollisme..et j'en suis à ma 6eme asus ..

faut arreter de voir du troll partout ... pffffff

tiens nvidia , font que des drivers de merde... ( et je le pense pourtant je roule avec .. )

:p

:humour:

toi aussi tu te mets a la susceptibilité??!! ;)

en meme temps ton titre vise ATI , alors que les "defauts" incriminés concerne autant NVidia.

change le ca fera moins "ati VS nvidia" et redirigera(peut etre) le debat sur l'evolution technologique des futur CG comme tu le voulais au depart :mdr2:

;)

Lien vers le commentaire
Partager sur d’autres sites

En même temps, quel est l'intéret de créer un topic sur une carte qui sort dans 3 mois et dont on ne connait rien, si ce n'est quelques rumeurs lancées par quelques forumeurs et reprisent par tout le monde comme étant de véritables infos ?

Ce qu'on sait maintenant, c'est que les 8800 seront de grosses gourmandes...et qu'elle auront un gros rad pas spécialement silencieux...pour des perfs intéressantes en DX9...mais comme d'hab à chaque changement de génération de DX, pas assez importantes pour exploiter pleinement ledit DX10...enfin, il parait que dans certains milieux, ca fait bien d'être un early adopter :transpi:

Lien vers le commentaire
Partager sur d’autres sites

En même temps, quel est l'intéret de créer un topic sur une carte qui sort dans 3 mois et dont on ne connait rien, si ce n'est quelques rumeurs lancées par quelques forumeurs et reprisent par tout le monde comme étant de véritables infos ?

Ce qu'on sait maintenant, c'est que les 8800 seront de grosses gourmandes...et qu'elle auront un gros rad pas spécialement silencieux...pour des perfs intéressantes en DX9...mais comme d'hab à chaque changement de génération de DX, pas assez importantes pour exploiter pleinement ledit DX10...enfin, il parait que dans certains milieux, ca fait bien d'être un early adopter ;)

les prochaines Nvidia vont faire pleurer aussi oui :transpi:

28 cm de long pour le fleuron de la gamme 8000 à ce qu'il parait.. ( livrée sans nouveau boitier en plus... :craint: )

Lien vers le commentaire
Partager sur d’autres sites

Archivé

Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.

×
×
  • Créer...