Aller au contenu

[CG] [News] Radeon X800 GTO et GeForce 6800 GS en AGP


koskoz

Messages recommandés

en tout cas le sli on en verra pas sur l'agp :transpi::roll:

c'est pour ca que le pci-e est mieux (enfin pas pour le porte monnaie :transpi: )

tu sais, tu peut mettre une seul carte graphique sur un port PCI-e ... :transpi: C'est pas parce que c'est marqué SLI que tu doi absolument en mettre deux !!! :mdr2::transpi:

Et, je suis d'accord l'agp ca reste un socket super qui a mon avis n'étai pas a remplacer !!! :zarb:

Lien vers le commentaire
Partager sur d’autres sites

Pourquoi l'AGP serait-il mort :D

Il existe déjà quelque chose de vraiment plus performant :chinois:

C est pas bon de fumer....

je pense que ta phrase est fausse... tu voulais parler du PCI.....

en tout cas le sli on en verra pas sur l'agp :|:transpi:

c'est pour ca que le pci-e est mieux (enfin pas pour le porte monnaie ;) )

;), le SLI c'est de la merde.

Au moins ca a le merite d etre clair.....

En fait, cela marche relativement bien, mais le prix reste excessif quant aux performances percues...

Lien vers le commentaire
Partager sur d’autres sites

pci Xpress cest de la merde je trouve moi je reste avec le agp jusqua se que ati sorte sa thenologie pour metre 2 carte3d ati si non je change pas mon agp cest sur

Tiens, j'ai l'impression qu'il y a un truc qui s'appele le Crossfire et qui ressembl étrangement à ce que tu dis qui est sorti chez Ati depuis un petit moment :francais:.

Sinon, le SLi n'apporte casiment rien dans des résolutions "normales", à partir de 1600*1200 là ça commence à devenir interessant.

Et l'AGP les cartes AGP sont toutes aussi bonne que celle en PCIe, faut pas se leurer.

Lien vers le commentaire
Partager sur d’autres sites

Arrêté avec votre port AGP. Même si l'AGP8X n'était toujours pas complètement exploité, il faut dire qu'il pose pas mal de problème de compatibilité.

AGP Fast Write

Sideband addressing

Combinaison d'écriture

Même si avec des cartes de "faible" bande passante ces technologies fonctionnent "généralement" correctement...avec des grosse carte type X850XT PE ou 6800Ulttra c'est autre chose. On ne compte même plus les cas d'instabilité (boucle infinie, freez,...) ou de conflit carte mère <> carte graphique....

Je n'ose imaginer les problèmes que cela poserait à une carte très haute bande passante comme une X1800XT ou une 7800GTX 512Mo...

>> une config sur deux qui plante!! :D

PS: A noté que j'ai une CG AGP (6800U)....mais ce n'est pas une raison de ce voiler la face. L’AGP n'est pas morte puisqu’il propose encore de très bonne performance...c'est simplement qu'il y a mieux. A tout point de vu (compatibilité, production, performance, évolution...) ! :pleure:

Lien vers le commentaire
Partager sur d’autres sites

De toutes façons il faut bien évoluer, sinon on en serait encore à l'ISA !

Et c'est vrai que l'AGP posait quelques problèmes, entre les problèmes avec les Fastwrites, ceux qui se retrouvaient en mode PCI... Le PCI-Express a l'air de marcher un peu mieux, et comme ça permet de baisser le prix des mobos...

Lien vers le commentaire
Partager sur d’autres sites

Déjà que passer de l'AGP4x à AGP8x n'a pas vu la performance doublée. Tout au plus 5%. Donc la carte graphique n'exploite pas les 2Go/s de la bande passante.

Si on prend 2 cartes PCIE et AGP basées sur le même core aux même fréquences, on constate qu'il n'y a pas de différence notable dans la performance. Ça se voit sur les plateformes Intel i8xx/i9xx dont la gestion mémoire est toujours confiée au northbridge, contrairement aux AthlonXP/AMD64.

Le point faible de l'agp est due à sa bande passante assymétrique. 2Go/s en montant mais seulement 266Mo/s en descendant alors que le pcie a 4Go/s dans les 2 sens. C'est utile lorsque la CG doit stocker des données sur la ram de la carte mère quand la CG n'a plus assez de mémoire.

Le SLI est autant utile que le dual core.

Parfois, on double la performance.

Parfois, on ne voit aucune différence.

La CG doit effectuer des taches pour afficher l'image 3D.

Si c'est constitué de plusieurs petits calculs, alors chaque CG peut s'occuper d'une partie. On double la puissance de calcul, donc on a 2 fois plus de perf.

Si c'est constitué d'un seul et très gros calcul qui ne peut être partagé en deux, alors seul une CG travaille à fond pendant que l'autre glande. Dans ce cas, le SLI n'apporte strictement rien de plus.

Lien vers le commentaire
Partager sur d’autres sites

Et dire que quand on passera encore à une technologie il y en a qui vont pleurer pour garder leurs bon vieux PCIe :zarb:

Il y a encore de la marge. Le PCI-E 2.0, dispo normalement en 2007, sera complètement compatible avec le PCI-E actuel. :chinois:

--> wizz

Si on prend 2 cartes PCIE et AGP basées sur le même core aux même fréquences, on constate qu'il n'y a pas de différence notable dans la performance.

Tu te base sur des cartes graphique comme des 6600GT/X700Pro ou encore des 6800Ultra/X800XT. Autrement dis des cartes graphique qui ne dépasse pas les ~37Go/s MAX de BP mémoire. Il est évidant que sur une carte graphique haut de gamme actuelle on verrait des différences notable entre une version PCI-E et AGP. Une carte graphique comme une 7800GTX 512 dépasse les 54Go/s rien qu'aux fréquences d'origine. :censored:

Lien vers le commentaire
Partager sur d’autres sites

Le SLI est autant utile que le dual core.

Parfois, on double la performance.

Parfois, on ne voit aucune différence.

La CG doit effectuer des taches pour afficher l'image 3D.

Si c'est constitué de plusieurs petits calculs, alors chaque CG peut s'occuper d'une partie. On double la puissance de calcul, donc on a 2 fois plus de perf.

Si c'est constitué d'un seul et très gros calcul qui ne peut être partagé en deux, alors seul une CG travaille à fond pendant que l'autre glande. Dans ce cas, le SLI n'apporte strictement rien de plus.

Je t'arrête tout de suite : le travail que fait une carte graphique est toujours parallélisable, d'ailleur c'est pour ça qu'il suffit d'ajouter des pipelines pour augmenter les perfs ( ce sont plutôt eux qui sont comparables à des cores ). Le problème de gain de perf qui est parfois nul correspond à des jeux non supportés par les drivers, et donc où le SLI ne s'active pas. S'il n'y avait qu'un calcul qu'on ne peut pas partager à faire, ce ne serait pas une carte qui glanderait mais tous les pixels pipelines sauf un.

Lien vers le commentaire
Partager sur d’autres sites

Si on prend 2 cartes PCIE et AGP basées sur le même core aux même fréquences, on constate qu'il n'y a pas de différence notable dans la performance.

Tu te base sur des cartes graphique comme des 6600GT/X700Pro ou encore des 6800Ultra/X800XT. Autrement dis des cartes graphique qui ne dépasse pas les ~37Go/s MAX de BP mémoire. Il est évidant que sur une carte graphique haut de gamme actuelle on verrait des différences notable entre une version PCI-E et AGP. Une carte graphique comme une 7800GTX 512 dépasse les 54Go/s rien qu'aux fréquences d'origine. :embarassed:

Cette bande passante concerne la mémoire embarquée sur la carte graphique. Elle ne dépend pas du format de la carte graphique mais seulement du type de mémoire utilisée, du timing, de la fréquence.

Lien vers le commentaire
Partager sur d’autres sites

Le SLI est autant utile que le dual core.

Parfois, on double la performance.

Parfois, on ne voit aucune différence.

La CG doit effectuer des taches pour afficher l'image 3D.

Si c'est constitué de plusieurs petits calculs, alors chaque CG peut s'occuper d'une partie. On double la puissance de calcul, donc on a 2 fois plus de perf.

Si c'est constitué d'un seul et très gros calcul qui ne peut être partagé en deux, alors seul une CG travaille à fond pendant que l'autre glande. Dans ce cas, le SLI n'apporte strictement rien de plus.

Je t'arrête tout de suite : le travail que fait une carte graphique est toujours parallélisable, d'ailleur c'est pour ça qu'il suffit d'ajouter des pipelines pour augmenter les perfs ( ce sont plutôt eux qui sont comparables à des cores ). Le problème de gain de perf qui est parfois nul correspond à des jeux non supportés par les drivers, et donc où le SLI ne s'active pas. S'il n'y avait qu'un calcul qu'on ne peut pas partager à faire, ce ne serait pas une carte qui glanderait mais tous les pixels pipelines sauf un.

C'est vrai que sans un bon driver, ça ne sert à rien d'avoir le SLI.

Si on augmente le nombre de pixel pipelines dans un core, on augmente la performance. Mais ces pp fonctionnent en interne, avec la fréquence élevée du gpu, avec la bande passante mémoire de sa carte.

Si on doit utiliser des pp externes sur la 2e CG, on dépend entre autre de la vitesse de communication entre ces 2 cartes. Parfois, il vaut mieux laisser ce "gros calcul indivisible" occupé par une seule carte pendant que l'autre s'occupe de "plusieurs autres petits", même si le partage de travail n'est pas équitable.

Lien vers le commentaire
Partager sur d’autres sites

Cette bande passante concerne la mémoire embarquée sur la carte graphique. Elle ne dépend pas du format de la carte graphique mais seulement du type de mémoire utilisée, du timing, de la fréquence.

C'est exact, enfin partiellement exacte puisque les timings n’influent pratiquement pas sur la bande passante théorique.

Mais c'est quoi le rapport avec ce que je t'ai dis plus haut. :embarassed:

Une carte graphique avec une mémoire très rapide implique une communication "CG - Chipset - CPU" très rapide.

Lors d'un jeu c'est le CPU qui alimente la CG en information.....et toutes ces informations passent par le port graphique.

Lien vers le commentaire
Partager sur d’autres sites

Le cpu "fabrique" les images brutes sous forme de maillage.

Ensuite cette mage brute est envoyée à la carte graphique via le port graphique, agp ou pcie.

Si cette quantité d'information était TRES importante, on aurait dû voir la performance doublée lors du passage de agp4 (1Go/s) en agp8 (2Go/s). Et avec le pciex16 (4Go/s)....

Une fois la GC reçoit les info, son role consiste à "colorier" ces cases.

Et comme elle ne peut pas travailler sur l'intégralité en même temps, elle traite l'image morceau par morceau, étape par étape... Et entre temps, elle stocke les infos dans la mémoire vidéo. La bande passante de la mémoire vidéo sert principalement dans cette liaison GPU<-->VRAM.

Exemple:

chercher A dans la mémoire

chercher B dans la mémoire

traiter A+B=C

stocker C dans la mémoire

chercher D

chercher E

traiter D+E=F

stocker F dans la mémoire

...

...

recharger C

recharger F

traiter C+F.....

etc...

Si jamais la mémoire vidéo est saturée, la CG doit alors stocker les données sur la ram de la CM.

A ce moment, la différence entre agp et pcie se fait sentir:

CG --> CM 266Mo/s en agp

CG --> CM 4Go/s en pcie

La CG ne peut plus calculer pour 20 ou 30Go/s de données comme avant mais seulement 4Go/s si elle était en pcie et à peine 266Mo/s en agp.

Sur une CG avec "peu" de mémoire embarquée, si on active les filtrages, les textures... à fond, l'impact sur une cpie se fera moins pénalisant.

Et c'est grace à ça que nvidia a crée la série turbo-cache. Chose impossible en agp avec pourtant une fonction équivalente, agp aperture size, parce que 266Mo/s seulement.

Lien vers le commentaire
Partager sur d’autres sites

--> wizz

Le principe de mémoire déporté sur le port AGP s'appelé l'AGP Texturing. Il y a également eu une autre tentative avec le Virtual Texturing. Pas grand chose à voir avec l'AGP Aperature Size, système de "secoure", qui ne ce contente que d'allouer temporairement de la place dans la RAM du PC lors de débordement de la RAM de la CG....mais qui n'est aucunement apte à stocker d'importante quantité de texture.

PS: En pratique le débordement de mémoire graphique n'arrive jamais, suffit de mettre l'AGP Aperature Size à 0Mo pour le vérifier. :non:

Si cette quantité d'information était TRES importante, on aurait dû voir la performance doublée lors du passage de agp4 (1Go/s) en agp8 (2Go/s). Et avec le pciex16 (4Go/s)....

:non: …et non. C’est ça que tu ne comprends pas.

Contrairement à ce que tu sembles croire une simple 6800Ultra aux fréquences d'origine sature très facilement un port AGP4X (Expérience INSIDE avec ma 6800U et une Abit IT7 MAX2).

La carte n'utilisant que la bande passante du port dont elle à besoin il est logique que l'on n'ai vu aucune différence lors des passages "AGP4X >> 8X" et "AGP8X >> PCI-E 16X"....puisque les cartes de l'époque n'utilisés pas assez de bande passante.

Si les cartes graphique continu d’évolué aussi rapidement qu’actuellement.....c'est le port PCI-E 16X qui va bientôt être insuffisant. :mad2:

PS : Va falloir qu'il le sorte rapidement leur PCI-E 2.0. :pleure:

Lien vers le commentaire
Partager sur d’autres sites

Le SLI est autant utile que le dual core.

Parfois, on double la performance.

Parfois, on ne voit aucune différence.

La CG doit effectuer des taches pour afficher l'image 3D.

Si c'est constitué de plusieurs petits calculs, alors chaque CG peut s'occuper d'une partie. On double la puissance de calcul, donc on a 2 fois plus de perf.

Si c'est constitué d'un seul et très gros calcul qui ne peut être partagé en deux, alors seul une CG travaille à fond pendant que l'autre glande. Dans ce cas, le SLI n'apporte strictement rien de plus.

Je t'arrête tout de suite : le travail que fait une carte graphique est toujours parallélisable, d'ailleur c'est pour ça qu'il suffit d'ajouter des pipelines pour augmenter les perfs ( ce sont plutôt eux qui sont comparables à des cores ). Le problème de gain de perf qui est parfois nul correspond à des jeux non supportés par les drivers, et donc où le SLI ne s'active pas. S'il n'y avait qu'un calcul qu'on ne peut pas partager à faire, ce ne serait pas une carte qui glanderait mais tous les pixels pipelines sauf un.

C'est vrai que sans un bon driver, ça ne sert à rien d'avoir le SLI.

Si on augmente le nombre de pixel pipelines dans un core, on augmente la performance. Mais ces pp fonctionnent en interne, avec la fréquence élevée du gpu, avec la bande passante mémoire de sa carte.

Si on doit utiliser des pp externes sur la 2e CG, on dépend entre autre de la vitesse de communication entre ces 2 cartes. Parfois, il vaut mieux laisser ce "gros calcul indivisible" occupé par une seule carte pendant que l'autre s'occupe de "plusieurs autres petits", même si le partage de travail n'est pas équitable.

Non car un "gros calcul indivisible" ne peut pas occuper une carte complète mais seulement un pipeline. Donc les calculs que font un GPU sont toujours divisibles, sinon les performances seraient catastrophiques.

Le lien entre les deux cores doit servir pour synchroniser les deux cartes, éventuellement garantir la cohérence de la mémoire de chacun des cartes, mais je ne pense pas qu'il y ait beaucoup de modifs de celle-ci durant le rendu d'une scène, les données de taille importante étant des textures qui ne sont pas modifiées. Pour moi les pertes de performances théoriques ( un gaim inférieur à 100% quoi ) sont dûs à des problèmes de synchronisation entre les deux cartes, venant de la difficulté de répartir équitablement le travail.

Lien vers le commentaire
Partager sur d’autres sites

Archivé

Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.

×
×
  • Créer...