Aller au contenu

[CG] ATI et son SLI ...


Messages recommandés

Bon, je veut pas Troller ... seulement réunire des infos. Alors pour calmer tt le monde j'aime bien ATI, mais je n'est que des nVidia (4 pour être exacte) et ma prochaine carte sera une ATI ... :transpi:

D'après ZeInquire la méthode qu'ATI a choisie pour concurrencer le SLI d'nVidia aura le beau nom de "ATI Multi VPU". Le principe sera a peut près le même :

nVidia utilise une sorte d'Interlacing de ligne par ligne et ATI opte pour une méthode "Damier" qui divise le tout en petit Care.

On peut se demander, laquelle des versions est plus pratique. :chinois:

En plus on peut lire dans l'article

ATI has had multi rendering for three years now. Until it presents it to the wide crowd of gamers, it was reserved for big military and commercial flight simulators.

Alors, ATI fait déjà depuis un bon bout de temps des Carte Multi GPU (...ou Mono-GPU mais interconnecter ?!?!?..) ce qui prévoit qu'ATI sait ce qu'il fait.

Je m'adresse au pros de la GPU/VPU ... qu'en penser ?

La méthode d'ATI me fait penser a un certain "Kyro" qui y a 2 ans (si j’me trompe pas!) avais impressionner avec sa méthode de rendering en "Damier"

EDIT: Ahh oui .. j'avais oublier Ze Article

Lien vers le commentaire
Partager sur d’autres sites

nVidia utilise une sorte d'Interlacing de ligne par ligne.

Non.....

Ceci est la méthode créer il y a longtemps par 3DFX et utilisé sur le Voodoo2, chose qui n'a plus rien à voir avec le SLI de Nvidia.

Le SLI de Nvidia à 2 modes d'affichage:

AFR (Alternate Frame Rendering), mode crée par ATI (et oui!!). Une des deux cartes calcule les images paires et l’autre les images impaires.

SFR (Split Frame Rendering), mode crée par Metabyte et reprit par 3DFX sur le Voodoo5 5500 et 6000. Le premier GPU calcule la partie haute de l’écran et le deuxieme GPU la partie inférieure. Ce mode est techniquement beaucoup plus avancé que l'AFR....mais est généralement moin efficace dans la plupart des jeux.

Pour le Multi GPU d'ATI, il se nomme AMR (ATI Multiple Randering). Il utilisera plusieurs modes d'affichage (dont surement un mode AFR)...et on le dit beaucoup plus flexible que le SLI de Nvidia. Par exemple il devrait être possible de coupler un X800Pro avec une X800XT.

Lien vers le commentaire
Partager sur d’autres sites

On le dit plus flexible que la solution de NVidia...et encore heureux...NVidia a sorti le SLI à l'arrache...comme je te l'ai déjà dit UltrA...tout comme leur bridge...PCIe <-> AGP...

Pour le bridge ATI peut utiliser le Rialto sans modification sur n'importe quelle carte de sa gamme...alors que NVidia est obligé de redévelopper / modifier son bridge pour chaque carte...alors certes, le bridge de ATI est sorti bien après celui de NVidia, mais il devrait permettre à ATI de ne pas avoir trop de problèmes pour adapter, sans trop de pertes de performance (enfin en limitant surtout) lorsque les puces ne seront plus concues que pour le PCIe, c'est à dire très prochainement...

Après au niveau AMR (ATI Multiple Rendering), contrairement au SLI, il n'y a pas besoin de bricoler avec une carte spéciale pour activer le SLI...même si certains constructeurs de CM on du bien rigoler pour se passer du connecteur SLI...leur petit switchs s'apparentent plus à du bricolage qu'à autre chose...chez ATI, le controleur sera directement intégré au chipset...et comme dans le cas du VideoArray de AlienWare, il ne serait pas obligatoire d'utiliser deux cartes strictement identiques...ce qui permettrait de faire du multi écran de fou, hors des jeux, et de combiner les capacités des cartes 3D dans les jeux...

Sinon, que dire...le AMR existe déjà...et il est probablement intégré, du moins partiellement dans le chipset Xpress200...vu que si l'on possède une CM équipée de ce chipset et une carte ATI, il est possible d'utiliser les deux cartes simultanément...pour faire du multi-écran avec une seule image répartie sur 3 écrans....et ce quelque soit l'application lancée, mais sans combiner les performances des différentes cartes impliquées...ATI à donc déjà dévoilé l'une des fonctionnalités de l'AMR...déporter l'affichage d'une image calculée sur la carte la plus puissante sur une autre carte moins puissante...ce qui est déjà en soi un petit tour de force...

Sinon, que dire, le XPress200 a été lancé par ATI au début de l'année, mais les cartes l'utilisant sont plutôt rares...et pour cause, à mon avis, ATI a sortit le XPress200 pour faire peur à la firme au caméléon...Vous aurez ainsi pu remarquer l'ampleur de la réaction de NVidia face à un problème mineur...le débit en USB2...qui peut facilement être corrigé par l'adjonction d'une puce dédiée...de plus, cela ne vous paraît pas étrange qu'ATI débarque dans le monde des cartes mères avec un chipset mort né, du fait d'une dispo très limitée, ce qui explique que peu de cartes mères l'emploient...Le XPress200 est un chipset qui a été développé uniquement dans le but de démonter qu'il était possible de réserver une partie de la bande passante PCIe pour réaliser un équilibrage de charge (ou dans le cas du XPress200 pour faire transiter des images rendues par une autre carte)...et la partie réservée à l'équilibrage de charge correspond probablement au manque apparent de bande passante PCIe du chipset ATI...

Donc, en résumé, le XPress200 est juste là pour lancer une pique à NVidia...le XPress200 sert à prouver au monde qu'il est possible d'utiliser simultanément deux cartes graphiques cablées 16x/16x...là ou le SLI se limite à un cablage en 8x/8x...et si j'en juge par le manque apparent de bande passante PCIe 16x...c'est que ATI réserve de la bande passante pour le lien entre les deux cartes...

Lien vers le commentaire
Partager sur d’autres sites

Wow, j'en a de l'info la ...

Merci, UltrA et Charles.w ...

AFR (Alternate Frame Rendering), mode crée par ATI (et oui!!). Une des deux cartes calcule les images paires et l’autre les images impaires.

Ben oui .. interlacing comme sur les ecran CRT ... mais bon, la on parle de rendu .... :eeek:

Charles.w, ta theorie de la Xpress me semble tres plosible, j'avais pas vu les choses de cet angle. Mais ya un truc qui me gêne alors .... dans l'article de ZeInquire ils parlent d'une interconnection par le port DVI. Alors pourquoi avoir une interconnection sur la CM ? Ou la connection DVI n'est-elle que pour le output des images?

Jme souvient pas tres bien des Voodoos mais y'avait bien un methode de connecter les deux cartes ensemble sans avoir de CM special .. non?

En plus .. pk ils parle d'une Carte "Master" et d'une Carte "Slave" ? Dans le SLI les deux cartes son bien egales non? Peut-etre que ATI travaille sur un system qui marcherais sur n'importe quel CM ? Où la Carte Master aurais un circuit special qui communiquerais par DVI pour controler le CG Slave?

Je sais pas si ca semble plosible ce que je raconte ... mais pk pas ?

Lien vers le commentaire
Partager sur d’autres sites

Jme souvient pas tres bien des Voodoos mais y'avait bien un methode de connecter les deux cartes ensemble sans avoir de CM special .. non?

Oui sur les 3DFX Voodoo2. Elles utilisaient le SLI premeir du nom (= Scan Line Interleave)....le probléme c'est que cette technologie ne fonctionne pas sur les GPU recent (le Voodoo2 n'avait pas d'accélération géométrique).

En plus .. pk ils parle d'une Carte "Master" et d'une Carte "Slave" ? Dans le SLI les deux cartes son bien egales non?

Le Voodoo5 (mode SFR) fonctionner avec un Master et un Slave. Depuis nVidia à améliorer la chose...c'est le driver lui même qui répartie les tâches entre les 2 GPU (ce sont donc 2 Slave).

--> Charle :byebye:

Tu me semble un peu injust sur le HSI (c'est une puce qu'ATI à trés longtemps enviée!!! :p ).

....comme le Rialto sort 6 bon mois aprés.....il peut ce permétre d'apporter quelques nouveautés.

Pour l'AMR...pas le peine de polymiqué. J'ai hate qu'il sorte. :mdr:

Lien vers le commentaire
Partager sur d’autres sites

Le Voodoo5 (mode SFR) fonctionner avec un Master et un Slave. Depuis nVidia à améliorer la chose...c'est le driver lui même qui répartie les tâches entre les 2 GPU (ce sont donc 2 Slave).

Oui d'accord avec toi .. mais ca aporte aussi de mauvais effest .... comme c'est le pilote qui doit gèrer tout ca ... on pert de la puissance CPU .. deja que le CPU a bc a faire a causes des shaders qu'il doit encoder en real-time (optimisation des shader par le pilote!) ... oO ...

Mais dans l'artiqule .. ils parlent d'un system Master / Slave !!!!

:byebye:

Ya surment qch qui a ete mal comprise .. ou alors ATI nous cache qch de tres bo! :yes:

Lien vers le commentaire
Partager sur d’autres sites

NeoLuxembourg -> Normallement, les connections DVI ne peuvent servir que pour afficher des images sur un écran...après, un carte ne pouvant avoir au maximum que deux prises DVI (si elle n'occupe qu'un seul emplacement), il est obligatoire de trouver une troisième prise DVI...et celle-ci se trouve sur la carte mère dans le cas du XPress200...et l'interconnection ne se fait pas via les prises DVI, vu qu'aucun cable supplémentaire n'est requis pour faire fonctionner 3 écrans simultanément sur une solution basée sur le XPress200...

UltrA -> Heu...en quoi est-je été injuste...faire quelque chose bien implique de prendre son temps...après si on veut passer devant tout le monde on conçoit une puce qui chauffe beaucoup et que l'on est obligé de modifier pour adapter à chaque carte...actuellement, une seule est même version du rialto est utilisée pour les X700 et les X800...alors que NVidia utilise une version du HSI implémentée sur la plaque du GPU pour les 6800, une version du HSI externe pour les 6600 et une version externe et modifiée pour les cartes d'entrée de gamme...

Pour l'AMR, je proposait juste un lien entre sa sortie et le chipset XPress200...je peux me tromper...mais je ne pense pas que ce soit de beaucoup...parceque quel est l'interet, sur un chipset d'entrée de gamme de pouvoir supporter jusqu'à 3 écran en faisant le lien avec une carte 3D haut de gamme...aucun...évidemment...tu as déjà vu une brouette afficher autre chose que le bureau de Windows sur 3 écrans ? Perso, je n'en ait jamais vu...et c'est celà qui m'a fait avancer l'hypothèse exposée dans mon premier post...pas autre chose...

Lien vers le commentaire
Partager sur d’autres sites

UltrA -> Heu...en quoi est-je été injuste...faire quelque chose bien implique de prendre son temps...

:byebye: ...j'adore.....

En fait, le Rialto sort pratiquement au moment ou les cartes PCI-E commence vraiment à ce rependre. Bref je ne dis pas qu'il est inutile....mais tu admettras tout de même qu'il sort un peu tard......

Pour le HSI, à part la gravure et le sens de conversion, les 3 versions sont pratiquement identiques. Ce qui ne demande pas de lourde modification (contrairement à ce que tu essai de dire).

Oui d'accord avec toi.. mais ca aporte aussi de mauvais effest .... comme c'est le pilote qui doit gèrer tout ca ... on pert de la puissance CPU .. deja que le CPU a bc a faire a causes des shaders qu'il doit encoder en real-time (optimisation des shader par le pilote!) ... oO ...

Si c'est en fait une grosse amélioration. Les GPU peuvent consacré toutes leurs puissance à la gestion graphique. Pour le proc, ce traitement ne demande vraiment pas beaucoup de ressource. Si la config est équilibré (avec un proc en proportion aux cartes graphique)....pas de problème là dessus.

Lien vers le commentaire
Partager sur d’autres sites

Pour le HSI, je n'ai jamais dit que les modifications étaient important...mais ce sont quand même des modifications...et développer un waffer est relativement long et couteux...

Pour ce qui est du marché des cartes graphique, tu sembles oublier que seules les configs haut de gamme en sont équipées...et que beaucoup de gens sont des joueurs occasionnels et ne sont pas près à remplacer l'intégralité de leur config...l'AGP a encore de beaux jours devant lui...même s'ils sont comptés...le marché des cartes AGP devrait rester assez important dans les deux voire trois prochaines années...donc sortir le rialto maintenant n'est pas aussi idiot que cela...

Sinon, pour l'avenir, je pense que NVidia comme ATI finiront bien par sortir un chipset d'entrée de gamme peu coûteux et équipé d'une carte graphique intégrée, pour faire de l'ombre au GMA de Intel...qui est, il est important de le rappeller le premier fabriquant de cartes graphiques au monde, loin, très loin devant ATI et NVidia...le XPress200 est également venu là pour débrousailler le chemin...et il ne serait pas étonnant que l'on retrouve une version allégée et moins complexe du XPress200 dans les prochains mois...et ce tant pour les plateformes Intel qu'AMD...de plus, sachant que NVidia s'est remis au travail sur le sujet, ca promet de belles bagarres dans l'entrée de gamme...pour reprendre des parts de marché à Intel...

Lien vers le commentaire
Partager sur d’autres sites

Archivé

Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.

×
×
  • Créer...