seboss666 Posté(e) le 23 octobre 2006 Partager Posté(e) le 23 octobre 2006 Voilà, On peut lire un peu partout que le futur G80 possederait un bus mémoire de 256+128 bits... La question que je me pose et à laquelle je ne trouve pas de réponse c'est à quoi servirait une telle organisation dans la mémoire ? Si les 256 bits serviront aux jeux, dans ce cas le 128 c'est pour quoi ? Surtout que ça commence à donner des quantités de mémoires plutôt farfelues par rapport aux données habituelles qu'on est habitué à voir (128, 256, 512Mo). Quelqu'un arriverait à éclairer ma lanterne ?? Lien vers le commentaire Partager sur d’autres sites More sharing options...
Beheroth Posté(e) le 23 octobre 2006 Partager Posté(e) le 23 octobre 2006 256+128 bits , pour moi ça fait 384 bits ! Lien vers le commentaire Partager sur d’autres sites More sharing options...
seboss666 Posté(e) le 23 octobre 2006 Auteur Partager Posté(e) le 23 octobre 2006 Oui très drôle, mais pourquoi cette séparation au niveau de la mémoire? On unifie les shaders, alors on différencie la mémoire c'est ça? ça n'a aucun sens, dans ce cas pourquoi ne pas proposer la même puissance de traitement pour les deux bus ? Non, sérieux, à quoi ça peut bien servir cette plus petite quantité de mémoire, avec un bus plus réduit ? Lien vers le commentaire Partager sur d’autres sites More sharing options...
wizz Posté(e) le 23 octobre 2006 Partager Posté(e) le 23 octobre 2006 1) tant que ça fonctionne bien, alors qu'est ce qu'on a à f******* de savoir ce qu'il y a dedans... 2) La mémoire rapide est très chère. Construire un large bus pour une grosse bande passante coute très chere aussi. Or toutes les opérations effectuées par la carte graphique n'ont pas besoin forcement d'une très grande vitesse de communication. Il peut etre intéressant de dissocier ces 2 fonctions. Supposons que la CG affiche 100fps, soit 0.01 seconde par image. La CG ne calcule pas toute l'image en même temps. Elle calcule par petite portion, disons 10x10 pixels, ce qui fait 10000 parties à calculer. Pour calculer les textures,les angles d'éclairage, etc... le GPU doit calculer très vite et demande donc une mémoire très rapide pour suivre. Et lorsque le petit carré 10x10 est fini, il le stocke en mémoire. Et lorsque 10000 carrés sont calculés et réunis, la CG affiche 1 image en 0.01s On voit donc qu'il y a 2 types de besoins différents: l'un demandant de la mémoire très rapide, et l'autre de la mémoire beaucoup plus lente. Si on dimensionne la mémoire par le bas, la CG ne sera pas chère mais pas très performante non plus Si on dimensionne la mémoire par le haut, la CG sera très performante mais très chere aussi. Et avec une partie de la capacité qui sera sous utilisé Peut etre que Nvidia a dissocié ces 2 besoins et donc a adapté le matériel pour une juste utilisation de chaque besoin Ceci dit, c'est une pure spéculation de ma part, mais ça peut tenir debout... Lien vers le commentaire Partager sur d’autres sites More sharing options...
seboss666 Posté(e) le 24 octobre 2006 Auteur Partager Posté(e) le 24 octobre 2006 Wizz, tu vas dire que je suis tatillon... Ton explication pourrait se tenir mais cette organisation n'est-elle pas plus complexe et donc aussi chère à produire qu'une seule quantité avec un seul bus ? A moins qu'à la manière des CPU, ils décident de diviser l'archi pour pouvoir désactiver certaines unités, pour réduire la conso et donc le dégagement de chaleur, pourtant on voit bien à leurs annonces qu'on est pas dans cette optique là Désolè mais pour un composant qui va être le plus cher de ma prochaine config, j'aime bien savoir ce que veulent dire tous ces satanés chiffres farfelus qu'ils nous sortent EDIT: tant que ça fonctionne bien, alors qu'est ce qu'on a à f******* de savoir ce qu'il y a dedans... Ca serait pas une mentalité de windowsien ça ? Lien vers le commentaire Partager sur d’autres sites More sharing options...
kyro Posté(e) le 24 octobre 2006 Partager Posté(e) le 24 octobre 2006 et si c'etait pour quantum ? la partie physique du G80 ! Lien vers le commentaire Partager sur d’autres sites More sharing options...
seboss666 Posté(e) le 24 octobre 2006 Auteur Partager Posté(e) le 24 octobre 2006 Je l'avais complètement zappé celui-là, il est vrai que Nvidia a vaguement parlé d'un truc comme ça, développé en partenariat avec Havok, et dont on ne sait rien de plus que lors de son annonce. Ca tient au moins aussi bien la route que l'hypothèse de wizz en tout cas Lien vers le commentaire Partager sur d’autres sites More sharing options...
Messages recommandés
Archivé
Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.