seboss666 Posté(e) le 23 octobre 2006 Posté(e) le 23 octobre 2006 Voilà, On peut lire un peu partout que le futur G80 possederait un bus mémoire de 256+128 bits... La question que je me pose et à laquelle je ne trouve pas de réponse c'est à quoi servirait une telle organisation dans la mémoire ? Si les 256 bits serviront aux jeux, dans ce cas le 128 c'est pour quoi ? Surtout que ça commence à donner des quantités de mémoires plutôt farfelues par rapport aux données habituelles qu'on est habitué à voir (128, 256, 512Mo). Quelqu'un arriverait à éclairer ma lanterne ??
Beheroth Posté(e) le 23 octobre 2006 Posté(e) le 23 octobre 2006 256+128 bits , pour moi ça fait 384 bits !
seboss666 Posté(e) le 23 octobre 2006 Auteur Posté(e) le 23 octobre 2006 Oui très drôle, mais pourquoi cette séparation au niveau de la mémoire? On unifie les shaders, alors on différencie la mémoire c'est ça? ça n'a aucun sens, dans ce cas pourquoi ne pas proposer la même puissance de traitement pour les deux bus ? Non, sérieux, à quoi ça peut bien servir cette plus petite quantité de mémoire, avec un bus plus réduit ?
wizz Posté(e) le 23 octobre 2006 Posté(e) le 23 octobre 2006 1) tant que ça fonctionne bien, alors qu'est ce qu'on a à f******* de savoir ce qu'il y a dedans... 2) La mémoire rapide est très chère. Construire un large bus pour une grosse bande passante coute très chere aussi. Or toutes les opérations effectuées par la carte graphique n'ont pas besoin forcement d'une très grande vitesse de communication. Il peut etre intéressant de dissocier ces 2 fonctions. Supposons que la CG affiche 100fps, soit 0.01 seconde par image. La CG ne calcule pas toute l'image en même temps. Elle calcule par petite portion, disons 10x10 pixels, ce qui fait 10000 parties à calculer. Pour calculer les textures,les angles d'éclairage, etc... le GPU doit calculer très vite et demande donc une mémoire très rapide pour suivre. Et lorsque le petit carré 10x10 est fini, il le stocke en mémoire. Et lorsque 10000 carrés sont calculés et réunis, la CG affiche 1 image en 0.01s On voit donc qu'il y a 2 types de besoins différents: l'un demandant de la mémoire très rapide, et l'autre de la mémoire beaucoup plus lente. Si on dimensionne la mémoire par le bas, la CG ne sera pas chère mais pas très performante non plus Si on dimensionne la mémoire par le haut, la CG sera très performante mais très chere aussi. Et avec une partie de la capacité qui sera sous utilisé Peut etre que Nvidia a dissocié ces 2 besoins et donc a adapté le matériel pour une juste utilisation de chaque besoin Ceci dit, c'est une pure spéculation de ma part, mais ça peut tenir debout...
seboss666 Posté(e) le 24 octobre 2006 Auteur Posté(e) le 24 octobre 2006 Wizz, tu vas dire que je suis tatillon... Ton explication pourrait se tenir mais cette organisation n'est-elle pas plus complexe et donc aussi chère à produire qu'une seule quantité avec un seul bus ? A moins qu'à la manière des CPU, ils décident de diviser l'archi pour pouvoir désactiver certaines unités, pour réduire la conso et donc le dégagement de chaleur, pourtant on voit bien à leurs annonces qu'on est pas dans cette optique là Désolè mais pour un composant qui va être le plus cher de ma prochaine config, j'aime bien savoir ce que veulent dire tous ces satanés chiffres farfelus qu'ils nous sortent EDIT: Citation tant que ça fonctionne bien, alors qu'est ce qu'on a à f******* de savoir ce qu'il y a dedans... Ca serait pas une mentalité de windowsien ça ?
kyro Posté(e) le 24 octobre 2006 Posté(e) le 24 octobre 2006 et si c'etait pour quantum ? la partie physique du G80 !
seboss666 Posté(e) le 24 octobre 2006 Auteur Posté(e) le 24 octobre 2006 Je l'avais complètement zappé celui-là, il est vrai que Nvidia a vaguement parlé d'un truc comme ça, développé en partenariat avec Havok, et dont on ne sait rien de plus que lors de son annonce. Ca tient au moins aussi bien la route que l'hypothèse de wizz en tout cas
Messages recommandés
Archivé
Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.