Ogmior Posté(e) le 27 juillet 2007 Partager Posté(e) le 27 juillet 2007 Je vais encore passer pour le gros troll de base et le mec qui vit dans le passé mais bon.Suite à une discussion avec Superlapin ce soir on en est venu à se rappeler V-Rally 2 sur Dreamcast et son intro de haut niveau. Malheureusement pas moyen de mettre la main sur l'intro Française dispo sur Dreamcast (ma version du jeu) qui contient d'autres passages et notammenet ceux qui devaient servir à appuyer mes arguments... Quand on voit cette vidéo on ne peut que se rendre compte que la DC en avait vraiment dans le ventre, même si ça reste une cinématique. Dans les images manquantes il y avait notamment un passage avec une Mistubishi Lancer qui étaient criantes de réalisme, même quand je regarde la vidéo de nos jours (bah ouais j'ai toujours la console et le jeu...) je suis bluffé par ce passage, on dirait que c'est une vraie. La gestion de fumée bleutée des pneus est tout bonnement HALLUCINANTE. Non vraiment la PS3 avec Motorstorm et même GT Prologue sur ce coup n'ont absolument rien de probants... Et la vue ingame dans V-Rally 2, mais argh quel pied N'oublie pas qu'il y a un facteur d'au moins 4 entre la réso de V-Rally 2 et GT5P Et si ca parait pas sur une vidéo Youtube, une fois sur l'écran, ca joue beaucoup. D'autre part, d'un point de vue purement technique, ce qui trahit l'âge de V-Rally 2 (et 3 aussi d'ailleurs je l'ai regardé dans la foulée), c'est l'absence de dynamic lighting. Ca n'empêche pas qu'elle est très belle hein, le seul jeu de voiture que j'aie sur DC c'est Sega Rally et j'y ai joué 10 minutes à tout casser (moi les voitures.... ). L'autre chose qu'on ne voit pas sur la vidéo mais qui est caractéristique des jeux DC en général et qui malheureusement passe très mal sur des TVHD actuelles, et qui est surement une technique utilisée pour ce jeu aussi, c'est une gestion très particulière des textures... Je l'ai remarqué pour la première fois sur Shenmue, puis ca s'est confirmé sur Skies of Arcadia. Très bonne méthode de rendu sur une télé SD, qui fait son effet. Je connais pas le nom (c'est une sorte de dithering), et faudrait que je fasse un screen gros plan d'un jeu l'utilisant. Ca permet dans tous les cas une très grosse économie de puissance, mais comme je l'ai dit, ca se scale pas du tout sur une télé grande taille et de surcroit une télé 720p/1080p. Y'a beaucoup d'éléments à prendre en compte, c'est pas aussi simple de comparer les CG d'avant avec les jeux in game d'aujourd'hui, il y a maintenant beaucoup de postprocessing dans les jeux qui apportent une touche très subtile au rendu et qui ne sont malheuseusement pas souvent visible des gens qui ne savent pas quoi voir justement. Le HDR en fait partie d'ailleurs (ca choque pas le fait qu'il y en ait tellement ca semble "naturel" à l'oeil, pourtant c'est un critère de rendu décisif dans la qualité d'image qui ne pouvait pas se faire y'a quelques années). Maintenant la 3D c'est devenu un monde très (trop?) vaste contrairement à auparavant, ou le vocabulaire et les techniques associées étaient relativement restreintes, maintenant tu as l'embarras du choix (voire le choix de l'embarras) entre des dixaines et des dixaines de techniques de rendus différentes, chacune avec ses avantages et ses inconvénients; malheureusement, les avantages (qu'ils soient techniques ou visuels) n'apparaissent pas forcément dans le jeu final pour un néophyte, qui va plutot se concentrer sur des éléments "simples" et visibles au premier coup d'oeil (ex. des textures léchées). Enfin j'arrete la ma digression HS, c'était juste pour faire relativiser tout ca, je sais qu'au final, seul le "résultat compte", mais quitte à comparer, comparons au moins sur une télé adaptée :) Lien vers le commentaire Partager sur d’autres sites More sharing options...
Metal_Snake Posté(e) le 27 juillet 2007 Partager Posté(e) le 27 juillet 2007 Par contre tu me fais super peur avec Skies of Arcadia moche sur TVHD. Ca perd en qualite ou ca devient veritablement immonde? Car je vais acheter une tele HD et j aimerai bien rejouer notamment a SoA... Lien vers le commentaire Partager sur d’autres sites More sharing options...
Ogmior Posté(e) le 27 juillet 2007 Partager Posté(e) le 27 juillet 2007 Par contre tu me fais super peur avec Skies of Arcadia moche sur TVHD. Ca perd en qualite ou ca devient veritablement immonde? Car je vais acheter une tele HD et j aimerai bien rejouer notamment a SoA... Tant que tu restes assez loin ca passe :) Mais justement, mon écran étant en réso 1920x1080, forcément les pixels "grossissent", et c'est intéressant car on voit les techniques qu'ils ont utilisé pour le rendu à l'écran, et en fait y'a pas vraiment de lissage de texture, c'est une sorte de dithering assez grossier (cad qu'on voit un "damier" de 2 couleurs qui "simulent" la couleur finale car les yeux qd ils sont assez loin fusionnent les deux couleurs en une). Ils utilisent la même technique pour la transparence, à savoir un pixel sur 2 prend la couleur du décor, et l'autre pixel prend la couleur de l'objet, ca simule une semi transparence à 50% d'opacité, mais qui malheureusement devient limite à haute res. L'avantage de cette technique, c'est que tu peux utiliser une palette de couleurs réduite, car les couleurs intermédiaires se font par "interpolation naturelle" (ce sont tes yeux qui font le travail, et un peu la télé aussi ). En ce moment je suis sur Valkyrie Profile 2 Silmeria sur PS2, et sur une TVHD, c'est un peu moche aussi (c'est du low poly donc forcément...) mais la palette de couleurs utilisée est "entière", donc il n'y a pas d'artefact du genre, ca parait plus lisse et les couleurs plus riches. Mais c'est un compromis à faire, à l'époque de la DC, le rendu dithering était un très bon compromis performances/qualité, moins de couleurs à gérer + pas de vrai effet de transparence = plus de ressources pour d'autres choses (notamment Anti aliasing). C'est pourquoi le rendu DC a toujours semblé plus "propre" plus antialisé et avec moins de scintillement que sur PS2. Disons que le choix du rendu était différent pour les deux machines, mais que la PS2 néanmoins n'a pas été privé de jeux sans AA, le meilleur exemple en la matière étant (et oui c'est étrange d'autant plus que c'est un jeu first gen) Baldur's gate Alliance, qui se payait le luxe d'avoir un AAx4! Mais ca s'est surement fait au détriment d'autre chose (peut être le rendu était-il tel que fait sur DC, avec donc une palette de couleur très réduite et moins d'effets). Là ou la PS2 brille vraiment par rapport à la DC, c'est les effets de particules, impossible à réaliser en tant que tel sur DC, sur lesquels de tous les jeux que j'ai fait, les particules sont en général assez grosses et peu nombreuses (elles sont traitées comme des polygones plats). Sur PS2, l'eDram intégré et son fillrate élevé a permis des effets de particule très réussis, que même la XBox avait du mal à faire (elle s'en sortait relativement bien quand meme en voyant Otogi par exemple, mais le rendu n'est pas le même). Le jeu qui en a le plus abusé je pense que c'est Zone of The Enders, surtout le 2, ou y'en a absolument partout , et sans ralentissements aucun. La ou la DC brille vraiment par rapport à la PS2 (et en fait n'importe quelle autre console prev-gen), c'est les textures : la PS2 a vraiment manqué de VRAM pour le coup (problème de cout, l'eDram coutait très cher à l'époque, même maintenant d'ailleurs), 4Mo dont 2,2 Mo env. utilisable en jeu pour les textures, c'est vraiment inhumain... Du coup les textures PS2 se faisaient souvent "au dessin", cad qu'elles sont "dessinées" au lieu que ce soit un simple placage d'image (surtout au début, par la suite les devs ont réussi à passer outre ces limitations). Heureusement que la puissance brute de la PS2 en terme de poly était élevée pour permettre cela . Certains devs PS2 pensaient d'ailleurs que si elle avait eu ne serait-ce que le double de VRAM intégré, ils auraient pu vraiment faire des miracles avec cette console. C'est LE gros défaut design de la console, c'est dommage... Aah merde je suis encore parti loin Enfin bref, pour SoA, tu pourras juger par toi même, peut être que ca te gênera pas, moi ca m'a pas si gêné que ca, je suis à 3m de mon écran 24" . Mais en m'approchant de l'écran, j'ai pu constater les dégats Lien vers le commentaire Partager sur d’autres sites More sharing options...
Metal_Snake Posté(e) le 27 juillet 2007 Partager Posté(e) le 27 juillet 2007 Enfin bref, pour SoA, tu pourras juger par toi même, peut être que ca te gênera pas, moi ca m'a pas si gêné que ca, je suis à 3m de mon écran 24" . Mais en m'approchant de l'écran, j'ai pu constater les dégats Ok je verrai bien selon la maniere dont j integre la tele a ma chambre Encore merci pour tes explications toujours tres techniques mais limpides D ailleurs si jamais tu as du temps a perdre, si tu peux expliquer la difference edram, Vram, GDDR, SD Ram, DDR etc. C est du charabia pour moi HS: Faudrait qu on se fasse une bouffe avant que tu ne partes, fin aout ca va? Lien vers le commentaire Partager sur d’autres sites More sharing options...
m00t Posté(e) le 27 juillet 2007 Partager Posté(e) le 27 juillet 2007 fin aout ça me va, si je suis pas bloqué par des bugs à la con ^^ Lien vers le commentaire Partager sur d’autres sites More sharing options...
Ogmior Posté(e) le 27 juillet 2007 Partager Posté(e) le 27 juillet 2007 Enfin bref, pour SoA, tu pourras juger par toi même, peut être que ca te gênera pas, moi ca m'a pas si gêné que ca, je suis à 3m de mon écran 24" . Mais en m'approchant de l'écran, j'ai pu constater les dégats Ok je verrai bien selon la maniere dont j integre la tele a ma chambre Encore merci pour tes explications toujours tres techniques mais limpides D ailleurs si jamais tu as du temps a perdre, si tu peux expliquer la difference edram, Vram, GDDR, SD Ram, DDR etc. C est du charabia pour moi HS: Faudrait qu on se fasse une bouffe avant que tu ne partes, fin aout ca va? Pas de problème Pour les termes, c'est juste des mots différents pour désigner grosso modo la même chose la plupart du temps, seules les temps d'accès, la bande passante, la techno change, mais c'est toujours la même chose. En gros, tu as deux types de mémoire : une pas chère, dite DRAM (D=Dynamic) qui utilise des condensateurs (ce sont des petits composants électroniques capables de stocker de l'énergie électrique pendant une courte durée). Un condo ca coute pas cher, donc c'est la mémoire type des grosses quantités. Typiquement, la DDR, GDDR (c'est de la DDR mais pour les GPU, G=Graphic) etc... sont toutes à base de condensateurs. Chaque condo = 1 bit. Quand il est chargé, ca vaut un bit = 1, quand il est déchargé, bit = 0. Le problème étant que ces composants se déchargent d'eux même au bout d'un temps t défini par leur capacitance (exprimé en Faraday). Donc, pour maintenir un bit à 1, il faut "rafraichir" constamment ce type de mémoire en réinjectant de l'énergie électrique à chaque condo. Les inconvénients, c'est donc que c'est couteux en énergie, et surtout, les débits/temps d'accès sont bien plus longs que les autres types de mémoire dite SRAM (S=Static), car il y a une contrainte matérielle qui est le temps de chargement/déchargement d'un condo, même si c'est rapide (quelques dixaines de nanosecondes), sont incompressibles, et donc quoi qu'il arrive, la DRAM la plus rapide qu'il soit possible de faire au monde sera toujours limité par le temps de charge du condensateur. D'ou le terme "dynamic": la valeur est toujours changeante La SRAM au contraire utilise ce qu'on appelle des "bascules", des composants électroniques à base de transistors (plus précisément ces transistors forment des "portes logiques ET, OU, XOR etc...), utilisé pour l'électronique numérique (le condensateur c'est de l'électronique "analogique"). Une bascule est un composant qui a la particularité d'avoir à sa sortie 0 ou 1 (comme tous les composants logiques) et de CONSERVER cet état tant que les 2 valeurs en entrée (chacune valant 0 ou 1 aussi) ne changent pas. Ainsi, tu as deux entrées et une sortie. Une entrée est reliée au bus de données mémoire, cad l'entrée qui va valoir 0 ou 1 en fonction de la donnée que tu veux stocker. L'autre entrée correspond au "contrôle". Si tu le mets à 0, tu "ordonnes" à la bascule de ne rien changer à son état actuel. La valeur en entrée du bus de données n'a donc aucune influence sur la sortie. Si tu le mets à 1, tu ordonnes à la bascule de prendre comme nouvelle valeur la valeur fournie par l'autre entrée. Je passe les détails, mais y'a aussi d'autres entrées, une pour le reset qui force la valeur à 0, et une entrée pour l'horloge, qui vaut 1 à chaque "tic" de l'horloge système (un Hz du processeur, donc pour un proco à 3.2Ghz, tu as 3.2milliards de tic fournie par l'horloge chaque seconde). L'avantage de ce composant, c'est qu'il est TRES rapide : quelques nanosecondes (parfois 1 ou 2 ns) à peine pour "basculer" la valeur. D'autre part, la valeur restant stable de tic en tic de l'horloge, il consomme beaucoup moins d'énergie que l'équivalent RAM à condensateur, il n'est plus nécessaire de rafraichir périodiquement son état. Désavantage: son prix, beaucoup plus élevé que la DDR, et aussi sa taille : pour faire un bit en DDR, il faut un condensateur (+1 transistor pour faire "bouchon" en entrée du condensateur). Pour faire 1 bit en SRAM, il faut 6 transistors. La DRAM a donc une densité plus élevée que la SRAM vu qu'on peut en mettre plus dans moins de place. C'est pourquoi on peut facilement atteindre 512, voire 1Go de DRAM, tandis que les SRAM atteignent péniblement quelques Mo... La SRAM sert principalement pour la mémoire cache : extrêmement rapide, mais aussi en quantité très limitée. C'est aussi la SRAM qui compose les Local Store de chaque SPE du Cell : c'est sa grande force, c'est une mémoire cache en terme de perfs, mais utilisable comme une mémoire standard (à noter que la mémoire cache -en général- est gérée par le CPU, et que le programmeur ne peut donc pas décider -en général- ce qu'il s'y trouve). Parmi la DRAM, on a la SDRAM, S=Synchronous : les opérations ne s'effectuent qu'à chaque cycle d'horloge, là ou la DRAM simple est asynchrone : elle fait ce qu'on lui demande aussi vite qu'elle le peut... Au détriment de son utilisabilité, car du coup difficile de lui demander de faire plusieurs choses en même temps quand on ne sait pas le temps que ca va prendre... La DRAM simple aujourd'hui, ca n'existe plus... Tu as la DDR (Double Data Rate), qui en gros double le débit de la DRAM standard en effectuant deux opérations / cycle au lieu d'une seule (il le fait en se synchronisant sur les fronts montants et descendants d'un tic d'horloge, en DRAM normalement c'est uniquement la crête, quand l'horloge est à 1 que ca fait effet, ici c'est quand le valeur COMMENCE à monter ou descendre que c'est le signal). La RDRAM (et par extension la XDR de la PS3), c'est de la DRAM aussi. Je rentre pas dans les détails car ca devient trop technique après, mais c'est sur les caractéristiques intrinsèques que la différence se fait : largeur du bus, latence, etc... La VRAM (V=Video), ca n'existe presque plus, mais c'est en gros une RAM a double accès : un accès en lecture/écriture, et un accès en lecture (en général). Il est possible de lire ET écrire dans une même adresse mémoire quasi simultanément grâce à ce double accès : c'est très utile quand par exemple la carte graphique écrit dans la mémoire la scène à afficher PENDANT que l'écran lit les données sur l'autre entrée (d'où le lecture seule) pour afficher la scène. Y'a eu des VRAM en DRAM aussi bien qu'en SRAM... Enfin, l'eDRAM (e=embedded) est une mémoire DRAM (en général) INTEGREE au processeur qui l'utilise. Le fait qu'elle soit intégrée augmente considérablement ses perfs, car, étant à proximité du CPU le débit augmente (peu de chemin à parcourir), il fonctionne en symbiose totale avec lui, utilise des bus plus grands (un bus de 2560 bits pour la PS2 par exemple!! 1024 en lecture, 1024 en écriture et 512 en R/W, chose impossible à faire avec de la DRAM externe). Des perfs proches de celle de la SRAM, et une densité comme celle de la DRAM, donc potentiellement une grande quantité de mémoire eDRAM peut être intégrée. Seulement, le process de fabrication est complexe car l'eDRAM est censé etre intégré au CPU, or les deux composants n'ont pas le meme. Au final, très souvent l'eDRAM est intégrée non pas au "die" du CPU (cad le CPU en lui meme, la partie argentée sur laquelle on place la pate thermique), mais sur le "package" (le gros morceau marron qui l'entoure, ou sont placés les pins en dessous). Et ca, ca coute très cher. C'est pour ca qu'il n'y en a pas tant que ca au final (4Mo dans la PS2, 10Mo dans la Xbox 360). J'espère que c'était assez clair J'ai essayé de simplifier au max donc dès fois c'est approximatif Edit : jamais content le m00t retourne bosser au lieu de glander sur les forums Lien vers le commentaire Partager sur d’autres sites More sharing options...
Metal_Snake Posté(e) le 27 juillet 2007 Partager Posté(e) le 27 juillet 2007 Bah comme d hab c est tres technique mais tu arrives a vulgariser de maniere limpide Lien vers le commentaire Partager sur d’autres sites More sharing options...
m00t Posté(e) le 27 juillet 2007 Partager Posté(e) le 27 juillet 2007 Bah comme d hab c est tres technique mais tu arrives a vulgariser de maniere limpide Limpide, limpide.... Manque des sauts de lignes juste Lien vers le commentaire Partager sur d’autres sites More sharing options...
Metal_Snake Posté(e) le 27 juillet 2007 Partager Posté(e) le 27 juillet 2007 Bah comme d hab c est tres technique mais tu arrives a vulgariser de maniere limpide Limpide, limpide.... Manque des sauts de lignes juste Ah bah bien sur, si je pourris pas la centralisation tu prends le relais Lien vers le commentaire Partager sur d’autres sites More sharing options...
Soulfly_tribe90 Posté(e) le 27 juillet 2007 Partager Posté(e) le 27 juillet 2007 Ca me rappelle mes cours d'électronique quand j'étais en DUT Lien vers le commentaire Partager sur d’autres sites More sharing options...
Ogmior Posté(e) le 27 juillet 2007 Partager Posté(e) le 27 juillet 2007 Bah comme d hab c est tres technique mais tu arrives a vulgariser de maniere limpide Limpide, limpide.... Manque des sauts de lignes juste Gnagnagna Tu es pas censé bosser toi ?? (comment ca moi aussi ??? ) Lien vers le commentaire Partager sur d’autres sites More sharing options...
Metal_Snake Posté(e) le 27 juillet 2007 Partager Posté(e) le 27 juillet 2007 Gnagnagna Tu es pas censé bosser toi ?? (comment ca moi aussi ??? ) Jamais 2 sans 3 Lien vers le commentaire Partager sur d’autres sites More sharing options...
aurel_gogo Posté(e) le 27 juillet 2007 Partager Posté(e) le 27 juillet 2007 Merci Ogmior, car moi aussi ce genre de truc m'interresse et je trouve que tu explique très bien les choses. Car c'est pas facile d'expliquer ce genre de chose à un public non technique. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Metal_Snake Posté(e) le 27 juillet 2007 Partager Posté(e) le 27 juillet 2007 C est tres joli. Juste les mecanos super mal integres au decor. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Valgarv Posté(e) le 27 juillet 2007 Partager Posté(e) le 27 juillet 2007 Très sympa le passage sur les différentes RAM, on devrait faire la centralisation Doctor Ogmior dans ce forum avec tous ses posts, au bout d'un moment on arriverait à faire un mini Wikipedia Bon sinon chu revenu d'Angleterre la semaine dernière, j'y ai croisé un vieux collègue qui bosse maintenant chez 2K Games (il passe 100% de sont temps de travail sur Bioshock en ce moment). Il y fait de la localisation française (toutes les localisation EURO sont à Londres, donc comme y dit le seul anglais de la boîte c'est le patron) : il ne traduit pas les jeux, ils laissent ça aux chinois comme y diraient, il s'occupe de tester les jeux suite à la traduction, bref toutes les merdes qui découlent de la traduction (textes trop grands, bugs d'affichages etc...). Bref mis à part me dire que si j'avais un FPS a acheter cette année c'était Bioshock on a parlé biz-biz, et surtout comment sa boîte prévoyait l'avenir sur consoles. Force est de constater que la PS3 n'entre pas dans les plans. Il me parlait de leur jeu de Basket (NBA 2K7 me semble), ils etaient parti le présenter à Sony avec une version bugguée à mort, la présentation se déroule puis ils passent aux réactions : Sony veut que les méchanismes du jeu soient totalement refaits, il faut pas seulement corriger les bugs, il faut refondre presque tout, et Sony l'exige... Sauf qu'à l'époque, les jeux PS3, c'est comme le dahu, on les cherchent bcp, sans les trouver. 2kGames refuse de modifier le jeu, trop cher, bcp trop cher de refaire un jeu qui va pas se vendre sur une console qui se vend pas non plus. Les conditions sont posées : " Soit vous prenez le jeu tel quel, soit vous avez pas de jeu de Basket sur votre machine". Et donc le jeu est sorti... Bref Sony qui se retrouve obligé d'accepter une poubelle faute de mieux, on est bien loins de l'époque où l'on pouvait sortir des camions-bennes entiers de jeux pourris qui se retrouvaient noyés dans la masse. Vous devriez en prendre de la graine chez Quantic Dream, mettez le paquet sur les versions 360 / PC de Heavy Rain vu qu'elles se vendront à mort, et refourguez à Sony une version apha pour réduire les frais Lien vers le commentaire Partager sur d’autres sites More sharing options...
m00t Posté(e) le 27 juillet 2007 Partager Posté(e) le 27 juillet 2007 Bah on a pas eu de soucis avec notre projet quand on l'a montré à Sony. Peut être parce que ça fait plus sérieux de pas y aller avec une version merdique Et puis la PS3 qui va mourrir, c'est comme Le ptit Jésus. J'y croirais quand je l'aurais vu. Et mon ptit doigt me dit que j'ai plus de chance de voir le ptit Jésus Lien vers le commentaire Partager sur d’autres sites More sharing options...
Ogmior Posté(e) le 27 juillet 2007 Partager Posté(e) le 27 juillet 2007 Vous devriez en prendre de la graine chez Quantic Dream, mettez le paquet sur les versions 360 / PC de Heavy Rain vu qu'elles se vendront à mort, et refourguez à Sony une version apha pour réduire les frais T'as du rater un épisode alors Lien vers le commentaire Partager sur d’autres sites More sharing options...
Valgarv Posté(e) le 27 juillet 2007 Partager Posté(e) le 27 juillet 2007 Bah on a pas eu de soucis avec notre projet quand on l'a montré à Sony.Peut être parce que ça fait plus sérieux de pas y aller avec une version merdique Et puis la PS3 qui va mourrir, c'est comme Le ptit Jésus. J'y croirais quand je l'aurais vu. Et mon ptit doigt me dit que j'ai plus de chance de voir le ptit Jésus A la base c'était prévu qu'ils amènent un jeu pas fini, donc buggué. Juste que Sony a attaqué son numéro genre "Non très cher, vous me refaites tout de A à Z", du coup 2K se sont aussi mis à jouer aux cons , et ils ont gagné (le jeu leur aura coûté moins cher que prévu vu que pas fini, mais SOny l'a accepté donc c'est plus leur problème ). Il est pas question de "Mort de la PS3", juste que le gus me disait que leur boîte avait vite fait revu les plannings et les répartitions pour bosser à fond sur Wii ainsi que 360/PC. Bref ils ont fait comme tout le monde. La PS3 est en marge de la société, elle est pas morte, c'est la gitane du vidéoludisme en fait Lien vers le commentaire Partager sur d’autres sites More sharing options...
m00t Posté(e) le 27 juillet 2007 Partager Posté(e) le 27 juillet 2007 C'est ça de vouloir voir à court terme Lien vers le commentaire Partager sur d’autres sites More sharing options...
Counter143 Posté(e) le 27 juillet 2007 Partager Posté(e) le 27 juillet 2007 C'est ça de vouloir voir à court terme J'ai cru voir que le Xenos de la 360 était similaire (juste par rapport à sa puissance brute) à une X1900XT et que le RSX (plus délicat à comparé) à une 7800-7900GTX. Si on ce base sur ça et encore ce ne sont que des suppositions, l'ecart de puissance entre les 2 cartes n'est pas si flagrant non? Lien vers le commentaire Partager sur d’autres sites More sharing options...
m00t Posté(e) le 27 juillet 2007 Partager Posté(e) le 27 juillet 2007 En effet counter, c'est à peu près ça. Par contre la façon de gérer la mémoire graphique sur 360 permet a priori de meilleures perfs brutes de ce côté là je crois. Mais là encore il faudrait les lumières de Maitre Ogmior pour en être sur Lien vers le commentaire Partager sur d’autres sites More sharing options...
yukito Posté(e) le 27 juillet 2007 Partager Posté(e) le 27 juillet 2007 En effet counter, c'est à peu près ça.Par contre la façon de gérer la mémoire graphique sur 360 permet a priori de meilleures perfs brutes de ce côté là je crois. Mais là encore il faudrait les lumières de Maitre Ogmior pour en être sur Ahh ce que j'aimes pas que l'on compare des console avec les methodes des pc mais si ogmior peut nous eclairer sur le sujet Lien vers le commentaire Partager sur d’autres sites More sharing options...
Metal_Snake Posté(e) le 27 juillet 2007 Partager Posté(e) le 27 juillet 2007 Ogmior fais toi payer Il fait chier kgabou à pas être là, j'ai personne avec qui déconner sur GT 5 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Ogmior Posté(e) le 27 juillet 2007 Partager Posté(e) le 27 juillet 2007 En effet counter, c'est à peu près ça.Par contre la façon de gérer la mémoire graphique sur 360 permet a priori de meilleures perfs brutes de ce côté là je crois. Mais là encore il faudrait les lumières de Maitre Ogmior pour en être sur Ahh ce que j'aimes pas que l'on compare des console avec les methodes des pc mais si ogmior peut nous eclairer sur le sujet Mouarf c'est pas aussi simple que ca de trancher Effectivement PC et console, rien à voir dans le traitement, après entre X360 et PS3, c'est difficile de comparer point par point, des avantages de l'un peuvent s'avérer être des inconvénients dans certaines situations et vice versa. Le meilleur exemple c'est l'eDRAM embarqué dans la Xbox360 (maintenant vous savez ce que c'est ) : normalement, grâce à elle, la 360 devrait pouvoir faire du AAx4 free (dixit ATI et MS). En réalité, c'est vrai...uniquement en SD et sans effets supplémentaires (notamment le HDR). En 720p déjà, les 10Mo sont insuffisants pour faire du AAx2. Pour faire du AAx4 réellement free en 720p, il aurait fallu 30Mo de eDRAM... Donc la conséquence, c'est que l'eDRAM c'est bien, mais son manque de taille fait qu'au final, elle peut devenir une contrainte, car tu peux pas l'utiliser aussi simplement que si t'en avais eu 30Mo... Cad faire rentrer l'image complète 720p dans l'eDRAM et appliquer l'AA toujours dans l'eDRAM... Pour un AAx4, il faut en gros stocker l'image en 8 exemplaires. En AAx2, en 4 exemplaires (ce qui prend un peu plus de 12 Mo en 720p env.). Dc les devs doivent faire du "tiling", cad découper l'image en plusieurs images plus petites (2 tiles en AAx2, 4 tiles en AAx4), donc ca fait 4 rendus à faire (sur 4 sous images)... Pourtant, l'eDRAM est un gros plus, et à priori, la PS3 aurait souffert de ne pas en avoir. Seulement, compte tenu de son prix, sa quantité est limitée, et sur la boite, y'en a pas assez pour faire ce qui est prévu... L'autre grosse différence, c'est l'archi des deux cartes : shaders unifiés chez ATI, vertex shader/pixel shader distincts chez NVidia. En théorie, l'unification c'est l'avenir (NVidia s'y met aussi). Ca permet de décider dynamiquement si telle ou telle unité de traitement va faire du pixel ou du vertex shader. En pratique, il s'avère que le pixel shading est beaucoup plus gourmand (utilisé) que le vertex... Résultat, cette unification n'apporte pas grand chose car le ratio vertex/pixel est toujours en faveur du pixel... Vertex shading = applications d'effets/transformations ... sur les polygones (fil de fer donc). Pixel shading = effet/transfo sur des pixels (textures, bloom, lighting etc...). Bref, ce qui apparait comme des avantages à priori ne l'est pas forcément à postériori.. Les shader unifiés doivent encore prouver leur utilité pour le coup... Reste que sur PS3, le vertex shading pourrait se faire en théorie en utilisant les SPE du Cell... Apparement, certains devs utilisent aussi ces derniers pour faire du postprocessing sur le rendu final. C'est trop compliqué, en plus faut que je rentre chez moi la, pas le temps de finir Ce qu'il faut retenir en gros, c'est que les performances théoriques brutes des deux machines ne veulent absolument rien dire... Selon les contextes, les utilisations, chacun aura ses forces et faiblesses. Dès fois un même résultat peut être obtenu par plusieurs moyens, l'un étant plus adapté à l'un ou l'autre... Bref c'est plus une question de les devs sont ils assez intelligents pour tirer profit des inconvénients de chaque archi et d'en faire un avantage Lien vers le commentaire Partager sur d’autres sites More sharing options...
Punisher28 Posté(e) le 27 juillet 2007 Partager Posté(e) le 27 juillet 2007 Aaha pour revenir aux cinématiques bluffantes de certains "vieux" jeux, elles sont faites par images de synthèses et non par le moteur de jeu alors que maintenant sur les consoles next-gen les cinématiques seront de plus en plus produite par le moteur même du jeu grace à la puissance des console et à l'évolution des moteurs graphiques. Dans heavenly sword mais pas uniquement, tout est à priori produit par le moteur du jeu. PS:Acheter vite votre console next-gen car bientôt il y aura une taxe style SACEM par rapport la copie de musique ou de film. D'après jeuxvideo.fr Lien vers le commentaire Partager sur d’autres sites More sharing options...
Messages recommandés
Archivé
Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.