gandalf76fr Posté(e) le 13 juin 2003 Partager Posté(e) le 13 juin 2003 Voila apres avoir lut enormément d'article sur les dernieres générations de CG, je me suis rendu compte d'un truc : Plusieurs d'entre elles utilisent le meme pcb meme si des gpu sont différents, exemple : 9500, 9500 pro, 9700, 9700 pro. En effet certains fabricants utilisent exactement le meme pcb entre ces 4 cartes : le pcb de la 9700 pro est compatible avec toutes. Il en est de meme avec nvidia si j'ai bien compris avec les 5600 et les 5800 (enfin je crois). Donc voila plutot que de nous refourger de nouvelles cartes graphiques tout les 6 mois a plus de 600 euros pourquoi ne vendent ils pas des cartes qui pourraient accepter plusieurs chips graphiques avec un systeme de type socket ? Et puis de meme pourquoi ne permetent ils pas de pouvoir ajouter de la mémoire ? Vous me direz alors qu'il reste le pb du bios de la CG. D'accord mais il suffirait juste de petites modiof a faire qui n'auraient pas trop de consequances. Ensuite, il est vrai qu'apres nos CG ressemblerons alors etrangement au cartes meres. Mais n'etait ce deja pas le cas. Sauf que la tout est soudé et prévu pour que l'on change tout d'un bloc, en sous ruinant au passage. Enfin vous me direz qu'il ne le font pas car cela entamerait leurs entrées d'argent. Mais quand on voit le cout d'un chip a la production (18$ si je me rappel bien) et qu'ils le vendent a plusieurs centaines d'euros il y a de quoi se demander si ils ne nous prennent pas pour des vaches a lait. Enfin voia, c'est juste un idée qui me trotte depuis un moment dans la tete. Lien vers le commentaire Partager sur d’autres sites More sharing options...
theocrite Posté(e) le 13 juin 2003 Partager Posté(e) le 13 juin 2003 Il me semble que de permettre de changer des composant implique de prévoir des supports fixes et immuables, ce qui est contraire à la politique de rédution des tailles. Et pis ca va devenir comme nos cartes mères en effet. Faut savoir ce qui est compatible, ce qui est pas compatible, ce qui associé donne les meilleures performances etc.... C'est une bonne idée financièrement, mais ça me parait lourd à réaliser. Lien vers le commentaire Partager sur d’autres sites More sharing options...
playstation.2.fg Posté(e) le 13 juin 2003 Partager Posté(e) le 13 juin 2003 Et puis pour les fournisseurs, ça ne leur rapporterai pas assez. Mais sinon, ce serait une bonne idée, mais niveau taille ce serait trop grand. Lien vers le commentaire Partager sur d’autres sites More sharing options...
uraeus Posté(e) le 13 juin 2003 Partager Posté(e) le 13 juin 2003 C'est une bonne idée financièrement, mais ça me parait lourd à réaliser. De plus je ne suis pas certain qu'on puisse garder un même PCB trés longtemps car sur certain il y a des "ponts" soudés entre-eux qui ne pourront pas être en concordance avec d'autre GPU, enfin il me semble.... Et puis a force c'est comme les legos, on a des piéces partout pour construire un beau château ,je veux dire par là que ce serait trés dur niveau stock et au final assez lourd pour les consommateurs non ?! Lien vers le commentaire Partager sur d’autres sites More sharing options...
[FLP]FaustVIII Posté(e) le 13 juin 2003 Partager Posté(e) le 13 juin 2003 Bonne idée mais... N'oublie pas que ce sont des companies a but lucratif et que leur but n'est pas de faire des cartes graphiques évolutives mais bel et bien de vendre le maximum de cartes... comme tu l'as dis gandalf1fr, oui, ils nous prennent pour des vaches à lait Lien vers le commentaire Partager sur d’autres sites More sharing options...
gandalf76fr Posté(e) le 13 juin 2003 Auteur Partager Posté(e) le 13 juin 2003 CLair qu'on nous prend pour des vaches a lait et c'est ce qui me desole le plus. Quand a la place je pense que moyennant conception cela peut etre facilement gerer. Pour les ponts reliés ou non, il suffirait de les remplacer par des switchs. Reste les problemes de compatibilité mais la ne depend encore que de la volonté de nos chers fournisseurs. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Mikeizbak Posté(e) le 13 juin 2003 Partager Posté(e) le 13 juin 2003 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Mikeizbak Posté(e) le 13 juin 2003 Partager Posté(e) le 13 juin 2003 en plus, le socket pour chip graphique ça existe pour tester les prototypes alors... la RAM ça parait plus chaud Lien vers le commentaire Partager sur d’autres sites More sharing options...
NilSanyas Posté(e) le 13 juin 2003 Partager Posté(e) le 13 juin 2003 Mike Bon sinon très bonne idée mais bon... clair que si un concurrent de NVIDIA ou ATI veut "frapper fort" c'est clairement le meilleur moyen de bouffer des parts de marchés (tout en faisant un chip potable évidemment). Lien vers le commentaire Partager sur d’autres sites More sharing options...
Mikeizbak Posté(e) le 14 juin 2003 Partager Posté(e) le 14 juin 2003 bin merde si tu peux le supprimer c'est mon serveur qui a merdé je crois, ça m'arrive quasiment jamais sinon ça (ADSL powa...) ta suggestion pour faire le troisiéme larron... tu voudrais pas l'envoyer à PowerVR??? Lien vers le commentaire Partager sur d’autres sites More sharing options...
Pipotron Posté(e) le 14 juin 2003 Partager Posté(e) le 14 juin 2003 Pourquoi pas, après tout, nous ne serions pas perdant dans l'histoire... A condition, comme l'a justement souligné Nil, que le chip Gsoit bienG Lien vers le commentaire Partager sur d’autres sites More sharing options...
DesertXpress Posté(e) le 14 juin 2003 Partager Posté(e) le 14 juin 2003 Ça change trop vite. Regarde déjà les cartes mères, bientôt le socket ne servira plus qu'à choisir entre un 5 et 6Ghz. Tu verras pas trop la différence de perf entre les deux de toute façon. Pour les cartes graphique, ça va encore plus vite l'évolution. Lien vers le commentaire Partager sur d’autres sites More sharing options...
prince Posté(e) le 14 juin 2003 Partager Posté(e) le 14 juin 2003 Ça change trop vite. Regarde déjà les cartes mères, bientôt le socket ne servira plus qu'à choisir entre un 5 et 6Ghz. Tu verras pas trop la différence de perf entre les deux de toute façon. Pour les cartes graphique, ça va encore plus vite l'évolution. C'est juste , mais cela n'est pas le cas de la mémoire car la DDR 2 c'est nul . Donc la DDR 1 a encore de beau jour devant elle . Pourquoi pas des rajoue de mémoire ? Lien vers le commentaire Partager sur d’autres sites More sharing options...
Mikeizbak Posté(e) le 14 juin 2003 Partager Posté(e) le 14 juin 2003 pasque physiquement, c'est plus lourd à mettre en place : il faut prévoir les emplacement (on va pas souder les puces nous-même) et assurer le support de l'udgrade alors que pour le socket, il y'est depuis le départ et c'est une mise à jour, pas un ajout... cela dit c'est vrai que le plus intéressant pour les fabricants c'est pas le socket Lien vers le commentaire Partager sur d’autres sites More sharing options...
gandalf76fr Posté(e) le 18 juin 2003 Auteur Partager Posté(e) le 18 juin 2003 bon post juste pour up le sujet, car j'aimerai avoir encore d'autre avis Lien vers le commentaire Partager sur d’autres sites More sharing options...
eclipz Posté(e) le 18 juin 2003 Partager Posté(e) le 18 juin 2003 j'trouve l'analyse un peu simpliste, désolé. D'une, certes ça coute pas cher de FABRIQUER un GPU mais, faut ajouter à cela le cout de la Recherche Développement, les salaires des employés, la marge d'ATI, la marge des producteurs, la marge des intermédiaires, la marge des boutiques où tu les achettes, les couts de transprts, les investissements de ceux qui fabriquent les puces (ça coute cher les usines de production) que le concepteur doit rentabiliser, etc etc etc ! on parle donc de coût de production unitaire mais pas du cout de développement (assez important je pense), des investissements et du cout d'exploitation ! D'autre part tu as le fameux effet "pas assez cher mon fils"... un produit neuf et high-tech se doit d'être cher pour être crédible... c'est assez connu comme effet en économie... tu trouves ça sans doute con mais, pour le consommateur si un produit est bon, il doit couter un certain prix, si il est moins cher, il croit qu'il y a enguille sous roche et achete pas. Ajoute à cela l'effet de mode (et oui, y en a pas mal qui rêvent d'avoir le derniere cri) et ça te fait de bien beaux prix. (remarque bien que, pour les cpu par exemple, AMD ne fait pas de bénef alors que son haut de gamme coute quand même bien cher... donc faut pas oublier tous les coûts indirects qui plombent les comptes) Crois moi, si ATI te vendait ta carte graph 2 fois plus cher que le cout du chip, ATI aurait disparu depuis des lustres, plombé par des dettes énoooormes. D'autre part, pourquoi pas un chip où tu fouts le gpu que tu veux dessus... ben à cause des problèmes de fréquence (certes qui pourraient être reglés par bios... mais faut mettre les mains dans la merde et ça, c'est pas envisageable pour les utilisateurs lambda qui devraient donc se passer de cg ?). Pourquoi pas une possibilité de mettre la qté de mémoire qu'on veut dessus ? ATI l'a fait à un moment, j'pense pas que ça ait trop bien marché ! mais en plus, ça sert à rien de balancer trop de mémoire sur ta cg (elles sont en théorie équipée d'un nombre de Mo bien suffisant, en mettre plus servirait sans doute un peu à rien) et puis pour certains modèles, y a des cartes avec plus ou moins de mémoire alors à toi de bien faire ton choix ! Bref, pourquoi vouloir faire des cg une carte mère ? dans ce cas, pourquoi sur les DD on peut pas fouttre la qté de cache qu'on veut, pourquoi sur ces mêmes DD on peut pas choisir le nombre de plateaux qu'on veut, pourquoi sur les cartes son on peut pas mettre le DSP qu'on veut, pourquoi sur les CPU on peut pas mettre la quantité de cache qu'on veut, et pourquoi et pourquoi et pourquoi ? Y a des impératifs techniques, y a des impératifs marketing, ... (qui acheterait une carte son en kit ? les power users mais ce serait impensable pour les utilisateurs de base... alors on pourrait vendre des cartes son assemblées mais bon...) On peut pas faire du modulaire à l'infini ! Permettre de changer le gpu présente enormément de contrainte et modifier la qté de mém me semble pas super utile ! Et le pire c'est que ça marcherait sans doute pas très fort au niveau commercial tout ça...parce que les power users sont loin d'être la majorité des utilisateurs... En plus, quand t'achettes une carte, en toute honneteté elle peut tenir un certain temps après, si t'as envie de la changer, libre à toi mais bon... c'est comme pour les cpu, au bout d'un moment quand tu changes le cpu tu dois changer la cm et la mem alors bon... bref, quand t'achetes une cg, choisi bien ton modèle et si tu veux qu'elle tienne longtemps faut y mettre le prix mais ça, c'est pareil partout ! Bref, je ne crois pas que le marché des cg abuse tant que ça... mais c'est un avis perso ! faut pas se placer uniquement du coté du consommateur mais aussi du coté de l'entreprise dont le but est pas de faire des cadeaux aux clients mais de faire des bénef... et le plus possible !! Enfin je suis peut-être un peu bonne poire, c'est possible mais pour moi, les prix sont à peu près justifiés et quand on veut de la qualité faut en payer le prix. Ca me fait penser aux téléphones portables. Y en a qui, même achetés avec un forfait, coutent très chers et pourtant ce sont des ventes à perte... pourtant ce ne sont que des téléphones... oui mais les DSP qui sont dedans coutent une fortune tellement ils sont puissants et miniaturisés, .... ! Je trouve qu'il y a pire comme marché... Vincent Lien vers le commentaire Partager sur d’autres sites More sharing options...
Mikeizbak Posté(e) le 18 juin 2003 Partager Posté(e) le 18 juin 2003 j'trouve l'analyse un peu simpliste, désolé.D'une, certes ça coute pas cher de FABRIQUER un GPU mais, faut ajouter à cela le cout de la Recherche Développement, les salaires des employés, la marge d'ATI, la marge des producteurs, la marge des intermédiaires, la marge des boutiques où tu les achettes, les couts de transprts, les investissements de ceux qui fabriquent les puces (ça coute cher les usines de production) que le concepteur doit rentabiliser, etc etc etc ! on parle donc de coût de production unitaire mais pas du cout de développement (assez important je pense), des investissements et du cout d'exploitation ! :toutafait daccord: mais la meilleure façon de rentabiliser un produit, c'est justement de lui donner une durée de vie importante... malheureusement pour ça il faut que tout les fabricants pratiquent la même politique commerciale... mais comme ce qui compte c'est d'être devant en perfs, si on est derriére, on se dépêche de sortir la nouvelle puce qui nous fait passer devant, du coup le concurrent fait de même, etc etc, et on se retrouve dans la situation actuelle... D'autre part tu as le fameux effet "pas assez cher mon fils"... un produit neuf et high-tech se doit d'être cher pour être crédible... c'est assez connu comme effet en économie... tu trouves ça sans doute con mais, pour le consommateur si un produit est bon, il doit couter un certain prix, si il est moins cher, il croit qu'il y a enguille sous roche et achete pas. c'est le "prix psychologique" trop important et le client crois qu'on le prends pour un pigeon.... pas assez il croit qu'on lui vends de la merde effectivement.... :cnul: Ajoute à cela l'effet de mode (et oui, y en a pas mal qui rêvent d'avoir le derniere cri) et ça te fait de bien beaux prix. (remarque bien que, pour les cpu par exemple, AMD ne fait pas de bénef alors que son haut de gamme coute quand même bien cher... donc faut pas oublier tous les coûts indirects qui plombent les comptes) faut surtout pas oublier que les gros du volume de vente ne concerne pas le haut de gamme un produit phare n'est pas forcément un produit qui se vend, mais il permet de donner confiance à l''acheteur dans les produits de gamme inférieure... Crois moi, si ATI te vendait ta carte graph 2 fois plus cher que le cout du chip, ATI aurait disparu depuis des lustres, plombé par des dettes énoooormes. D'autre part, pourquoi pas un chip où tu fouts le gpu que tu veux dessus... ben à cause des problèmes de fréquence (certes qui pourraient être reglés par bios... mais faut mettre les mains dans la merde et ça, c'est pas envisageable pour les utilisateurs lambda qui devraient donc se passer de cg ?). hmmm ça peut s'arranger ça... on flashe bien les mobos avec des utilitaires qui font tout, de télécharger le BIOS jusqu'au flashage... ( ) Pourquoi pas une possibilité de mettre la qté de mémoire qu'on veut dessus ? ATI l'a fait à un moment, j'pense pas que ça ait trop bien marché ! mais en plus, ça sert à rien de balancer trop de mémoire sur ta cg (elles sont en théorie équipée d'un nombre de Mo bien suffisant, en mettre plus servirait sans doute un peu à rien) et puis pour certains modèles, y a des cartes avec plus ou moins de mémoire alors à toi de bien faire ton choix ! ça ne serait de toute façon valable que si on peut aussi mettre à jour le GPU, sinon, c'est clair ça sert à rien, et de toute façon c'est pas l'option la plus intéressantes dans ce type de démarche.... Bref, pourquoi vouloir faire des cg une carte mère ? dans ce cas, pourquoi sur les DD on peut pas fouttre la qté de cache qu'on veut, pourquoi sur ces mêmes DD on peut pas choisir le nombre de plateaux qu'on veut, pourquoi sur les cartes son on peut pas mettre le DSP qu'on veut, pourquoi sur les CPU on peut pas mettre la quantité de cache qu'on veut, et pourquoi et pourquoi et pourquoi ? Y a des impératifs techniques, y a des impératifs marketing, ... (qui acheterait une carte son en kit ? les power users mais ce serait impensable pour les utilisateurs de base... alors on pourrait vendre des cartes son assemblées mais bon...) On peut pas faire du modulaire à l'infini ! Permettre de changer le gpu présente enormément de contrainte et modifier la qté de mém me semble pas super utile ! Et le pire c'est que ça marcherait sans doute pas très fort au niveau commercial tout ça...parce que les power users sont loin d'être la majorité des utilisateurs... En plus, quand t'achettes une carte, en toute honneteté elle peut tenir un certain temps après, si t'as envie de la changer, libre à toi mais bon... c'est comme pour les cpu, au bout d'un moment quand tu changes le cpu tu dois changer la cm et la mem alors bon... bref, quand t'achetes une cg, choisi bien ton modèle et si tu veux qu'elle tienne longtemps faut y mettre le prix mais ça, c'est pareil partout ! Bref, je ne crois pas que le marché des cg abuse tant que ça... mais c'est un avis perso ! faut pas se placer uniquement du coté du consommateur mais aussi du coté de l'entreprise dont le but est pas de faire des cadeaux aux clients mais de faire des bénef... et le plus possible !! Enfin je suis peut-être un peu bonne poire, c'est possible mais pour moi, les prix sont à peu près justifiés et quand on veut de la qualité faut en payer le prix. Ca me fait penser aux téléphones portables. Y en a qui, même achetés avec un forfait, coutent très chers et pourtant ce sont des ventes à perte... pourtant ce ne sont que des téléphones... oui mais les DSP qui sont dedans coutent une fortune tellement ils sont puissants et miniaturisés, .... ! Je trouve qu'il y a pire comme marché... Vincent ça c'était un post :8 le plus gros problème c'est le rythme de renouvellement du marché... parce que m'algré tout maintenant au-delà d'un an la CG semble très vite limitée... c'est surtout ça qu'est enquiquinant à mon avis.... Lien vers le commentaire Partager sur d’autres sites More sharing options...
eclipz Posté(e) le 19 juin 2003 Partager Posté(e) le 19 juin 2003 Suis entièrement d'accord avec toi Mikeizbak au niveau de la vitesse de renouvellement des produits : les constructeurs de cg (comme de CPU) se sont engagés dans une course à la puissance qui fait que le materiel est très vite dépassé et ça, effectivement c'est assez nul... enfin en fait le marketing y fait beaucoup parce que, honnetement, une geforce 4 est encore suffisante pour jouer donc pas la peine, si on a déjà une GF4, de s'acheter la toute nouvelle GFX... enfin ça c'est un avis perso Bref, ils speed à mort pour augmenter la puissance et utilisent à fond le marketing pour nous faire avaler les couleuvres. Ca c'est clair que c'est pas respectable. Je trouvais d'ailleurs très intéressant l'idée d'ATI de ralentir ses cycles mais si NVidia suit pas, ça présente des risques pour ATI. A moins que les consommateurs se raisonnent et se rendent compte que de changer de CG trop souvent ça sert pas à grand chose. Bref, à mon sens le marché des cg a des choses à se reprocher c'est très clair mais ses attitudes ont aussi une certaine légitimité (prix, packaging des cg [j'entends par là carte+GPU+ mem d'un seul bloc]). Voila Allez, excellente journée à tous. Vincent Lien vers le commentaire Partager sur d’autres sites More sharing options...
Mikeizbak Posté(e) le 19 juin 2003 Partager Posté(e) le 19 juin 2003 spour ça que j'ai une GF4 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Messages recommandés
Archivé
Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.