Cart5159 Posté(e) le 11 juin 2011 Partager Posté(e) le 11 juin 2011 Bonjour, Étant en train de préparer un futur achat, j'ai remarqué que sur certaines cartes mères apparaissaient des ports HDMI et autres DVI. Je pensait que les Cartes mères avec vidéo intégrée étaient réservées au modèles bas de gamme ou bureautique. Or ces modules sont désormais sur des cartes haut de gamme. Pourquoi ? J'ai cru lire que tant que les ressources vidéo de la Carte mère était suffisantes, la vidéo serait traitée par la CM (économie d'NRJ) et que au lancement d'un jeu par exemple, c'est la CG qui prendrait le relai. Vrai ou Faux. S c'est vrai où branche t'on son écran ? J'avoue que ça me chatouille un peu avoir une carte mère avec la vidéo intégrée... d'une part c'est pas son boulot et d'autre part je pense que le prix de la CM en est plus élevé. (composants et il y a bien dû avoir un mec qui à bossé pour la concevoir cette CM !!!) Qu'en pensez vous..et je recherche une CM qui tienne la route. J'étais parti pour une ASUS P8Z68-V PRO, mais bon... Merci Lien vers le commentaire Partager sur d’autres sites More sharing options...
Amour Posté(e) le 11 juin 2011 Partager Posté(e) le 11 juin 2011 Cela permet simplement d'utiliser le GPU intégré au processeur, et les sorties s'activent seulement si le processeur a un GPU intégré et si par de carte graphique ajoutée je crois. Je ne sais pas s'il y a une technologie comme Optimus Lien vers le commentaire Partager sur d’autres sites More sharing options...
hebus357 Posté(e) le 11 juin 2011 Partager Posté(e) le 11 juin 2011 techniquement, ce n'est pas la carte mère mais le PROCESSEUR qui intègre un chipset vidéo Lien vers le commentaire Partager sur d’autres sites More sharing options...
Cart5159 Posté(e) le 15 juin 2011 Auteur Partager Posté(e) le 15 juin 2011 J'ai pu lire ça... (au sujet des économies d'NRJ) La technologie Virtu de LucidLogix qui jongle entre le GPU intégré et le GPU de la carte graphique est géniale : elle permet de sauver des bébés phoques en coupant la carte graphique quand on est sur le bureau. Mais soyons lucides, elle n'a pas que des vertus. Car il faut décider quel GPU est prioritaire : le iGPU (i pour intégré) ou le cgGPU (cg pour carte graphique). Si vous vous décidez pour la solution iGPU, vous branchez votre écran à la sortie vidéo du chipset : toutes les opérations sont effectuées par le iGPU, sauf celles des applications incluses dans une liste spéciale comme les jeux (qui tourneront sur le cgGPU). Problème : les images ne seront affichées qu'après avoir fait un détour par le tampon du iGPU d'où une baisse de perf' variable (mais limitée à 10 % selon les premiers tests). Mais vous aurez une consommation au repos plus faible. Si vous favorisez le cgGPU, vous branchez votre écran sur la carte graphique. D'ailleurs, c'est la seule solution qui supporte le multi-GPU. La liste d'exceptions devient alors celles qui utilisent le iGPU (encodage par exemple). A vous les perfs maximales en jeu ! Par contre, vous boufferez plus d’électrons au repos mais pour le hard-core gamer, framerate ou bébés phoques, le choix est vite fait. Lien vers le commentaire Partager sur d’autres sites More sharing options...
ano_634765235136126340 Posté(e) le 15 juin 2011 Partager Posté(e) le 15 juin 2011 J'ai pu lire ça... (au sujet des économies d'NRJ) La technologie Virtu de LucidLogix qui jongle entre le GPU intégré et le GPU de la carte graphique est géniale : elle permet de sauver des bébés phoques en coupant la carte graphique quand on est sur le bureau. Mais soyons lucides, elle n'a pas que des vertus. Car il faut décider quel GPU est prioritaire : le iGPU (i pour intégré) ou le cgGPU (cg pour carte graphique). Si vous vous décidez pour la solution iGPU, vous branchez votre écran à la sortie vidéo du chipset : toutes les opérations sont effectuées par le iGPU, sauf celles des applications incluses dans une liste spéciale comme les jeux (qui tourneront sur le cgGPU). Problème : les images ne seront affichées qu'après avoir fait un détour par le tampon du iGPU d'où une baisse de perf' variable (mais limitée à 10 % selon les premiers tests). Mais vous aurez une consommation au repos plus faible. Si vous favorisez le cgGPU, vous branchez votre écran sur la carte graphique. D'ailleurs, c'est la seule solution qui supporte le multi-GPU. La liste d'exceptions devient alors celles qui utilisent le iGPU (encodage par exemple). A vous les perfs maximales en jeu ! Par contre, vous boufferez plus d’électrons au repos mais pour le hard-core gamer, framerate ou bébés phoques, le choix est vite fait. Bonsoir Cart... oui sur le papier ce que tu dis est juste mais sache que sur les cartes mères de hardcore gamers , y'a tout simplement pas de port video... En effet, cette perte de 10% n'affectera pas monsieur tout le monde plus que ça... et pour le hardcore gamer, sa carte mère ne disposera pas de ce port même si il est en Z68. Exemple : la gigabyte UD7 Z68, pas de port graphique... Lien vers le commentaire Partager sur d’autres sites More sharing options...
Cart5159 Posté(e) le 15 juin 2011 Auteur Partager Posté(e) le 15 juin 2011 Salut Léo... Ok ok, J'ai posté ça juste pour info. Je ne suis pas un Hardcore Gamer (lol) et je m'en fous un peu du port graphique intégré à la CM. D'ailleurs je dirai même que je préférerai avoir d'autres choses sur ma CM qu'un port DVI et HDMI (une dent bleue par exemple, ou des ports USB ou firewire en +...) Enfin voilà. Perso je vise une Asus P8Z68 Pro.. qui permet d'exploiter la fonction graphique mais ... que je n'utiliserai pas...) Je suis d'ailleurs ouvert à toute proposition pour une CM de bonne facture qui pourrait remplacer cette Asus ! Bonne nuit ! Lien vers le commentaire Partager sur d’autres sites More sharing options...
ano_634765235136126340 Posté(e) le 15 juin 2011 Partager Posté(e) le 15 juin 2011 Gigabyte en Z68 ? :) bonne soirée. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Batt_60 Posté(e) le 16 juin 2011 Partager Posté(e) le 16 juin 2011 Gigabyte en Z68 ? :) bonne soirée. Nan mais là c'est carrément de l'appel aux trolls un post comme ça Lien vers le commentaire Partager sur d’autres sites More sharing options...
ano_634765235136126340 Posté(e) le 16 juin 2011 Partager Posté(e) le 16 juin 2011 Gigabyte en Z68 ? :) bonne soirée. Nan mais là c'est carrément de l'appel aux trolls un post comme ça t'as pas tord :) par exemple la gigabyte Z68X UD4B3 est une très très bonne carte :) Lien vers le commentaire Partager sur d’autres sites More sharing options...
Cart5159 Posté(e) le 16 juin 2011 Auteur Partager Posté(e) le 16 juin 2011 Hello L'UD4 B3 touche les 190¤... un peu chère... Que pensez vous de la nouvelle Gigabyte GA-Z68XP-UD3 ou sinon Gigabyte GA-Z68X-UD3P-B3... Lien vers le commentaire Partager sur d’autres sites More sharing options...
Messages recommandés
Archivé
Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.