Aller au contenu

Les cartes son haute définition


Messages recommandés

Bonjour,

A ma connaissance, sur le marché, il n'existe qu'une carte son haute définition : la Xonar HDAV 1.3 (et ses deux autres déclinaisons), de ASUS ---> http://fr.asus.com/product.aspx?P_ID=wIxyLFT9vTWHLHk8&templete=2 Quoiqu'il en soit, qu'il en existe d'autre ou pas, l'importante particularité de ces cartes son HD est de pouvoir décoder le DTS-HD et le Dolby TrueHD, présent sur les blu-ray. Je rappelle, mais est-ce nécessaire, que ces codecs ne souffrent d'aucune perte de qualité, car ils ne subissent aucune compression. Cependant, tout aussi intéressant soient ces codecs HD, est-ce qu'avec un kit 2.0, des M-Audio AV 40, des enceintes de monithoring, je verrai une différence de qualité auditive ? Autrement dit, avec de telles cartes son, faut-il, au minimum, un kit 5.1 ?

Parce que ces cartes son HD sont chères. Si il n'existe que l'ASUS Xonar HDAV 1.3, celle-ci coûte entre 180 euros et 200 euros, et parfois même plus. Je me doute que si elle a des concurrents, leurs tranches de prix doivent être les même. Et mettre ce prix dans une carte son dont je ne pourrais pas profiter des caractéristiques, non merci. Je n'ai pas l'habitude de jeter mon argent par la fenêtre.

Pour information, ma carte son actuelle, mais vous pouvez le voir aussi dans mon profil, est une Creative PCI Express X-Fi Titanium.

Je vous remercie de votre aide. Bien que je pense connaître, plus ou moins, vos réponses, n'étant pas sûr de moi, je préfère être ridicule et vous demander vos avis.

Lien vers le commentaire
Partager sur d’autres sites

Il n'y a pas que l'Asus HDAV 1.3 qui est DTS-HD/Dolby TrueHD: il y a aussi l'Auzentech X-Fi HomeTheater HD, les Radeon 5000/6000 et les Geforce 500/600.

Leur point commun: une sortie HDMI capable d'envoie la piste son brute en bistream à un ampli compatible.

En analogique stéréo ou 5.1, le logiciel de lecture décompresse et convertit la piste son en PCM stéréo ou 5.1, et qualités intrinsèques de la carte mises à part, n'importe quelle carte son 192kHz/24bits doit donc permettre de restituer le son sans perte.

Lien vers le commentaire
Partager sur d’autres sites

Il n'y a pas que l'Asus HDAV 1.3 qui est DTS-HD/Dolby TrueHD: il y a aussi l'Auzentech X-Fi HomeTheater HD, les Radeon 5000/6000 et les Geforce 500/600.

Leur point commun: une sortie HDMI capable d'envoie la piste son brute en bistream à un ampli compatible.

En analogique stéréo ou 5.1, le logiciel de lecture décompresse et convertit la piste son en PCM stéréo ou 5.1, et qualités intrinsèques de la carte mises à part, n'importe quelle carte son 192kHz/24bits doit donc permettre de restituer le son sans perte.

Merci pour ta réponse.

Donc, si je te comprend bien, une carte son HD, qui permet donc de décoder le DTS-HD et le Dolby TrueHD, n'a d'intérêt que si je dispose d'un ampli audio. Puisque le cordon HDMI sera relié de la carte son HD à l'ampli audio. Ouais, ben, donc, vu le peu de place que j'ai, un ampli, ce n'est pas pour moi... La carte graphique, dis-tu, peut se substituer à une carte son HD. Mais là aussi, il faudra bien la relier à un amplificateur. Donc, même problème.

Par contre, heu... concernant la deuxième partie de ton commentaire... quand je lis un blu-ray, je ne profite pas, actuellement, de la haute définition des codecs HD. Il y a donc forcément une perte de qualité dans le son que j'entend. Sinon, pourquoi le DTS-HD et le Dolby TrueHD seraient des codecs haute définition ?

Lien vers le commentaire
Partager sur d’autres sites

Pour éclairer ce que disait Kenpachi :

Il y'a trois possibilités pour décoder ces codecs :

- logicielle (avec conversion en analogique 24/192 ce qui représente une perte inaudible et difficilement détectable par les appareils spécialisés)

- matérielle interne (carte son, même remarque que pour logicielle)

- matérielle externe : le son ressort en brut par le cable HDMI et un décodeur digne de ce nom se charge de décoder.

En effet, le mieux est souvent l'ennemi du bien, le fait de décoder matériellement dans l'ordi ça n'est jamais désagréable parce qu'on a l'impression qu'il y'a une limitation ; cependant si le décodage se fait dans l'ordi le signal ne sera plus décodé par un décodeur externe ; dans ce cas la conversion logicielle et/ou materielle interne reviennent strictement au même si la sortie analogique est configurée en 24/192 (ce qui ne pose pas de problème à la carte son X-FI) puisqu'on emet le son en analogique. La seule différence viendra alors de la consommation de ressources qui sera un peu à la hausse. de plus si vous sortez en analogique (suite à un décodage logicielle ou par la carte son), ça signifie que vous envoyez le son vers un materiel bas de gamme.

En revanche, dans le cadre d'un décodeur externe dédié, le signal sort dans son format d'origine par le cable (HDMI optique ou RCA) directement vers le décodeur (ampli si vous préférez) qui se chargera du décodage.

L'interêt de tout ça est à relativiser, il faut réunir plusieurs facteurs pour que la dernière version du DTS présente un quelconque interêt :

- Un bon décodeur

- Un bon préampli

- Un bon ampli (on parle d'un ampli à 2000¤ minimum)

- De bonnes enceintes (on parle d'enceinte à 1000¤ le satelitte)

- Une bonne oreille (voire deux)

Mais dans ce cas le décodage sera effectué directement par l'amp.

En résumé :

- A moins que vous ayez une oreille absolu et un couple ampli enceintes hors normes (même les cinéma sont souvent équipés de simples enceintes JBL de supermarché), il est impossible à l'oreille de faire la différence entre un vieux dolby 5.1 (à part pour la spacialisation arrière évidente), du DTS basique, et des formats plus récentes.

- Ces formats sont des progrès de maniaques, mais n'apportent aucun gains réels pour le grand public, l'effet est surtout commercial.

Pour l'anecdote, il s'était passé un cas similaire avec les cables d'enceintes et leur qualités il y'a quelques années. Le principe est que plus le couple puissance/distance est important plus il fallait de grosses sections et on arrive très rapidement à 50¤ le mètre de cable. Si effectivement l'effet de chaleur et d'influence magnétique ainsi que la perte font que des appareils sensibles pouvait le mesurer (et était l'argument de vente au même titre que ceux des derniers codecs) un test à l'aveugle a refroidi tout le monde.

Un laboratoire célèbre a fait un test avec des spécialistes dont des détracteurs avec des cables allant du cable de téléphone à ceux à 250¤ le mètre sur des enceintes hors normes. Malgré la perte électrique, c'est le cable de téléphone qui a gagné.... Parce que ce que voit une machine n'est pas forcément audible.

Il y'avait eu un test similaire sur du mp3 128 et du mp3 320 95% des gens s'étaient plantés parce que la matériel son dont ils disposent sur leur ordinateur ne leur permet pas.

Donc la question restante est : est-ce vraiment utile si ce n'est de se dire que la chaine est complète alors que les enceintes ne suivront pas.

D'un autre côté j'aime bien la course au loseless, je trouve que c'est une bonne chose. Mais bon, je pourrais m'étendre sur d'autres facteurs non pris en compte et on en sortirait plus (par exemple le bitrate d'origine avant encodage sur ces codecs ; la correction informatique qui fait que le cerveau humain est tellement habitué à l'entendre que il normalise lui même le son etc...

En espérant vous avoir éclairé

Lien vers le commentaire
Partager sur d’autres sites

Pour éclairer ce que disait Kenpachi :

Il y'a trois possibilités pour décoder ces codecs :

- logicielle (avec conversion en analogique 24/192 ce qui représente une perte inaudible et difficilement détectable par les appareils spécialisés)

- matérielle interne (carte son, même remarque que pour logicielle)

- matérielle externe : le son ressort en brut par le cable HDMI et un décodeur digne de ce nom se charge de décoder.

En effet, le mieux est souvent l'ennemi du bien, le fait de décoder matériellement dans l'ordi ça n'est jamais désagréable parce qu'on a l'impression qu'il y'a une limitation ; cependant si le décodage se fait dans l'ordi le signal ne sera plus décodé par un décodeur externe ; dans ce cas la conversion logicielle et/ou materielle interne reviennent strictement au même si la sortie analogique est configurée en 24/192 (ce qui ne pose pas de problème à la carte son X-FI) puisqu'on emet le son en analogique. La seule différence viendra alors de la consommation de ressources qui sera un peu à la hausse. de plus si vous sortez en analogique (suite à un décodage logicielle ou par la carte son), ça signifie que vous envoyez le son vers un materiel bas de gamme.

En revanche, dans le cadre d'un décodeur externe dédié, le signal sort dans son format d'origine par le cable (HDMI optique ou RCA) directement vers le décodeur (ampli si vous préférez) qui se chargera du décodage.

L'interêt de tout ça est à relativiser, il faut réunir plusieurs facteurs pour que la dernière version du DTS présente un quelconque interêt :

- Un bon décodeur

- Un bon préampli

- Un bon ampli (on parle d'un ampli à 2000¤ minimum)

- De bonnes enceintes (on parle d'enceinte à 1000¤ le satelitte)

- Une bonne oreille (voire deux)

Mais dans ce cas le décodage sera effectué directement par l'amp.

En résumé :

- A moins que vous ayez une oreille absolu et un couple ampli enceintes hors normes (même les cinéma sont souvent équipés de simples enceintes JBL de supermarché), il est impossible à l'oreille de faire la différence entre un vieux dolby 5.1 (à part pour la spacialisation arrière évidente), du DTS basique, et des formats plus récentes.

- Ces formats sont des progrès de maniaques, mais n'apportent aucun gains réels pour le grand public, l'effet est surtout commercial.

Pour l'anecdote, il s'était passé un cas similaire avec les cables d'enceintes et leur qualités il y'a quelques années. Le principe est que plus le couple puissance/distance est important plus il fallait de grosses sections et on arrive très rapidement à 50¤ le mètre de cable. Si effectivement l'effet de chaleur et d'influence magnétique ainsi que la perte font que des appareils sensibles pouvait le mesurer (et était l'argument de vente au même titre que ceux des derniers codecs) un test à l'aveugle a refroidi tout le monde.

Un laboratoire célèbre a fait un test avec des spécialistes dont des détracteurs avec des cables allant du cable de téléphone à ceux à 250¤ le mètre sur des enceintes hors normes. Malgré la perte électrique, c'est le cable de téléphone qui a gagné.... Parce que ce que voit une machine n'est pas forcément audible.

Il y'avait eu un test similaire sur du mp3 128 et du mp3 320 95% des gens s'étaient plantés parce que la matériel son dont ils disposent sur leur ordinateur ne leur permet pas.

Donc la question restante est : est-ce vraiment utile si ce n'est de se dire que la chaine est complète alors que les enceintes ne suivront pas.

D'un autre côté j'aime bien la course au loseless, je trouve que c'est une bonne chose. Mais bon, je pourrais m'étendre sur d'autres facteurs non pris en compte et on en sortirait plus (par exemple le bitrate d'origine avant encodage sur ces codecs ; la correction informatique qui fait que le cerveau humain est tellement habitué à l'entendre que il normalise lui même le son etc...

En espérant vous avoir éclairé

Hmm je ne sais pas trop comment dire ca, mais ce commentaire est presqu'entierement faux. Ca fait des annees que je ne suis pas allee sur le forum mais voir ce commentaire m'a fait mal aux yeux tellement je ne suis pas d'accord. Je m'explique:

Alors Soldat Rebelle je ne sais pas quelle est ta config, mais pour ecrire des enormites comme ca, tu dois pas etre equipe du tout.

Le but du jeu quand tu regardes des sources haute definition avec son HD, c'est de ne casser la chaine digitale que le plus tard possible. Le top du top c'est de sortir en HDMI passthrough par ta carte graphique ou ta carte son HD (dont l'interet est quasiment nul, il vaut mieux acheter une nouvelle carte graphique qui fait du HDMI passthrough) vers un ampli qui recoit de l'HDMI. Vu que je ne vis plus en France je ne connait pas les prix des amplis ici, mais du moment qu'il decode le DTS-HD Master AUdio et Dolby TrueHD, c'est bon, t'as pas besoin d'un ampli a 1000 euros pour ca. Les premiers prix doivent etre vers 300-400 euros. Apres t'as besoin d'un kit d'enceintes 5.1 correct et c'est tout. Il n'y a pas besoin de pre-ampli. Tout est relie en HDMI, c'est le seul type de cable capable de supporter le son HD. Est-ce que ca en vaut la peine?

Ca depend de toi et de tes gouts. Si tu regardes les films sur ton ecran de 24 pouces avec des enceintes de pc, la reponse est non. Si tu es comme moi un fan du home cinema, la reponse est oui, et je dois te dire que la difference est enorme entre un simple Dolby Digital 5.1 et un Dolby True HD 5.1! Celui qui dit que non n'a jamais goute au son HD! La dynamique est monstrueuse, les canaux arriere sont plus utilises, le canal LFE est jouissif (sur un bon film). Bref c'est le jour et la nuit, mais il faut un minimum d'equipement c'est vrai.

Pour etre complet, mon HTPC est relie a mon "receiver" Onkyo 707, qui envoit l'image a ma TV/projo et le son a mes enceintes 5.1

Bah je pourrais debattre des heures sur le bienfait des pistes HD sur les Blu-Ray...

EN fait Soldat Rebelle je me suis un peu emballe, dsle, mais tu peux pas ecrire qu'il faut une oreille experte pour entendre la difference. Va voir sur les tests Blu-Ray de Les Numeriques et tu verras qu'ils ralent a chaque fois que la piste VF est en mi-debit. Mais si tu regardes en VO, ben t'as un sourire jusqau'aux oreilles pdt tout le film...

Desole de ce post long et peu clair!

Lien vers le commentaire
Partager sur d’autres sites

Son pseudo c'est philosomatika, Soldat rebelle n'étant qu'un rang en fonction du nombre de messages posté ...

mais tu peux pas ecrire qu'il faut une oreille experte pour entendre la difference. Va voir sur les tests Blu-Ray de Les Numeriques et tu verras qu'ils ralent a chaque fois que la piste VF est en mi-debit.

Justement les numériques sont tous de même des experts dans le domaine ... Donc tu dit que ce n'est pas nécessaire d'avoir une oreille d'expert tout en donnant comme exemple que des experts s'en rendent compte ...

Lien vers le commentaire
Partager sur d’autres sites

Son pseudo c'est philosomatika, Soldat rebelle n'étant qu'un rang en fonction du nombre de messages posté ...

mais tu peux pas ecrire qu'il faut une oreille experte pour entendre la difference. Va voir sur les tests Blu-Ray de Les Numeriques et tu verras qu'ils ralent a chaque fois que la piste VF est en mi-debit.

Justement les numériques sont tous de même des experts dans le domaine ... Donc tu dit que ce n'est pas nécessaire d'avoir une oreille d'expert tout en donnant comme exemple que des experts s'en rendent compte ...

Oups j'ai mal lu pour le pseudo!

Ben moi je suis pas un expert et je m'en rends compte! Mais je suis amateur de bon son, peut etre que ca compte!

Apres tout est question de ce qu'on recherche. SI tu veux le meilleur du son, il faut faire des sacrifices. Si tu veux du OK-son, ben l'investissement est moindre. Comme on dit ici, "Ignorance is bliss"

Lien vers le commentaire
Partager sur d’autres sites

Archivé

Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.

×
×
  • Créer...