Aller au contenu

toTOW

INpactien
  • Compteur de contenus

    2 256
  • Inscription

  • Dernière visite

  • Jours gagnés

    9

Tout ce qui a été posté par toTOW

  1. En fait, ce qu'on appelle BigWu (supérieur à 5 Mo) ca correspond à des WU qui consomme beaucoup de RAM, ou beaucoup de bande passante (> 5mo de résultat à envoyer). Il y a 50% de bonus par rapport à une WU classique. Et non tu ne seras pas dernière ... mais comme tout le monde, tu partiras du bas du classement
  2. Quelque part en bas Tu devrais songer à changer de machine quand même ...
  3. Si tu étais déjà dans l'alliance francophone, tu peux garder ton compte sans tag, et demander à JGP de t'intégrer à la mini team PCI ... voir ici : http://folding.mesdiscussions.net/foldingh...t-sujet_1_1.htm
  4. Bient sur tu peux nous rejoindre, pourquoi tu pourrais pas ?
  5. Indeed © Faut que je trouve une facture ... on pourra recouper avec le site, ca m'étonne que pratiquement tout soit au même tarif ... (chauffage gaz ici aussi)
  6. Tu te chauffe à quoi ? il est à combien le kWh en ce moment ? edit: voilà les tarifs : http://particuliers.edf.fr/141626i/accueil...lectricite.html c'est pas si cher que ca ... donc les PC coutent pas si cher que ca au pliage :)
  7. Vire donc tes achitectures netburst ... tu verras, ca ira mieux
  8. Un modo pourrait virer ce message inutile svp ? merci :jap: Remarquez, j'attaque une nouvelle page, on peut recentrer le sujet de suite
  9. Non laisse tomber l'expression ca vaut mieux, c'étati de l'humour douteux ... Si ton matériel est bien relié à la terre, normalement, toute l'électricité statique peut s'échapper.
  10. Tu connais pas l'expression décharger ? Enfin avec cette histoire, on approche quand même le vaudoo
  11. Ca s'appelle un clic/clac J'ai du mal à comprendre ce que tu as déchargé ... ca fait un peu pervers sur ce coup quand même
  12. J'aurai plutot tendance à faire confiance à ce qui se dit sur la FoldingCommunity Et ca recoupe ce que je dis : en terme de PPD il vaut mieux rester sur SMP. Et non je peux pas tester, j'ai pas de carte compatible sous la main (X800, HD2900, nvidia, ... mais pas de X1k)
  13. Personnellement, je te conseille de rester sous linux en SMP ... (pas de GPU sous linux, c'est un peu normal, t'as déjà vu DirectX sous Linux ? ) Dès qu'un client pour les dernières cartes graphiques sera sorti, je ferai un test sous windows en GPU + SMP pour voir ce que ca donne.
  14. C'était utile lorsque tu pliais deux WU de technologies différentes en simultanné, comme par exemple une Tinker (FPU) + Gromacs (SSE), Gromacs (SSE) + Dgromacs (SSE2) ... mais c'était catastrophique quand tu pliait deux Gromacs per exemple. De plus ca apportait peut être un peu de points par jours en plus, mais ca ralentissait globalement le projet (il vaut mieux renvoyer 1 WU toutes les 12H que 2 WU en même temps au bout de 20H), la position de Stanford a toujours été de n'utiliser qu'une client sur les P4 HT. L'HT n'est fait que pour remplir le pipeline trop long des P4 ... or avec FAH, le pipeline était déjà plein à presque 100%. Les seuls gains observés sous FAH n'ont lieu que lorsque les processus utilisent des unités de calculs différentes et qu'ils ne sont pas en concurrence sur la même unité. De plus le pipeline des architectures actuelles a été revu à la baisse, et on n'a plus ce phénomène de sous remplissage ... c'est pour ce que je dis que c'est totalement stupide de réintroduire l'HT (qui représente pour moi uniquement un moyen de combler un défaut de conception de l'architechture Netburst des P4). Ensuite quand je pense au bordel que ca va mettre, je prends un exemple en suivant les recommandations de Stanford (ton exemple en fait 2 CPU Intel Xeon Gainestown (16 threads total dont 8 cores + HT nouvelle génération) ... voilà comment c'est reconnu par les OS : CPU0 HT0 CPU0 HT1 CPU1 HT0 CPU1 HT1 CPU2 HT0 CPU2 HT1 CPU3 HT0 CPU3 HT1 CPU4 HT0 CPU4 HT1 CPU5 HT0 CPU5 HT1 CPU6 HT0 CPU6 HT1 CPU7 HT0 CPU7 HT1 On a bien nos 16 CPU ... maintenant, lançons nos deux clients SMP ... SMP0 et SMP1 et regardons comment ils vont se greffer aux CPU : CPU0 HT0 <- SMP0 CPU0 HT1 <- SMP0 CPU1 HT0 <- SMP0 CPU1 HT1 <- SMP0 CPU2 HT0 <- SMP1 CPU2 HT1 <- SMP1 CPU3 HT0 <- SMP1 CPU3 HT1 <- SMP1 CPU4 HT0 CPU4 HT1 CPU5 HT0 CPU5 HT1 CPU6 HT0 CPU6 HT1 CPU7 HT0 CPU7 HT1 Tiens c'est bizarre ... mais j'ai deux CPU qui glandent. Et le projet va être ralenti puisque tu plie en fait avec 2 dual cores ... et c'est là que dis que ca va être le bordel si on veut plier efficacement : il va falloir développer des outils qui fixent les affinités pour avoir le schéma suivant. CPU0 HT0 <- SMP0 CPU0 HT1 CPU1 HT0 <- SMP0 CPU1 HT1 CPU2 HT0 <- SMP0 CPU2 HT1 CPU3 HT0 <- SMP0 CPU3 HT1 CPU4 HT0 <- SMP1 CPU4 HT1 CPU5 HT0 <- SMP1 CPU5 HT1 CPU6 HT0 <- SMP1 CPU6 HT1 CPU7 HT0 <- SMP1 CPU7 HT1 Ici, on est dans le cas idéal, on plie avec deux quad cores. (les CPU HT restent disponible pour autre chose, sans trop ralentir les clients FAH, pour le confort d'utilisation) Bon ma démo est extrème avec tant de CPU, mais elle est valable pour un quad core HT aussi. Par contre, le seul cas où l'HT est conseillé par stanford, c'est un dual core HT. Dans ce cas uniquement l'HT propose un gain léger de performances. J'espère que j'ai été assez clair dans mes explications et que tu as compris où je voulais en venir ...
  15. Je sens que l'HT ca va foutre une merde incommensurable ... c'était déjà de la daube sur les P4, pourquoi il remettent ca ? J'ai un Bi - Phenom X4 en préparation
  16. Bah si la team MacOSX est exclusivement équipée de macs intel, ils ont tous le client SMP OSX, et donc ca produit beaucoup Em1Ly> normal, tu as un vieux PC, il va mettre du temps (minimum une semaine je dirais) ... tu peux regarder où tu en es en ouvrant le fichier FAHLog.txt ou unitinfo.txt dans le dossier d'installation de FAH. X-System> tu dis des bétises : activer BigWU (oui j'appelle ca comme ca) permet de recevoir des WU pouvant occuper beaucoup de RAM (de 50 à 250 Mo) et générant pas mal de traffic (jusqu'à 25Mo à envoyer). Il faut savoir que les BigWu disposent en général d'un bonus de points de 50%. Ne pas l'activer si on est limité en traffic (56k ou petit forfait au Go) ou si on a moins de 512 Mo de RAM.
  17. Ca fait entre 1130 et 720 PPD (calculés à la louche suivant tes indications vagues en heures) ... ca me parait dans la moyenne.
  18. Je voie ma X1650Pro AGP qui plie toujours ... c'est étrange cette affaire dites donc ...
  19. Première option ca dépend de la quantité de RAM et de ce que tu veux donner, sachant qu'une grosse WU peut occuper jusqu'à 250 Mo de RAM. Deuxième option, il faut répondre no, ces WU n'existent plus, tu aurais eu une erreur si tu avais mi yes P.S : il vaut mieux répondre No à l'installation de Vista aussi ... ca fout toujours la merde
  20. 1) l'affichage n'est pas tout a fait le meme (le client GPU marque juste "step x" a la difference du cpu qui marque "completed xxx of xxx step xx" normal je pense !!?? Normal 2) 6 minutes et des brouettes en moyenne entre chaque step donc 10/11 heures par W/u .... bien?? ....lent?? Si tu nous dis pas avec quelle carte graphique, on peut pas juger ... 3) les stats GPU ne passent pas sur EM III ... normal?? Normal, EM3 n'est plus développé depuis un moment maintenant ... installe Fahmon, il reconnait tous les nouveauc cores 4) Comment calcule-t-on les PPP ?? Facile : points de la WU / nombre de jours pour traiter la WU = Points Par Jour (Points Per Day en anglais) 5) Je trouve que le client GPU fait autant tourner mon CPU que le client CPU seul (2 cores donc 50% pour le client CPU et 50% pour le GPU) C'est normal aussi, ca correspond à la gestion des transferts PCIe ... Maintenant que tu sais calculer les PPD, tu peux voir ce qui est le plus efficace (2 * CPU ou CPU + GPU) ... scientifiquement, c'est le cas GPU + CPU qui est le plus utile.
  21. Ha oui c'est assez facheux ca Soit ta carte graphique a pris du plomb dans l'aile, soit c'est un probleme d'alim ... à vérifier.
  22. Tu es une plieuse maintenant ... je suis donc ton nouveau gourou, l'exemple à suivre
  23. Là ca y'est Em1Ly, je suis définitivement amoureux
  24. Première chose à faire je dirais, c'est de tester avec une autre version des drivers (genre la 7.9) ... Après je laisse les pro du pliage sur GPU donner leur idées s'ils ont connu ce problème.
×
×
  • Créer...