Jump to content

All Activity

This stream auto-updates     

  1. Today
  2. Rappel : Pas le droit de répondre en premier après avoir soumis une capture tant qu'un autre n'a pas fait de proposition ou avant un délai de 24 heures
  3. Hello en passant , boîtier has been RAM à vérifier compatibilité avec la CM CM en chipset B, vérifier les connectiques et la compatibilité Ryzen 2 Proc, attendre Ryzen 2 en 3xxx Alim rebadgée Seasonic, je préfère l'original Lecteur optique nécessaire ? Garantie supplémentaire 3 ans.... bof bof Cordon Sata utile ? Je crois qu'il y en a deux quasi par défaut dans le carton de la CM. A vérifier Si le HDD est un Baracuda, c'est bon Le SSD ... vraiment envie de celui-là ? ?? La CG, au vu du budget , pas mieux. Pour suivre avec un écran FHD, ce sera OK. Ecran TN... bof bof
  4. Difficile de dire, mais en tout cas pour moi 16 Go et 512 go de SSD c'est le minimum vital vu que tout est soudé ...
  5. Clavier Logitech Carbone G413 . 35€ le bon coin (quasi neuf)
  6. revker

    Le brief

    Hello, Je pense qu'il serait bien d'avoir une sorte de sommaires des actualités du brief avec des ancres vers chaque vignette. Ca permettrait de ne pas devoir scroller vers les actualités qui nous intéressent. Merci.
  7. Merci pour ta réponse je vais en tester un et je reviendrais vous voir pour poster les résultats 😉
  8. Yesterday
  9. Le screenshot a été pris depuis une vidéo youtube. Désolé pour la mauvaise qualité.
  10. J'ai pris le boitier qui est proposé dans l'autre article : https://www.inpact-hardware.com/article/1017/marre-cles-usb-lentes-et-trop-faible-capacite-fabriquez-votre (acheté sur Amazon : https://www.amazon.fr/gp/product/B0787FWVHP/ref=ppx_yo_dt_b_search_asin_image?ie=UTF8&psc=1 ). Pour le SSD, j'ai pris celui-ci (je ne voulais pas mettre trop cher) : https://www.amazon.fr/gp/product/B077SL4FZG/ref=ppx_yo_dt_b_search_asin_image?ie=UTF8&psc=1 Je m'en suis peu servi jusqu'à présent, mais j'ai copié 120Gio de musique en quelques minutes.
  11. Comme je le disais plus haut, le cache est utile surtout si tu ne lis pas tes données tout le temps. De plus, le cache sera certainement "synchronisé", donc tu devras toujours attendre tes écritures avant de faire une lecture. Ton activité de sauvegarde va réduire très nettement (voir annuler) l'intérêt du cache. Dans la capture, on voit que l'activité est pour 5 disques. Tu dois avoir un disque système. Est-ce que l'espace temporaire de duplicati peut être sur ce disque système? Sur une clé USB (pour test - quitte à la brancher en interne à terme)? Carrément en RAM (avec 16Go de RAM, tu as largement de quoi faire)?
  12. Est-ce une bonne affaire ? https://www.apple.com/fr/shop/product/G0VE6FN/A/macbook-air-avec-écran-retina-133-pouces-reconditionné-avec-processeur-intel-core-i5-bicœur-à-16-ghz-gris-sidéral?fnode=440f4128ddb1e1fe5bde81f6ea81257f469cdd7c3b9527048fa216d9d88c5d90b7f7143f321c46995253b7a242fc56c6f5f86e2657f37e3728c6f1bd9b5d7b4f203ffb0f52e5a774f0d623af089a6f80
  13. Merci pour l'article par contre ton lien direct est un faux lien. @Edtech qu'a tu pris comme boitier ? Avec quel connecteur ( X vers X) ? Et combiner à quel SSD ? Quels sont les débits ?
  14. Non. Ce n'est pas possible. unRAID ne te permet pas d'avoir plusieurs arrays... par contre il est possible de définir d'exclure/inclure des HDD des "partages", mais ça me parait compliqué de faire quelque chose de viable avec seulement 3 HDD de même capacité. Par contre, on peut définir l'utilisation d'un disque de cache (idéalement un SSD). Ou alors, rajouter un SSD dans l'array et de définir le dossier temporaire uniquement sur ce SSD. Je pense que la création d'un cache global pour l'array serait plus performant et polyvalent. Non? Aucune idée. Je ne trouve rien qui pourrait ressembler à ça.
  15. Le stockage temporaire est-il bien situé sur un autre disque hors array? Ton système n'aime pas les écritures (toute écriture logique se solde par 2 écritures minimum: données + parité - pour info en RAID5 X disques + parité une écriture logique c'est X-1 lectures (disques voisins) + 1 écriture (donnée) + 1 écriture (parité) / des systèmes peuvent le faire en 2 lectures + 2 écritures mais cela signifie qu'on a confiance dans l'intégrité de la parité en tout temps - à mon sens c'est dénaturer le RAID5) -> Il faut faire en sorte que l'archive temporaire soit créée en dehors de l'array Par ailleurs, est-ce que ton système de fichier maintient un attribut type "last access time" qui indique quand on a lu un fichier pour la dernière fois? Si c'est le cas, il faut le désactiver ou le contourner. Ca c'est la bonne pratique. 😫 ok, chyffré alors...
  16. Linus Tech Tip, j'aime bien sa chaîne, merci 🙂 Je ne cherche pas une performance dingue juste quelque chose de suffisamment performant pour faire du dev web.
  17. Juste pour faire mon chieur : chiffré, pas crypté ! https://www.nextinpact.com/news/99777-chiffrement-notre-antiseche-pour-expliquer-a-vos-parents.htm
  18. Je pense que l'écriture est liée à la création de l'archive chiffrée qui serait stocké dans un dossier temporaire. Je dirais que les graphes sont superposés.
  19. Que veux-tu dire par observer ? les flux réseaux ? Merci pour les explications ! 🙂 Je vais voir ça. Merci. Non, aucun transcodage. Kodi lit directement en SMB sur le NAS. J'ai redéfini en automatique l'attribution des C/HT.
  20. Pas encore. Si le cryptage est logiciel, ça peut jouer. Mais je penche pour des disques trop lents pour des accès aléatoires. D'ailleurs sur le graphe des disques, je n'avais pas tilté en première lecture: comment se fait-il que tu écrives autant que tu lises??? Le FTP de sauvegarde est sur ton unraid? J'aurais pensé que tu aurais une part d'écriture (jaune) quasi à 0 et un read énorme! D'ailleurs, le graphe c'est read+write cumulé ou read dessiné "derrière" write? Donc 18M/s (dont 15 d'écriture) ou 33M/s (18 de lecture + 15 d'écriture)?
  21. Bonjour, Je ne connaissais pas unraid, ça a l'air sympa! Quand on parle de stockage, la bande passante est un indicateur, mais le nombre d'IO/s l'est tout autant. Par exemple, un disque dur qui lit des données séquentielles (piste à piste) aura des temps d'accès < 1ms, on peut donc compter sur un nombre d'opérations/s de l'ordre de 1000 à 3000. Par contre, un disque dur dont la tête doit se déplacer aléatoirement ou attendre un secteur particulier du disque aura des temps d'accès de l'ordre de quelques ms (mettons 8, c'est déjà un très bon disque), soit un maximum de 1/0,008 = 125 opérations par secondes. Donc si ton système doit faire des accès très aléatoires, les perfs s'écroulent. Surtout sur des disques à 5900TPM. Mixer deux types de charge, ou avoir des système de sauvegarde qui parallélisent trop et font chercher les données dans tous les sens en même temps est parfois un problème. C'est peut-être le cas. J'aurais donc tendance à limiter les ressources de duplicati à 1CPU pour voir. Le job ne sera peut-être même pas plus long! De plus, je ne suis pas familier de docker, je ne sais pas si on peut vraiment le limiter à 2C+2HT. Par ailleurs, est-ce que tu lis les fichiers MKV directement ou au travers d'un serveur media qui fait du transcodage? Je soupçonne un problème d'affectation de CPUs. Quand tu dis 2C+2HT dédiés, tu as désigné les processeurs? C'est une manoeuvre à éviter, en général les systèmes se débrouillent mieux tout seuls pour répartir les charges. Surtout que tu utilise du cryptage, et je ne suis pas sûr que dans une archi bulldozer les instructions AES-NI par exemple soient dédoublées (il est possible que chaque Core ne puisse pas hyperthreader ces instructions) Enfin: * Le cache SSD c'est bien surtout si tu ne lis pas TOUT ton contenu régulièrement. Donc si ton duplicati fait de la deduplication pour éviter de resauvegarder tout, le cache SSD est génial. Si tous les jours tu lis 600G au travers du cache, il n'a pas de grand intérêt. Bref: * Vérifier que limiter duplicati à 1 coeur ne suffisent pas pour régler le problème
  1. Load more activity
×
×
  • Create New...