Jump to content

All Activity

This stream auto-updates     

  1. Today
  2. Yesterday
  3. Le screenshot a été pris depuis une vidéo youtube. Désolé pour la mauvaise qualité.
  4. J'ai pris le boitier qui est proposé dans l'autre article : https://www.inpact-hardware.com/article/1017/marre-cles-usb-lentes-et-trop-faible-capacite-fabriquez-votre (acheté sur Amazon : https://www.amazon.fr/gp/product/B0787FWVHP/ref=ppx_yo_dt_b_search_asin_image?ie=UTF8&psc=1 ). Pour le SSD, j'ai pris celui-ci (je ne voulais pas mettre trop cher) : https://www.amazon.fr/gp/product/B077SL4FZG/ref=ppx_yo_dt_b_search_asin_image?ie=UTF8&psc=1 Je m'en suis peu servi jusqu'à présent, mais j'ai copié 120Gio de musique en quelques minutes.
  5. Comme je le disais plus haut, le cache est utile surtout si tu ne lis pas tes données tout le temps. De plus, le cache sera certainement "synchronisé", donc tu devras toujours attendre tes écritures avant de faire une lecture. Ton activité de sauvegarde va réduire très nettement (voir annuler) l'intérêt du cache. Dans la capture, on voit que l'activité est pour 5 disques. Tu dois avoir un disque système. Est-ce que l'espace temporaire de duplicati peut être sur ce disque système? Sur une clé USB (pour test - quitte à la brancher en interne à terme)? Carrément en RAM (avec 16Go de RAM, tu as largement de quoi faire)?
  6. Est-ce une bonne affaire ? https://www.apple.com/fr/shop/product/G0VE6FN/A/macbook-air-avec-écran-retina-133-pouces-reconditionné-avec-processeur-intel-core-i5-bicœur-à-16-ghz-gris-sidéral?fnode=440f4128ddb1e1fe5bde81f6ea81257f469cdd7c3b9527048fa216d9d88c5d90b7f7143f321c46995253b7a242fc56c6f5f86e2657f37e3728c6f1bd9b5d7b4f203ffb0f52e5a774f0d623af089a6f80
  7. Merci pour l'article par contre ton lien direct est un faux lien. @Edtech qu'a tu pris comme boitier ? Avec quel connecteur ( X vers X) ? Et combiner à quel SSD ? Quels sont les débits ?
  8. Non. Ce n'est pas possible. unRAID ne te permet pas d'avoir plusieurs arrays... par contre il est possible de définir d'exclure/inclure des HDD des "partages", mais ça me parait compliqué de faire quelque chose de viable avec seulement 3 HDD de même capacité. Par contre, on peut définir l'utilisation d'un disque de cache (idéalement un SSD). Ou alors, rajouter un SSD dans l'array et de définir le dossier temporaire uniquement sur ce SSD. Je pense que la création d'un cache global pour l'array serait plus performant et polyvalent. Non? Aucune idée. Je ne trouve rien qui pourrait ressembler à ça.
  9. Le stockage temporaire est-il bien situé sur un autre disque hors array? Ton système n'aime pas les écritures (toute écriture logique se solde par 2 écritures minimum: données + parité - pour info en RAID5 X disques + parité une écriture logique c'est X-1 lectures (disques voisins) + 1 écriture (donnée) + 1 écriture (parité) / des systèmes peuvent le faire en 2 lectures + 2 écritures mais cela signifie qu'on a confiance dans l'intégrité de la parité en tout temps - à mon sens c'est dénaturer le RAID5) -> Il faut faire en sorte que l'archive temporaire soit créée en dehors de l'array Par ailleurs, est-ce que ton système de fichier maintient un attribut type "last access time" qui indique quand on a lu un fichier pour la dernière fois? Si c'est le cas, il faut le désactiver ou le contourner. Ca c'est la bonne pratique. 😫 ok, chyffré alors...
  10. Linus Tech Tip, j'aime bien sa chaîne, merci 🙂 Je ne cherche pas une performance dingue juste quelque chose de suffisamment performant pour faire du dev web.
  11. Juste pour faire mon chieur : chiffré, pas crypté ! https://www.nextinpact.com/news/99777-chiffrement-notre-antiseche-pour-expliquer-a-vos-parents.htm
  12. Je pense que l'écriture est liée à la création de l'archive chiffrée qui serait stocké dans un dossier temporaire. Je dirais que les graphes sont superposés.
  13. Que veux-tu dire par observer ? les flux réseaux ? Merci pour les explications ! 🙂 Je vais voir ça. Merci. Non, aucun transcodage. Kodi lit directement en SMB sur le NAS. J'ai redéfini en automatique l'attribution des C/HT.
  14. Pas encore. Si le cryptage est logiciel, ça peut jouer. Mais je penche pour des disques trop lents pour des accès aléatoires. D'ailleurs sur le graphe des disques, je n'avais pas tilté en première lecture: comment se fait-il que tu écrives autant que tu lises??? Le FTP de sauvegarde est sur ton unraid? J'aurais pensé que tu aurais une part d'écriture (jaune) quasi à 0 et un read énorme! D'ailleurs, le graphe c'est read+write cumulé ou read dessiné "derrière" write? Donc 18M/s (dont 15 d'écriture) ou 33M/s (18 de lecture + 15 d'écriture)?
  15. Bonjour, Je ne connaissais pas unraid, ça a l'air sympa! Quand on parle de stockage, la bande passante est un indicateur, mais le nombre d'IO/s l'est tout autant. Par exemple, un disque dur qui lit des données séquentielles (piste à piste) aura des temps d'accès < 1ms, on peut donc compter sur un nombre d'opérations/s de l'ordre de 1000 à 3000. Par contre, un disque dur dont la tête doit se déplacer aléatoirement ou attendre un secteur particulier du disque aura des temps d'accès de l'ordre de quelques ms (mettons 8, c'est déjà un très bon disque), soit un maximum de 1/0,008 = 125 opérations par secondes. Donc si ton système doit faire des accès très aléatoires, les perfs s'écroulent. Surtout sur des disques à 5900TPM. Mixer deux types de charge, ou avoir des système de sauvegarde qui parallélisent trop et font chercher les données dans tous les sens en même temps est parfois un problème. C'est peut-être le cas. J'aurais donc tendance à limiter les ressources de duplicati à 1CPU pour voir. Le job ne sera peut-être même pas plus long! De plus, je ne suis pas familier de docker, je ne sais pas si on peut vraiment le limiter à 2C+2HT. Par ailleurs, est-ce que tu lis les fichiers MKV directement ou au travers d'un serveur media qui fait du transcodage? Je soupçonne un problème d'affectation de CPUs. Quand tu dis 2C+2HT dédiés, tu as désigné les processeurs? C'est une manoeuvre à éviter, en général les systèmes se débrouillent mieux tout seuls pour répartir les charges. Surtout que tu utilise du cryptage, et je ne suis pas sûr que dans une archi bulldozer les instructions AES-NI par exemple soient dédoublées (il est possible que chaque Core ne puisse pas hyperthreader ces instructions) Enfin: * Le cache SSD c'est bien surtout si tu ne lis pas TOUT ton contenu régulièrement. Donc si ton duplicati fait de la deduplication pour éviter de resauvegarder tout, le cache SSD est génial. Si tous les jours tu lis 600G au travers du cache, il n'a pas de grand intérêt. Bref: * Vérifier que limiter duplicati à 1 coeur ne suffisent pas pour régler le problème
  16. nfs est connu pour avoir des meilleures performances que SMB. est ce que tu peux observer ce qui se passe sur ton PC au niveau du CPU / Réseau quand tu lances les 3 flux avec KODI?
  17. Si vous etes interessés par un MAC il ne faut pas passer à coté de l'information suivante, surtout si la performance est quelque chose d'important (notamment pour faire du montage video, virtualisation, etc..) Les processeurs des macs sont bridés donc il ne faut pas juger que les specs. Le mec qui fait la vidéo est plutot un fan de MAC donc a priori pas trop de parti pris, et c'est bien documenté (mais en anglais :))
  18. C'est déjà le cas. C'était la première sauvegarde. Je rencontre cette même problématique si je lance 3 flux vidéos FHD/UHD de mes 3 kodi .... (ça met hors de cause mon CPU du coup). Est-ce que le NFS serait plus adapté par rapport à SMB ?
  19. Je peux aller dessus, mais quand il y a une sauvegarde qui tourne. Chaque actions prennent 15/30 seconde. C'est juste le DD qui tourne à fond.
  20. D'ailleurs, je m'en suis fait un suite à cette actualité et c'est nickel !
  21. Coool. Je ne suis plus seule. Les sauvegardes, tu ne peux pas les mettre en décaler, genre tard le soir? Quand veeam me fait des sauvegardes à chaud, les serveurs sont inutilisables.
  22. On ne l'arrête plus, il trouve tout! 🙂 bien joué, tu montes sur le podium!
  23. inpact-hardware a traité le sujet : https://www.inpact-hardware.com/article/1075/cle-usb-3-1-maison-via-ssd-m-2-passons-s-ata-au-pcie-cap-sur-10-gbs
  24. Bonjour à tous, Suite à l'achat d'un SSD M.2 NVMe Samsung 970 EVO pour mon PC (enfin ancien maintenant) qui n'est compatible qu'avec les anciens SSD NVMe, j'ai essayer de le revendre car le délais de retour était dépasser et entre temps j'ai acheté un nouveau PC avec un SSD NVMe déjà intégré (en revanche c'est un intel mais il fait 500Go alors que le Samsung en fait 250Go). Seulement les offres des acheteurs n'était pas sérieuse, je le revends 65 € (donc il est toujours neuf puisqu'il n'a pas pu être utilisé) et j'arrive à avoir des propositions pour 30 €. Bref venons en au faite, je me suis dis que je vais en faire un SSD externe mais comme les performances ne seront pas les mêmes que en interne, je me suis demander quand même quel est le meilleur boitier ? En général je lis que les SSD arrive à la performance d'un SSD en SATA Avez-vous déjà essayer ? Avez-vous un boitier capable de permettre de dépasser le 500 Mo/s d'écriture et lecture pour essayer d'approcher le plus possible des perf d'un SSD NVMe ? Cordialement.
  1. Load more activity
×
×
  • Create New...