Jump to content

All Activity

This stream auto-updates     

  1. Past hour
  2. Le stockage temporaire est-il bien situé sur un autre disque hors array? Ton système n'aime pas les écritures (toute écriture logique se solde par 2 écritures minimum: données + parité - pour info en RAID5 X disques + parité une écriture logique c'est X-1 lectures (disques voisins) + 1 écriture (donnée) + 1 écriture (parité) / des systèmes peuvent le faire en 2 lectures + 2 écritures mais cela signifie qu'on a confiance dans l'intégrité de la parité en tout temps - à mon sens c'est dénaturer le RAID5) -> Il faut faire en sorte que l'archive temporaire soit créée en dehors de l'array Par ailleurs, est-ce que ton système de fichier maintient un attribut type "last access time" qui indique quand on a lu un fichier pour la dernière fois? Si c'est le cas, il faut le désactiver ou le contourner. Ca c'est la bonne pratique. 😫 ok, chyffré alors...
  3. Linus Tech Tip, j'aime bien sa chaîne, merci 🙂 Je ne cherche pas une performance dingue juste quelque chose de suffisamment performant pour faire du dev web.
  4. Juste pour faire mon chieur : chiffré, pas crypté ! https://www.nextinpact.com/news/99777-chiffrement-notre-antiseche-pour-expliquer-a-vos-parents.htm
  5. Today
  6. Je pense que l'écriture est liée à la création de l'archive chiffrée qui serait stocké dans un dossier temporaire. Je dirais que les graphes sont superposés.
  7. Que veux-tu dire par observer ? les flux réseaux ? Merci pour les explications ! 🙂 Je vais voir ça. Merci. Non, aucun transcodage. Kodi lit directement en SMB sur le NAS. J'ai redéfini en automatique l'attribution des C/HT.
  8. Pas encore. Si le cryptage est logiciel, ça peut jouer. Mais je penche pour des disques trop lents pour des accès aléatoires. D'ailleurs sur le graphe des disques, je n'avais pas tilté en première lecture: comment se fait-il que tu écrives autant que tu lises??? Le FTP de sauvegarde est sur ton unraid? J'aurais pensé que tu aurais une part d'écriture (jaune) quasi à 0 et un read énorme! D'ailleurs, le graphe c'est read+write cumulé ou read dessiné "derrière" write? Donc 18M/s (dont 15 d'écriture) ou 33M/s (18 de lecture + 15 d'écriture)?
  9. Bonjour, Je ne connaissais pas unraid, ça a l'air sympa! Quand on parle de stockage, la bande passante est un indicateur, mais le nombre d'IO/s l'est tout autant. Par exemple, un disque dur qui lit des données séquentielles (piste à piste) aura des temps d'accès < 1ms, on peut donc compter sur un nombre d'opérations/s de l'ordre de 1000 à 3000. Par contre, un disque dur dont la tête doit se déplacer aléatoirement ou attendre un secteur particulier du disque aura des temps d'accès de l'ordre de quelques ms (mettons 8, c'est déjà un très bon disque), soit un maximum de 1/0,008 = 125 opérations par secondes. Donc si ton système doit faire des accès très aléatoires, les perfs s'écroulent. Surtout sur des disques à 5900TPM. Mixer deux types de charge, ou avoir des système de sauvegarde qui parallélisent trop et font chercher les données dans tous les sens en même temps est parfois un problème. C'est peut-être le cas. J'aurais donc tendance à limiter les ressources de duplicati à 1CPU pour voir. Le job ne sera peut-être même pas plus long! De plus, je ne suis pas familier de docker, je ne sais pas si on peut vraiment le limiter à 2C+2HT. Par ailleurs, est-ce que tu lis les fichiers MKV directement ou au travers d'un serveur media qui fait du transcodage? Je soupçonne un problème d'affectation de CPUs. Quand tu dis 2C+2HT dédiés, tu as désigné les processeurs? C'est une manoeuvre à éviter, en général les systèmes se débrouillent mieux tout seuls pour répartir les charges. Surtout que tu utilise du cryptage, et je ne suis pas sûr que dans une archi bulldozer les instructions AES-NI par exemple soient dédoublées (il est possible que chaque Core ne puisse pas hyperthreader ces instructions) Enfin: * Le cache SSD c'est bien surtout si tu ne lis pas TOUT ton contenu régulièrement. Donc si ton duplicati fait de la deduplication pour éviter de resauvegarder tout, le cache SSD est génial. Si tous les jours tu lis 600G au travers du cache, il n'a pas de grand intérêt. Bref: * Vérifier que limiter duplicati à 1 coeur ne suffisent pas pour régler le problème
  10. nfs est connu pour avoir des meilleures performances que SMB. est ce que tu peux observer ce qui se passe sur ton PC au niveau du CPU / Réseau quand tu lances les 3 flux avec KODI?
  11. Si vous etes interessés par un MAC il ne faut pas passer à coté de l'information suivante, surtout si la performance est quelque chose d'important (notamment pour faire du montage video, virtualisation, etc..) Les processeurs des macs sont bridés donc il ne faut pas juger que les specs. Le mec qui fait la vidéo est plutot un fan de MAC donc a priori pas trop de parti pris, et c'est bien documenté (mais en anglais :))
  12. C'est déjà le cas. C'était la première sauvegarde. Je rencontre cette même problématique si je lance 3 flux vidéos FHD/UHD de mes 3 kodi .... (ça met hors de cause mon CPU du coup). Est-ce que le NFS serait plus adapté par rapport à SMB ?
  13. Je peux aller dessus, mais quand il y a une sauvegarde qui tourne. Chaque actions prennent 15/30 seconde. C'est juste le DD qui tourne à fond.
  14. D'ailleurs, je m'en suis fait un suite à cette actualité et c'est nickel !
  15. Coool. Je ne suis plus seule. Les sauvegardes, tu ne peux pas les mettre en décaler, genre tard le soir? Quand veeam me fait des sauvegardes à chaud, les serveurs sont inutilisables.
  16. On ne l'arrête plus, il trouve tout! 🙂 bien joué, tu montes sur le podium!
  17. inpact-hardware a traité le sujet : https://www.inpact-hardware.com/article/1075/cle-usb-3-1-maison-via-ssd-m-2-passons-s-ata-au-pcie-cap-sur-10-gbs
  18. Bonjour à tous, Suite à l'achat d'un SSD M.2 NVMe Samsung 970 EVO pour mon PC (enfin ancien maintenant) qui n'est compatible qu'avec les anciens SSD NVMe, j'ai essayer de le revendre car le délais de retour était dépasser et entre temps j'ai acheté un nouveau PC avec un SSD NVMe déjà intégré (en revanche c'est un intel mais il fait 500Go alors que le Samsung en fait 250Go). Seulement les offres des acheteurs n'était pas sérieuse, je le revends 65 € (donc il est toujours neuf puisqu'il n'a pas pu être utilisé) et j'arrive à avoir des propositions pour 30 €. Bref venons en au faite, je me suis dis que je vais en faire un SSD externe mais comme les performances ne seront pas les mêmes que en interne, je me suis demander quand même quel est le meilleur boitier ? En général je lis que les SSD arrive à la performance d'un SSD en SATA Avez-vous déjà essayer ? Avez-vous un boitier capable de permettre de dépasser le 500 Mo/s d'écriture et lecture pour essayer d'approcher le plus possible des perf d'un SSD NVMe ? Cordialement.
  19. @Fab'z merci pour ta réponse. Malheureusement ma carte n'ayant pas la norme 802.1Q il est impossible de le faire. C'est triste car mon PC est un Asus Strix Scar II tout fraichement sorti, je trouve ça inadmissible de mettre des cartes réseaux pareilles dans les nouveaux PC. Même la carte réseau de mon HP Zbook G3 du boulot ne dispose pas de la norme. Pour palier à cela avec mon Asus, j'ai du acheter un adaptateur réseau USB Type C : https://www.ldlc.com/fr-ch/fiche/PB00261339.html Comme dans les caractéristiques techniques des adaptateurs réseau ils ne précisent pas les normes utilisées, j'ai du contacté les constructeurs et seul Nedis m'a répondu favorablement.
  20. L'Amour extra-large (Shallow Hal) - 2001 ?
  21. Yesterday
  22. Bonjour les ami.e.s inpactien.ne.s, Je me suis monté un NAS avec du matériel de récupération, le tout tournant sous unRAID : - OS : unRAID 6.7.0 - CPU : AND FX-8150 (4C/8T à 3,6Ghz) - RAM : 4 x 4 Go DDR3 - HDD : 4 x 4 To IRONWOLF - ETH : 1000 Mbps Tout fonctionne parfaitement … sauf quand j’ai mon docker duplicati qui exécute une tâche de sauvegarde et qui rend impossible la lecture d’un flux vidéo sur mon kodi d’une box androidTV (avec adaptateur 1000 Mbps USB) ou même un flux audio sur le VLC de mon PC. Je détaille : Les 4 disques sont montés en un « array » logiciel crypté, avec un disque de parité. Une sorte de RAID5. La stratégie de répartition des partage est en « High-water » se qui fait que mes données se trouve réparties entre tous mes disques (mais de manière aléatoire). L’intégrité de mon array est bonne. Pas de disque avec erreur SMART non plus. La vidéo à lire sur kodi est un .mkv FHD avec un débit moyen de 8 Mbps. La musique écouté sur kodi est un .flac avec un débit moyen d’environs 1 Mbps. Un docker transmission tournait en même temps avec un téléchargement régulier bridé à 0.25 Mbps. Ce docker a 1 x thread dédié. Mon docker duplicati v.2.0.4.5 a 4 x threads dédiés (2 core et 2 HT), avec l’option « aes-set-threadlevel » configuré sur « 4 ». La tâche en exécution est une sauvegarde cryptée de ~600 Go de photos et vidéos personnelles (pour de vrai ! :-D) sur un FTP (sur le réseau local) par paquet de 500 Mo. Le CPU est chargé à ~20% pendant la tâche. La RAM n’est pas impactée. Le réseau n’est pas vraiment impacté non plus car il ne dépasse pas les 30 Mbps lors de l’envois sur le FTP. Les HDD sont sollicités à hauteur de 15-20 Mo/s. => Sur les graphs, tout roule ! (hormis que ça soit lent ...) Ce sont les seuls périphériques actifs sur le NAS et bien évidement le flux vidéo est lisible en temps normal (lorsque duplicati n’exécute pas de tâche). Pour preuve ; la mise en pause du docker duplicati a permis une lecture normale de la vidéo ou encore de la musique. Mes questions sont les suivantes : Est-ce que se sont bien les limites physiques d’accès disques de mes HDD qui créent ce phénomène ? Ou est que le goulot vient du CPU lors du cryptage/zippage des archives duplicati ? Est-ce que changer la méthode de répartition de mes données sur les disques pourrait changer la donne ? (Passage en « Most Free ») Est-ce que changer la configuration des disques arrangerais ? (actuellement GPT: 4K-aligned Est-ce que l’ajout d’un SSD de cache à mon « array » supprimerai ça ? Une autre idée pour mon problème ? Merci d'avance
  23. Nouveaux macbook pro aujourd'hui avec la 4ème génération de clavier.... https://www.macg.co/mac/2019/05/apple-lance-des-macbook-pro-plus-rapides-equipes-dun-nouveau-clavier-106243 https://www.macg.co/materiel/2019/05/clavier-papillon-apple-elargit-son-programme-de-sav-et-modifie-encore-son-clavier-106244
  24. Merci pour ton retour. D'autres INpactiens auront sûrement de bonnes idées ou pourront peut-être te composer une configuration aux petits oignons en fonction de tes préférences 😉 Edit : pour revenir un peu sur l'écran, il s'agit d'un modèle FullHD 27", d'après ce test en anglais (je n'ai rien trouvé en français) le contraste est un peu faiblard (se balade entre 600:1 et 700:1 selon les réglages) mais la fidélité des couleurs est bonne en sortie de carton, le moniteur affiche un peu de ghosting apparemment quelque soit le niveau d'overdrive choisi mais un input lag imperceptible (d'après ce que je traduis si je ne me plante pas). Sinon, la définition FullHD (1920*1080) est plutôt bien adaptée aux performances d'une GTX 1660Ti, qui pourra offrir un débit d'images par seconde très correct mais on pourra aussi jouer dans de bonnes conditions en 2560*1440, selon les jeux. Certains trouveront cette définition un peu faible pour un écran de 27 pouces (taille importante des pixels), le ressenti peut dépendre de la qualité de sa vision, de la distance de recul par rapport à l'écran, de ce à quoi on est habitué^^... à voir donc.
  25. nickel merci à toi !
  1. Load more activity
×
×
  • Create New...