xillibit Posté(e) le 12 février 2021 Partager Posté(e) le 12 février 2021 Bonsoir, J'ai promox 6.3-3, j'ai deux VM dessus sous "Disques" => "LVM" ça m'indique utilisation à 97% : root@pve:~# df -h Filesystem Size Used Avail Use% Mounted on udev 7.3G 0 7.3G 0% /dev tmpfs 1.5G 34M 1.5G 3% /run /dev/mapper/pve-root 94G 9.3G 80G 11% / tmpfs 7.4G 40M 7.3G 1% /dev/shm tmpfs 5.0M 0 5.0M 0% /run/lock tmpfs 7.4G 0 7.4G 0% /sys/fs/cgroup /dev/fuse 30M 16K 30M 1% /etc/pve tmpfs 1.5G 0 1.5G 0% /run/user/0 root@pve:~# lvs LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert root pve -wi-ao---- <457.26g swap pve -wi-ao---- 8.00g root@pve:~# vgdisplay --- Volume group --- VG Name pve System ID Format lvm2 Metadata Areas 1 Metadata Sequence No 41 VG Access read/write VG Status resizable MAX LV 0 Cur LV 2 Open LV 2 Max PV 0 Cur PV 1 Act PV 1 VG Size <465.26 GiB PE Size 4.00 MiB Total PE 119106 Alloc PE / Size 119106 / <465.26 GiB Free PE / Size 0 / 0 VG UUID ruT3T1-7Klo-bR3N-yovq-ycFp-44V7-m9LA5l Comment faire pour libérer de l'espace ? Merci d'avance Lien vers le commentaire Partager sur d’autres sites More sharing options...
ashlol Posté(e) le 13 février 2021 Partager Posté(e) le 13 février 2021 je vais dire un truc con mais bon pourquoi tu ne mets pas un disque plus gros ou t'en ajoutes pas un de plus ? Lien vers le commentaire Partager sur d’autres sites More sharing options...
RaphAstronome Posté(e) le 14 février 2021 Partager Posté(e) le 14 février 2021 465.26 Go cela correspond à tes partitions LVM root et swap mises ensemble. C'est pas simplement que tu n'as plus d'espace non partitionné ? Pourquoi ta partition root fait 457.26 Go d'après "lvs" et 94 Go d'après "df" ? Si c'est bien les mêmes cela ne serait pas dû à ce que ta partition fait 457.26 Go mais que le filesystem dedans seulement 94 Go ? Tu n'aurais pas étendu la partiton LVM mais pas le filesystem ou quelque chose comme cela ? Si c'est le cas il faudrait soit étendre le FS de "root", soit réduire la partition. Si tu le fais, fait très attention car si à un moment ta partition est plus petite que le filesystem c'est la corruption de données. Regarde bien la doc de lvresize (la manpage) et documente toi sur LVM. J'ai un peu peur de te conseiller une commande et que ayant mal compris ton problème cela entraîne une grosse corruption derrière. Aussi où sont les VMs / containers. Leurs données sont sur la partition root ? C'est quel genre de containers. Par contre je te conseille de faire des sauvegardes avant toute action. Lien vers le commentaire Partager sur d’autres sites More sharing options...
xillibit Posté(e) le 14 février 2021 Auteur Partager Posté(e) le 14 février 2021 Il y a 23 heures, ashlol a écrit : je vais dire un truc con mais bon pourquoi tu ne mets pas un disque plus gros ou t'en ajoutes pas un de plus ? Je dois avoir 400 Go de disponible donc c'est inutile d'en rajouter un autre J'ai juste des VM qui sont censés être dans le dossier data, une visu plus compréhensible : root@pve:~# lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT nvme0n1 259:0 0 465.8G 0 disk ├─nvme0n1p1 259:1 0 1007K 0 part ├─nvme0n1p2 259:2 0 512M 0 part /boot/efi └─nvme0n1p3 259:3 0 465.3G 0 part ├─pve-swap 253:0 0 8G 0 lvm [SWAP] ├─pve-root 253:1 0 96G 0 lvm / ├─pve-data_tmeta 253:2 0 3.5G 0 lvm │ └─pve-data 253:4 0 338.4G 0 lvm └─pve-data_tdata 253:3 0 338.4G 0 lvm └─pve-data 253:4 0 338.4G 0 lvm La commande pvs m'indique la même chose que l'interface web : root@pve:/# pvs PV VG Fmt Attr PSize PFree /dev/nvme0n1p3 pve lvm2 a-- <465.26g <16.00g root@pve:/# vgs VG #PV #LV #SN Attr VSize VFree pve 1 3 0 wz--n- <465.26g <16.00g root@pve:/# lvs LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert data pve twi-a-tz-- <338.36g 0.00 0.50 root pve -wi-ao---- 96.00g swap pve -wi-ao---- 8.00g Quand je tente un lvextend : root@pve:/# lvextend -L +20G /dev/pve/data Insufficient free space: 5120 extents needed, but only 4095 available Lien vers le commentaire Partager sur d’autres sites More sharing options...
ashlol Posté(e) le 14 février 2021 Partager Posté(e) le 14 février 2021 si je comprends bien tes 2 vm sont sur la même partition physique ? je ne sais pas comment ça se comporte dans ce cas là car j'utilise toujours une partition par vm voir même si je peux 1 disque par vm ça évites les soucis. Après 338.36+96+8 ne fais pas 465.26 il manque 22.9Go et bizarrement l'extend de 20G ne marche pas donc il voit que 16Go de libre sur les 22.9 Désolé je ne sais pas d'où viens ton soucis, à part que les 2 vm sur la même partition. Je ne connais pas assez proxmox pour savoir si c'est ok ou pas. Lien vers le commentaire Partager sur d’autres sites More sharing options...
brice.wernet Posté(e) le 14 février 2021 Partager Posté(e) le 14 février 2021 il y a une heure, xillibit a écrit : J root@pve:/# lvs LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert data pve twi-a-tz-- <338.36g 0.00 0.50 root pve -wi-ao---- 96.00g swap pve -wi-ao---- 8.00g Tu n'as rien utilisé dans "data". Je soupçonne que tu ais créé les disques des VM dans root au lieu de data. Peux-tu faire un lvdisplay? Lien vers le commentaire Partager sur d’autres sites More sharing options...
brice.wernet Posté(e) le 14 février 2021 Partager Posté(e) le 14 février 2021 Depuis l'interface graphique, peux-tu situer dans tes volumes (même icône que si-dessous pour local et local-thin) où sont les disques de tes VM ? (je pense que tu vas les trouver dans local - mais as-tu un autre volume ?) Lien vers le commentaire Partager sur d’autres sites More sharing options...
RaphAstronome Posté(e) le 14 février 2021 Partager Posté(e) le 14 février 2021 Je ne connais pas ce système d'allocation d'espace pour les VMs. Sur mes serveurs les VMs ont chaqu'une leurs propres partitions LVM (typiquement deux par VM une pour le "/" et une de swap, parfois un "/home" en plus). Cela fait quelques dizaines de partitions au total mais avec LVM ce n'est pas un problème. Après c'est aussi directement du Xen et pas du Proxmox. Là le "data" n'a pas l'air monté (pas de "o" dans le retour de lvs). D'ailleurs c'est bizarre qu'elle n'était pas dans ton premier post. Tu as fait quoi entre temps ? Visiblement cette partition est vide car n'a jamais été utilisée. Vérifies le bien avant de faire quoi que se soit. Il faut voir où sont réellement les données (voir message de brice.wernet). Si c'est des images disques à priori tu devrait pouvoir monter ta partition data par exemple sur "/data" (si ce dossier existe déjà nomme le différemment). Ajoute le bien au /etc/fstab pour le monter au démarrage. Déplace y les images disques probablement avec l'interface. Je ne connais pas suffisamment Proxmox pour te conseiller plus. Si tu peux (cela dépend du type de VM) fait plutôt de vraies partitions LVM pour tes VMs. Dans ce cas tu n'aurais pas de partition "/data" monté sur ton hôte (appelé dom0 sur Xen). C'est la VM qui gère tout notamment le filesystem. J'ai déjà eu de mauvaises expériences avec les images disques. Fais bien des sauvegardes avant l'opération et après reboote histoire de voir si tout remonte tout seul proprement. Lien vers le commentaire Partager sur d’autres sites More sharing options...
xillibit Posté(e) le 15 février 2021 Auteur Partager Posté(e) le 15 février 2021 Bonjour, J'ai du supprimer les éléments qui étaient sous data Du coup je voulais repartir sur une base propre, j'ai qu'une seule VM que je devais re-créer de toute façon donc ça me dérange par de tout supprimer. Avec le live USB de gparted, le voulais supprimer toutes les partitions car à l'installation de proxmox on ne peut rien faire. J'ai une partition qui est verrouillée donc je ne peux pas la supprimer : Lien vers le commentaire Partager sur d’autres sites More sharing options...
RaphAstronome Posté(e) le 15 février 2021 Partager Posté(e) le 15 février 2021 Tu as donc tout supprimé ? Bien ... si c'est ce que tu veux ... Attention ton LVM ne contient pas que "data" mais aussi "root" (et le swap mais c'est moins inportant) Pour la partition /dev/nvme0n1p3 c'est la partition qui contient (contenait ?) les partitions LVM. En fait le système de partitionnement LVM n'est pas d'habitude utilisé direct sur le disque. Lorsque l'on crée un volume LVM on fais une partition standard (MBR ou GPT), et on formate cette partition dans laquelle on crée les partitions LVM. Bon après c'est parfois un peu plus complexe que cela puisque l'on peut mettre plusieurs disques (donc plusieurs partitions MBR/GPT) regroupé en un seul ensemble LVM mais ce n'est pas ton cas. Je n'ai jamais utilisé gparted sur une partition de ce type. Essaye plutôt en ligne de commande. Regarde du coté de "vgremove" et "pvremove". Après je penses que tu pourra retirer la partition avec gparted. Je n'ai jamais eu à retirer LVM d'un disque donc je ne peux pas te conseiller. Lien vers le commentaire Partager sur d’autres sites More sharing options...
xillibit Posté(e) le 15 février 2021 Auteur Partager Posté(e) le 15 février 2021 J'ai réussi à supprimer toutes les partitions depuis le live USB de Gparted en faisant un lvscan puis pour chaque partition un lvremove. Ensuite avec l'application gparted j'ai pu supprimer le système de partionnement LVM J'ai refait une installation de proxmox 6.3, la dernière fois que j'avais voulu importer un disque dans une nouvelle VM je ne sais pas si je m'y suis pris de la bonne façon c'est peut-être pour ça. Si j'ai une VM qui porte le numéro 100, je supprime le disque par défaut et j'ai un fichier de type img à importer en tant que nouveau disque dans la VM, je faisais ça en SSH: qm importdisk 100 openmptcprouter-v0.57.1-r0_15225-bfc433efd4-x86-64-generic-ext4-combined.img local Là j'ai un nouveau disque dans la VM, que j'attache. Est-ce que c'est la bonne façon de faire ? Lien vers le commentaire Partager sur d’autres sites More sharing options...
brice.wernet Posté(e) le 15 février 2021 Partager Posté(e) le 15 février 2021 Il y a 54 minutes, xillibit a écrit : J'ai refait une installation de proxmox 6.3, la dernière fois que j'avais voulu importer un disque dans une nouvelle VM je ne sais pas si je m'y suis pris de la bonne façon c'est peut-être pour ça. Si j'ai une VM qui porte le numéro 100, je supprime le disque par défaut et j'ai un fichier de type img à importer en tant que nouveau disque dans la VM, je faisais ça en SSH: qm importdisk 100 openmptcprouter-v0.57.1-r0_15225-bfc433efd4-x86-64-generic-ext4-combined.img local Est-ce que c'est la bonne façon de faire ? Attention: ta commande qm import tu la fais sur "local", qui est certainement si tu n'a pas changé la config à l'install ta partition de 100Mo! Regarde dans ton fichier /etc/pve/storage.cfg root@octopus:~# cat /etc/pve/storage.cfg dir: local path /var/lib/vz content iso,vztmpl,backup lvmthin: local-lvm thinpool data vgname pve content rootdir,images Ici j'ai 2 stockages: local et local-lvm. Si tu es comme moi, la ligne est donc: qm importdisk 100 openmptcprouter-v0.57.1-r0_15225-bfc433efd4-x86-64-generic-ext4-combined.img local-lvm Lien vers le commentaire Partager sur d’autres sites More sharing options...
xillibit Posté(e) le 15 février 2021 Auteur Partager Posté(e) le 15 février 2021 ça doit être là que venait mon erreur, j'ai comme toi : root@pve:/var/lib/vz# cat /etc/pve/storage.cfg dir: local path /var/lib/vz content iso,vztmpl,backup lvmthin: local-lvm thinpool data vgname pve content rootdir,images J'ai convertit en qcow2 avec l'utilitaire sous windows : qemu-img.exe convert -f vdi -O qcow2 openmptcprouteur-v0.57.3-combined-ext4.vdi disk.qcow2 Ensuite je l'importe : qm importdisk 100 disk.qcow2 local-lvm je me retrouve avec le disque importé dans la VM mais que je ne peux pas attacher P.S.: j'ai modifié le fichier /etc/pve/qemu-server/100.conf et modifié la ligne ou était indiqué le disque inutilisé en : scsi0: local-lvm:vm-100-disk-1,size=5G Lien vers le commentaire Partager sur d’autres sites More sharing options...
brice.wernet Posté(e) le 15 février 2021 Partager Posté(e) le 15 février 2021 Quand tu dis que tu n'arrivez pas à l'attacher, c'est au niveau proxmox ou au-niveau de la vmque tu as un soucis(je veux dire en lançant la VM)? Lien vers le commentaire Partager sur d’autres sites More sharing options...
xillibit Posté(e) le 15 février 2021 Auteur Partager Posté(e) le 15 février 2021 Après avoir utilisé la commande pour importer le disque, au niveau de la VM il est créé en tant que disque non utilisé. J'ai réussi après en modifiant le fichier /etc/pve/qemu-server/100.conf Lien vers le commentaire Partager sur d’autres sites More sharing options...
brice.wernet Posté(e) le 15 février 2021 Partager Posté(e) le 15 février 2021 Donc c'est résolu? Lien vers le commentaire Partager sur d’autres sites More sharing options...
xillibit Posté(e) le 28 février 2021 Auteur Partager Posté(e) le 28 février 2021 Oui c'est résolu, merci à ceux qui ont répondus sur ce sujet Lien vers le commentaire Partager sur d’autres sites More sharing options...
Messages recommandés
Archivé
Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.