Jump to content

Recommended Posts

Bonsoir,

J'ai promox 6.3-3, j'ai deux VM dessus sous "Disques" => "LVM" ça m'indique utilisation à 97% :

image.thumb.png.d5466fb3f4b545c977906074c8fbef1f.png

root@pve:~# df -h
Filesystem            Size  Used Avail Use% Mounted on
udev                  7.3G     0  7.3G   0% /dev
tmpfs                 1.5G   34M  1.5G   3% /run
/dev/mapper/pve-root   94G  9.3G   80G  11% /
tmpfs                 7.4G   40M  7.3G   1% /dev/shm
tmpfs                 5.0M     0  5.0M   0% /run/lock
tmpfs                 7.4G     0  7.4G   0% /sys/fs/cgroup
/dev/fuse              30M   16K   30M   1% /etc/pve
tmpfs                 1.5G     0  1.5G   0% /run/user/0
root@pve:~# lvs
  LV   VG  Attr       LSize    Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  root pve -wi-ao---- <457.26g
  swap pve -wi-ao----    8.00g

root@pve:~# vgdisplay
  --- Volume group ---
  VG Name               pve
  System ID
  Format                lvm2
  Metadata Areas        1
  Metadata Sequence No  41
  VG Access             read/write
  VG Status             resizable
  MAX LV                0
  Cur LV                2
  Open LV               2
  Max PV                0
  Cur PV                1
  Act PV                1
  VG Size               <465.26 GiB
  PE Size               4.00 MiB
  Total PE              119106
  Alloc PE / Size       119106 / <465.26 GiB
  Free  PE / Size       0 / 0
  VG UUID               ruT3T1-7Klo-bR3N-yovq-ycFp-44V7-m9LA5l

Comment faire pour libérer de l'espace ?

Merci d'avance

Edited by xillibit
Link to post
Share on other sites

465.26 Go cela correspond à tes partitions LVM root et swap mises ensemble.

C'est pas simplement que tu n'as plus d'espace non partitionné ?

Pourquoi ta partition root fait 457.26 Go d'après "lvs" et 94 Go d'après "df" ?

Si c'est bien les mêmes cela ne serait pas dû à ce que ta partition fait 457.26 Go mais que le filesystem dedans seulement 94 Go ? Tu n'aurais pas étendu la partiton LVM mais pas le filesystem ou quelque chose comme cela ?

Si c'est le cas il faudrait soit étendre le FS de "root", soit réduire la partition. Si tu le fais, fait très attention car si à un moment ta partition est plus petite que le filesystem c'est la corruption de données. Regarde bien la doc de lvresize (la manpage) et documente toi sur LVM. J'ai un peu peur de te conseiller une commande et que ayant mal compris ton problème cela entraîne une grosse corruption derrière.

Aussi où sont les VMs / containers. Leurs données sont sur la partition root ? C'est quel genre de containers.

Par contre je te conseille de faire des sauvegardes avant toute action.

Link to post
Share on other sites
Il y a 23 heures, ashlol a écrit :

je vais dire un truc con mais bon pourquoi tu ne mets pas un disque plus gros ou t'en ajoutes pas un de plus ?

Je dois avoir 400 Go de disponible donc c'est inutile d'en rajouter un autre

J'ai juste des VM qui sont censés être dans le dossier data, une visu plus compréhensible :

root@pve:~# lsblk
NAME               MAJ:MIN RM   SIZE RO TYPE MOUNTPOINT
nvme0n1            259:0    0 465.8G  0 disk
├─nvme0n1p1        259:1    0  1007K  0 part
├─nvme0n1p2        259:2    0   512M  0 part /boot/efi
└─nvme0n1p3        259:3    0 465.3G  0 part
  ├─pve-swap       253:0    0     8G  0 lvm  [SWAP]
  ├─pve-root       253:1    0    96G  0 lvm  /
  ├─pve-data_tmeta 253:2    0   3.5G  0 lvm
   └─pve-data     253:4    0 338.4G  0 lvm
  └─pve-data_tdata 253:3    0 338.4G  0 lvm
    └─pve-data     253:4    0 338.4G  0 lvm

La commande pvs m'indique la même chose que l'interface web :

root@pve:/# pvs
  PV             VG  Fmt  Attr PSize    PFree
  /dev/nvme0n1p3 pve lvm2 a--  <465.26g <16.00g

 

root@pve:/# vgs
  VG  #PV #LV #SN Attr   VSize    VFree
  pve   1   3   0 wz--n- <465.26g <16.00g

 

root@pve:/# lvs
  LV   VG  Attr       LSize    Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  data pve twi-a-tz-- <338.36g             0.00   0.50
  root pve -wi-ao----   96.00g
  swap pve -wi-ao----    8.00g

Quand je tente un lvextend :

root@pve:/# lvextend -L +20G /dev/pve/data
  Insufficient free space: 5120 extents needed, but only 4095 available

 

Edited by xillibit
Link to post
Share on other sites

si je comprends bien tes 2 vm sont sur la même partition physique ?

je ne sais pas comment ça se comporte dans ce cas là car j'utilise toujours une partition par vm voir même si je peux 1 disque par vm ça évites les soucis.

Après 338.36+96+8 ne fais pas 465.26 il manque 22.9Go et bizarrement l'extend de 20G ne marche pas donc il voit que 16Go de libre sur les 22.9

Désolé je ne sais pas d'où viens ton soucis, à part que les 2 vm sur la même partition. Je ne connais pas assez proxmox pour savoir si c'est ok ou pas.

Link to post
Share on other sites
il y a une heure, xillibit a écrit :

J


root@pve:/# lvs
  LV   VG  Attr       LSize    Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  data pve twi-a-tz-- <338.36g             0.00   0.50
  root pve -wi-ao----   96.00g
  swap pve -wi-ao----    8.00g

 

Tu n'as rien utilisé dans "data".

Je soupçonne que tu ais créé les disques des VM dans root au lieu de data.

Peux-tu faire un lvdisplay?

Link to post
Share on other sites

Depuis l'interface graphique, peux-tu situer dans tes volumes (même icône que si-dessous pour local et local-thin) où sont les disques de tes VM ? (je pense que tu vas les trouver dans local - mais as-tu un autre volume ?)

 

Vue-Octopus.png

Link to post
Share on other sites

Je ne connais pas ce système d'allocation d'espace pour les VMs. Sur mes serveurs les VMs ont chaqu'une leurs propres partitions LVM (typiquement deux par VM une pour le "/" et une de swap, parfois un "/home" en plus). Cela fait quelques dizaines de partitions au total mais avec LVM ce n'est pas un problème. Après c'est aussi directement du Xen et pas du Proxmox.

Là le "data" n'a pas l'air monté (pas de "o" dans le retour de lvs). D'ailleurs c'est bizarre qu'elle n'était pas dans ton premier post. Tu as fait quoi entre temps ? Visiblement cette partition est vide car n'a jamais été utilisée. Vérifies le bien avant de faire quoi que se soit.

Il faut voir où sont réellement les données (voir message de brice.wernet). Si c'est des images disques à priori tu devrait pouvoir monter ta partition data par exemple sur "/data" (si ce dossier existe déjà nomme le différemment). Ajoute le bien au /etc/fstab pour le monter au démarrage. Déplace y les images disques probablement avec l'interface. Je ne connais pas suffisamment Proxmox pour te conseiller plus.

Si tu peux (cela dépend du type de VM) fait plutôt de vraies partitions LVM pour tes VMs. Dans ce cas tu n'aurais pas de partition "/data" monté sur ton hôte (appelé dom0 sur Xen). C'est la VM qui gère tout notamment le filesystem. J'ai déjà eu de mauvaises expériences avec les images disques.

Fais bien des sauvegardes avant l'opération et après reboote histoire de voir si tout remonte tout seul proprement.

Link to post
Share on other sites

Bonjour,

J'ai du supprimer les éléments qui étaient sous data

Du coup je voulais repartir sur une base propre, j'ai qu'une seule VM que je devais re-créer de toute façon donc ça me dérange par de tout supprimer.  Avec le live USB de gparted, le voulais supprimer toutes les partitions car à l'installation de proxmox on ne peut rien faire. J'ai une partition qui est verrouillée donc je ne peux pas la supprimer :

IMG_20210215_132215.jpg

Edited by xillibit
Link to post
Share on other sites

Tu as donc tout supprimé ? :transpi: Bien ... si c'est ce que tu veux ...

Attention ton LVM ne contient pas que "data" mais aussi "root" (et le swap mais c'est moins inportant)

Pour la partition /dev/nvme0n1p3 c'est la partition qui contient (contenait ?) les partitions LVM. En fait le système de partitionnement LVM n'est pas d'habitude utilisé direct sur le disque. Lorsque l'on crée un volume LVM on fais une partition standard (MBR ou GPT), et on formate cette partition dans laquelle on crée les partitions LVM. Bon après c'est parfois un peu plus complexe que cela puisque l'on peut mettre plusieurs disques (donc plusieurs partitions MBR/GPT) regroupé en un seul ensemble LVM mais ce n'est pas ton cas.

Je n'ai jamais utilisé gparted sur une partition de ce type. Essaye plutôt en ligne de commande. Regarde du coté de "vgremove" et "pvremove". Après je penses que tu pourra retirer la partition avec gparted. Je n'ai jamais eu à retirer LVM d'un disque donc je ne peux pas te conseiller.

Link to post
Share on other sites

J'ai réussi à supprimer toutes les partitions depuis le live USB de Gparted en faisant un lvscan puis pour chaque partition un lvremove. Ensuite avec l'application gparted j'ai pu supprimer le système de partionnement LVM

J'ai refait une installation de proxmox 6.3, la dernière fois que j'avais voulu importer un disque dans une nouvelle VM je ne sais pas si je m'y suis pris de la bonne façon c'est peut-être pour ça. Si j'ai une VM qui porte le numéro 100, je supprime le disque par défaut et j'ai un fichier de type img à importer en tant que nouveau disque dans la VM, je faisais ça en SSH:

qm importdisk 100 openmptcprouter-v0.57.1-r0_15225-bfc433efd4-x86-64-generic-ext4-combined.img local

Là j'ai un nouveau disque dans la VM, que j'attache. 

Est-ce que c'est la bonne façon de faire ?

Edited by xillibit
Link to post
Share on other sites
Il y a 54 minutes, xillibit a écrit :

J'ai refait une installation de proxmox 6.3, la dernière fois que j'avais voulu importer un disque dans une nouvelle VM je ne sais pas si je m'y suis pris de la bonne façon c'est peut-être pour ça. Si j'ai une VM qui porte le numéro 100, je supprime le disque par défaut et j'ai un fichier de type img à importer en tant que nouveau disque dans la VM, je faisais ça en SSH:


qm importdisk 100 openmptcprouter-v0.57.1-r0_15225-bfc433efd4-x86-64-generic-ext4-combined.img local

Est-ce que c'est la bonne façon de faire ?

Attention: ta commande qm import tu la fais sur "local", qui est certainement si tu n'a pas changé la config à l'install ta partition de 100Mo!

Regarde dans ton fichier /etc/pve/storage.cfg

root@octopus:~# cat /etc/pve/storage.cfg
dir: local
        path /var/lib/vz
        content iso,vztmpl,backup

lvmthin: local-lvm
        thinpool data
        vgname pve
        content rootdir,images

Ici j'ai 2 stockages: local et local-lvm. Si tu es comme moi, la ligne est donc:

qm importdisk 100 openmptcprouter-v0.57.1-r0_15225-bfc433efd4-x86-64-generic-ext4-combined.img local-lvm
Link to post
Share on other sites

ça doit être là que venait mon erreur, j'ai comme toi :

root@pve:/var/lib/vz# cat /etc/pve/storage.cfg
dir: local
        path /var/lib/vz
        content iso,vztmpl,backup

lvmthin: local-lvm
        thinpool data
        vgname pve
        content rootdir,images

J'ai convertit en qcow2 avec l'utilitaire sous windows : qemu-img.exe convert -f vdi -O qcow2 openmptcprouteur-v0.57.3-combined-ext4.vdi disk.qcow2

Ensuite je l'importe : qm importdisk 100 disk.qcow2 local-lvm je me retrouve avec le disque importé dans la VM mais que je ne peux pas attacher

 

P.S.: j'ai modifié le fichier /etc/pve/qemu-server/100.conf  et modifié la ligne ou était indiqué le disque inutilisé en : scsi0: local-lvm:vm-100-disk-1,size=5G

Edited by xillibit
Link to post
Share on other sites

Après avoir utilisé la commande pour importer le disque, au niveau de la VM il est créé en tant que disque non utilisé. J'ai réussi après en modifiant le fichier /etc/pve/qemu-server/100.conf

Link to post
Share on other sites
  • 2 weeks later...

Please sign in to comment

You will be able to leave a comment after signing in



Sign In Now
×
×
  • Create New...