NEWS
Resize Proxmox LVM um Backup zu ermöglichen
-
Hallo zusammen,.
ich verzweifle gerade an einer Situation auf meinem Proxmox 8.3.1 server, welcher 2 Debian LXC-Container mit iobroker hostet.
Das Problem das ich lösen will ist, dass es in dieser Konfiguration seit 2 Wochen nicht mehr möglich ist für die Container im Snapshot-Modus vzdump-backups zu erstellen.
Das Backup bricht mit dem error- ERROR: Backup of VM 100 failed - no lock found trying to remove 'backup' lock
ab. Ich habe sehr viel um und mit den Locks probiert und das Problem scheint mit dem vzdump und der Speicherkalkulation zusammenzuhängen und nur durch unzureichende Error-Messages wird das Problem auf die locks geschoben. Auch ohne Lock-Dateien und Einträge in der Conf und ohne verwaiste Dumps kann kein Backup ausgeführt werden.
Die Vermutung liegt nahe, dass für das Erstellen des dumps nicht genug Speicherplatz verfügbar ist.
Folgendes Setup:
Server mit 500GB SSD.
Ein LXC-Container mit 128GB und einer mit 64GB Speicherplatz.
Wie genau die Thin-Pools konfiguriert wurden, kann ich nicht mehr sagen, das hab ich im absoluten Newbie-Zustand durchgeführt. Vielleicht könnt ihr das in den Outputs unten sehen. Wenn ihr weitere braucht, sagt Bescheid.Ich GLAUBE, dass ich das pve-root von 96GB auf mindestens 128GB vergrößern muss, damit er den Snapshot der 100er VM erstellen kann. Dazu müsste ich also irgendwie an dem LVM, dem Thin-Pool oder was auch immer resizen, um das hinzubekommen. Ich habe aber null Ahnung wie das geht.
Ich kann auch total falsch liegen oder es muss ein Umweg über einen neu zu erstellenden Thin-Pool gegangen werden. Ich kenne mich mit dem Konzept dahinter aber kaum aus und hab beim Einlesen auch irgendwie ein Brett vor dem Kopf.folgende Outputs kann ich schonmal liefern:
lsblk:
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINTS nvme0n1 259:0 0 476.9G 0 disk ├─nvme0n1p1 259:1 0 1007K 0 part ├─nvme0n1p2 259:2 0 1G 0 part /boot/efi └─nvme0n1p3 259:3 0 475.9G 0 part ├─pve-swap 252:0 0 8G 0 lvm [SWAP] ├─pve-root 252:1 0 96G 0 lvm / ├─pve-data_tmeta 252:2 0 3.6G 0 lvm │ └─pve-data-tpool 252:4 0 348.8G 0 lvm │ ├─pve-data 252:5 0 348.8G 1 lvm │ ├─pve-vm--100--disk--0 252:6 0 128G 0 lvm │ └─pve-vm--101--disk--0 252:7 0 64G 0 lvm └─pve-data_tdata 252:3 0 348.8G 0 lvm └─pve-data-tpool 252:4 0 348.8G 0 lvm ├─pve-data 252:5 0 348.8G 1 lvm ├─pve-vm--100--disk--0 252:6 0 128G 0 lvm └─pve-vm--101--disk--0 252:7 0 64G 0 lvm
lvdisplay
--- Logical volume --- LV Name data VG Name pve LV UUID X9mSND-ir1z-rEg8-nYc5-W0rR-jzt5-CDkXku LV Write Access read/write (activated read only) LV Creation host, time proxmox, 2023-11-30 18:48:03 +0100 LV Pool metadata data_tmeta LV Pool data data_tdata LV Status available # open 0 LV Size <348.82 GiB Allocated pool data 54.37% Allocated metadata 2.22% Current LE 89297 Segments 1 Allocation inherit Read ahead sectors auto - currently set to 256 Block device 252:5 --- Logical volume --- LV Path /dev/pve/swap LV Name swap VG Name pve LV UUID wqzvbV-TwHh-MNT8-7ood-BPwz-Td2d-53r6dF LV Write Access read/write LV Creation host, time proxmox, 2023-11-30 18:48:02 +0100 LV Status available # open 2 LV Size 8.00 GiB Current LE 2048 Segments 1 Allocation inherit Read ahead sectors auto - currently set to 256 Block device 252:0 --- Logical volume --- LV Path /dev/pve/root LV Name root VG Name pve LV UUID FZlOpt-BCsO-x10L-hnDt-eLK6-P6yY-buYtQt LV Write Access read/write LV Creation host, time proxmox, 2023-11-30 18:48:02 +0100 LV Status available # open 1 LV Size 96.00 GiB Current LE 24576 Segments 1 Allocation inherit Read ahead sectors auto - currently set to 256 Block device 252:1 --- Logical volume --- LV Path /dev/pve/vm-100-disk-0 LV Name vm-100-disk-0 VG Name pve LV UUID R7iCI2-zrIb-lWi9-eoUw-Mii3-wJie-Dfy7xZ LV Write Access read/write LV Creation host, time SJSERVER, 2023-11-30 19:19:09 +0100 LV Pool name data LV Status available # open 1 LV Size 128.00 GiB Mapped size 99.95% Current LE 32768 Segments 1 Allocation inherit Read ahead sectors auto - currently set to 256 Block device 252:6 --- Logical volume --- LV Path /dev/pve/vm-101-disk-0 LV Name vm-101-disk-0 VG Name pve LV UUID 6hxVC1-o1ri-DuIz-Ke7P-e3Ni-fdMe-zN35JA LV Write Access read/write LV Creation host, time SJSERVER, 2025-03-18 20:40:00 +0100 LV Pool name data LV Status available # open 1 LV Size 64.00 GiB Mapped size 96.44% Current LE 16384 Segments 1 Allocation inherit Read ahead sectors auto - currently set to 256 Block device 252:7
vzdump error text (es wird hier zwar auf ein rclone-gdrive gedumpt, aber es funktioniert auch nicht mit dem local-storage):
INFO: starting new backup job: vzdump 101 100 --mode snapshot --fleecing 0 --node SJSERVER --prune-backups 'keep-last=3' --notes-template '{{guestname}}' --mailnotification always --quiet 1 --compress zstd --storage GDrive INFO: filesystem type on dumpdir is 'fuse.rclone' -using /var/tmp/vzdumptmp73646_100 for temporary files INFO: Starting Backup of VM 100 (lxc) INFO: Backup started at 2025-05-06 00:15:01 INFO: status = running INFO: CT Name: sjserver01 INFO: including mount point rootfs ('/') in backup INFO: excluding bind mount point mp0 ('/media/NAS') from backup (not a volume) INFO: backup mode: snapshot INFO: ionice priority: 7 INFO: no lock found trying to remove any lock INFO: create storage snapshot 'vzdump' no lock found trying to remove 'backup' lock ERROR: Backup of VM 100 failed - no lock found trying to remove 'backup' lock INFO: Failed at 2025-05-06 00:15:02 INFO: filesystem type on dumpdir is 'fuse.rclone' -using /var/tmp/vzdumptmp73646_101 for temporary files INFO: Starting Backup of VM 101 (lxc) INFO: Backup started at 2025-05-06 00:15:03 INFO: status = running INFO: CT Name: wschi INFO: including mount point rootfs ('/') in backup INFO: backup mode: snapshot INFO: ionice priority: 7 INFO: no lock found trying to remove any lock INFO: create storage snapshot 'vzdump' no lock found trying to remove 'backup' lock ERROR: Backup of VM 101 failed - no lock found trying to remove 'backup' lock INFO: Failed at 2025-05-06 00:15:05 INFO: Backup job finished with errors TASK ERROR: job errors
Kann mir hier irgendjemand helfen
a) besser herauszufinden woram es jetzt genau liegt
b) wie man es Schritt für Schritt löstEin backup im stop-mode funktioniert, die VMs müssen aber rund-um-die-Uhr laufen. Ich kann da nicht stundenlang pausieren...
Viele Grüße und Danke euch im Voraus
SEB -
@seb2010 wozu legt man eine VM mit 128 GB oder 64 GB an... ich check das nicht.. sry.....
lvremove /dev/pve/snap_vm-100-disk-0_vzdump
sollte die Lösung sein
wenn nicht hier nachlesen
https://forum.iobroker.net/topic/70354/proxmox-fehlermeldung-bei-backup-vzdump/18und vor allem warum macht man ein backup auf die selbe platte wo die VM's liegen..
du solltest dein backup konzept überdenken -
@arteck auf der VM 128GB läuft alles mögliche incl. Live-Video-Processing, InfluxDB etc. Die 64GB hat "nur" iobroker und influxdb. Beide sind ca. 70% voll.
Ich bin einfach von SD-Karten auf Proxmox migriert und habe dann einfach die Größen der SD-Karten genommen...
Aber wie gesagt, kam als Newbie auf Proxmox ohne einen Plan von best-practise.Oder was stößt dir hier auf?
-
@arteck
Das Backup geht auf ein google-drive was ich in /mnt/gdrive mit rclone mounte (storage Gdrive). Das ist auch das eigentliche Ziel (storage) des Backups. Das local backup hab ich nur erwähnt/getestet um Probleme mit der remote-location auszuschließen. Ich glaube aber auch, dass trotz des remote-targets er local Speicher benötigt. Und der ist nicht mehr ausreichend vorhanden... -
@arteck
Ich habe keine stale dumps oder locks. Das habe ich schon alles bereinigt. Die Lösungen aus dem Thread tun es nicht. Es liegt nicht an verwaisten Dumps oder Locks.