Solving error ” /dev/lvmthin-raid1-group/lvol0: not found: device not cleared” ketika membuat lvm-thin pool baru di Proxmox

error di atas terjadi ketika saya mencoba membuat sebuah storage lvm-thin baru di proxmox dengan disk yang sudah kosong.

hal sama juga terjadi ketika menggunaka cli proxmox sebgai berikut

  • pertama format kosongkan disk
root@cloud13:~# dd if=/dev/zero bs=512 count=1 of=/dev/sdb status=progress
1+0 records in
1+0 records out
512 bytes copied, 0.00508212 s, 101 kB/s
  • buat partisi tabel GPT
root@cloud13:~# sgdisk -N 1 /dev/sdb 
Creating new GPT entries in memory.
The operation has completed successfully.
  • buat physical volume dan volume group untuk lvm di /dev/sdb1
root@cloud13:~# pvcreate --metadatasize 1024M -y -ff /dev/sdb1 
  Physical volume "/dev/sdb1" successfully created.
root@cloud13:~# vgcreate --metadatasize 1024M lvmthin-raid1-group /dev/sdb1
  Volume group "lvmthin-raid1-group" successfully created
  • kemudian terahir kita buat logical volume untuk nnti menjadi storage pool lvm-thin nya
root@cloud13:~# lvcreate -l 100%FREE --poolmetadatasize 1024M --chunksize 256 -T -n lv-raid1 lvmthin-raid1-group
  Thin pool volume with chunk size 256.00 KiB can address at most 63.50 TiB of data.
  /dev/lvmthin-raid1-group/lvol0: not found: device not cleared
  Aborting. Failed to wipe start of new LV.
root@cloud13:~# lvs
  LV                                          VG  Attr       LSize    Pool Origin        Data%  Meta%  Move Log Cpy%Sync Convert
  data                                        pve twi-aotz-- <337.83g                    44.58  1.84                            
  root                                        pve -wi-ao----   96.00g                                                           
  snap_vm-113-disk-0_before_upgrade           pve Vri---tz-k   50.00g data vm-113-disk-0                                        
  snap_vm-113-disk-0_sebelum_upgrade_pritunl  pve Vri---tz-k   50.00g data vm-113-disk-0                                        
  snap_vm-130-disk-0_before_upgrade_wordpress pve Vri---tz-k   32.00g data vm-130-disk-0                                        
  swap                                        pve -wi-ao----    8.00g                                                           
  vm-113-disk-0                               pve Vwi-aotz--   50.00g data               49.86                                  
  vm-113-state-before_upgrade                 pve Vwi-a-tz--    8.30g data               19.33                                  
  vm-113-state-sebelum_upgrade_pritunl        pve Vwi-a-tz--    8.30g data               45.96                                  
  vm-130-disk-0                               pve Vwi-aotz--   32.00g data               86.43                                  
  vm-130-state-before_upgrade_wordpress       pve Vwi-a-tz--   16.30g data               43.61                                  
  vm-141-disk-0                               pve Vwi-aotz--   50.00g data               89.80                                  
root@cloud13:~# vgs
  VG                  #PV #LV #SN Attr   VSize    VFree   
  lvmthin-raid1-group   1   0   0 wz--n- <930.48g <930.48g
  pve                   1  12   0 wz--n- <464.73g   16.00g
root@cloud13:~#

dari atas kita dapat melihat langkah pembuatan logical volume lvm gagal , dengan error ” /dev/lvmthin-raid1-group/lvol0: not found: device not cleared “

setelah mencoba membaca beberapa forum , ternyata salahsatu penyebab gagal dalam membuat logical voluem lvm di atas dari beberapa penyebab yang mungkin terjadi adalah service udev atau packagae udev yang tidak jalan atau tidak terinstall , , Linux memakai udev untuk memetakan perangkat yang dikenali kernel dengan sebuah nama yang statis.  udev memetakan sebuah perangkat keras ,

melalui rules yang ditulis oleh pengguna atau pembuat distro. Pengguna bisa menambahkan file rules di lokasi /etc/udev/rules.d. Distro Linux biasanya sudah dilengkapi dengan segudang rules untuk perangkat keras yang umum dipakai di lokasi /lib/udev/rules.d. Nomor di depan nama file dipakai untuk menentukan prioritas dari rules yang ada.

Sebagai contoh, berikut ini adalah salah satu baris di file /lib/udev/rules.d/60-persistence-storage.rules bawaan UBuntu:

# probe filesystem metadata of disks
KERNEL!="sr*", IMPORT{builtin}="blkid"
...
ENV{ID_FS_USAGE}=="filesystem|other", ENV{ID_FS_LABEL_ENC}=="?*", SYMLINK+="disk/by-label/$env{ID_FS_LABEL_ENC}"

maka dari penjalasan di atas , saya coba mengecek service dan package udev di proxmox , dan ternyata service nya berhenti

root@cloud13:~# dpkg -l |grep udev
ii  libudev1:amd64                       252.30-1~deb12u2                    amd64        libudev shared library
ii  udev                                 252.30-1~deb12u2                    amd64        /dev/ and hotplug management daemon
root@cloud13:~# systemctl status udev.service 
○ systemd-udevd.service - Rule-based Manager for Device Events and Files
     Loaded: loaded (/lib/systemd/system/systemd-udevd.service; static)
     Active: inactive (dead) since Mon 2024-10-07 10:02:31 WIB; 1 week 1 day ago
   Duration: 7min 10.120s
TriggeredBy: ○ systemd-udevd-control.socket
             ○ systemd-udevd-kernel.socket
       Docs: man:systemd-udevd.service(8)
             man:udev(7)
   Main PID: 916 (code=exited, status=0/SUCCESS)
     Status: "Shutting down..."
        CPU: 3min 36.703s

Notice: journal has been rotated since unit was started, output may be incomplete.
root@cloud13:~# systemctl start udev
root@cloud13:~# systemctl status udev.service 
● systemd-udevd.service - Rule-based Manager for Device Events and Files
     Loaded: loaded (/lib/systemd/system/systemd-udevd.service; static)
     Active: active (running) since Tue 2024-10-15 14:25:29 WIB; 2s ago
TriggeredBy: ● systemd-udevd-control.socket
             ● systemd-udevd-kernel.socket
       Docs: man:systemd-udevd.service(8)
             man:udev(7)
   Main PID: 3954269 (systemd-udevd)
     Status: "Processing with 128 children at max"
      Tasks: 5
     Memory: 8.8M
        CPU: 2.232s
     CGroup: /system.slice/systemd-udevd.service
             └─udev
               ├─3954269 /lib/systemd/systemd-udevd
               ├─3954288 "(udev-worker)"
               ├─3954291 "(udev-worker)"
               ├─3954296 "(udev-worker)"
               └─3954297 "(udev-worker)"

Oct 15 14:25:30 cloud13 lvm[3954487]: PV /dev/sdb1 online, VG lvmthin-raid1-group is complete.
Oct 15 14:25:30 cloud13 lvm[3954487]: VG lvmthin-raid1-group finished
Oct 15 14:25:31 cloud13 lvm[3954523]: PV /dev/sdb1 online, VG lvmthin-raid1-group is complete.
Oct 15 14:25:31 cloud13 lvm[3954523]: VG lvmthin-raid1-group finished
Oct 15 14:25:31 cloud13 lvm[3954553]: PV /dev/sdb1 online, VG lvmthin-raid1-group is complete.
Oct 15 14:25:31 cloud13 lvm[3954553]: VG lvmthin-raid1-group finished
Oct 15 14:25:31 cloud13 lvm[3954580]: PV /dev/sdb1 online, VG lvmthin-raid1-group is complete.
Oct 15 14:25:31 cloud13 lvm[3954580]: VG lvmthin-raid1-group finished
Oct 15 14:25:31 cloud13 lvm[3954589]: PV /dev/sdb1 online, VG lvmthin-raid1-group is complete.
Oct 15 14:25:31 cloud13 lvm[3954589]: VG lvmthin-raid1-group finished
root@cloud13:~# 

kemudian setelah service udev kembali berjalan , saya coba kembali create logical volume lvm

root@cloud13:~# lvcreate -l 100%FREE --poolmetadatasize 1024M --chunksize 256 -T -n lv-raid1 lvmthin-raid1-group
  Thin pool volume with chunk size 256.00 KiB can address at most 63.50 TiB of data.
  Logical volume "lv-raid1" created.
root@cloud13:~# 

pembuatan lvm-thin pool berhasi , terahir bisa kita tambah storage nya dari GUI proxmox di menu datacenter -> storage

referensi :
https://thesolidsnake.wordpress.com/2015/02/07/belajar-memahami-udev-di-linux/

No Comments, Be The First!

Your email address will not be published.

Time limit is exhausted. Please reload CAPTCHA.