Home »

Отказ запуска VM, к...
 

Отказ запуска VM, крах LVM

7 Записи
2 Пользователи
0 Likes
2,571 Просмотры
Записи: 4
Создатель темы
(@skamxbot)
New Member
Присоединился: 4 года назад

Здравствуйте. Возникла проблема загрузки VM, после возобновления электропитания. Надеюсь на вашу помощь.

Расклад такой. Имеется кластер из двух нод с подключенным СХД по iSCSI. Proxmox 6.1-7. На каждую нод выделено из СХД по 2TB места для LVM-Thin и 2TB директории. Сам Proxmox стоит на жестаках сервера. В моем случае проблема с первым нодом, на котором VM из Windows с двумя дисками, следовательно LVM, на 100GB и 450GB. На втором ноде так же имеются VM, но с ними проблемы нет (надеюсь и не будет, хотя уже есть большие сомнения в надежности данной сборки). Было отключение электропитания, в связи с чем после запуска сервака, VM на первом ноде перестал запускаться. Ошибку к сожалению приложить не могу, но было выяснено что LVM были не в активном состоянии. Путём поиска информации, чтением подобных проблем и моих кривых рук мне удалось их активировать, но VM запустить так и не смог, так как при старте не находит загрузочный раздел. Бэкап недельной давности, поэтому восстановить из него - это крайний вариант. Подскажите куда копать.

Спойлер
# pvdisplay
--- Physical volume ---
PV Name /dev/sdb
VG Name NOD01-LVM
PV Size 2.00 TiB / not usable 4.00 MiB
Allocatable yes
PE Size 4.00 MiB
Total PE 524287
Free PE 128
Allocated PE 524159
PV UUID 7bAzY9-q3Gi-RGrj-k9Y0-bvZR-sGZV-7uNr7L

--- Physical volume ---
PV Name /dev/sda3
VG Name pve
PV Size 135.47 GiB / not usable 2.98 MiB
Allocatable yes
PE Size 4.00 MiB
Total PE 34680
Free PE 4096
Allocated PE 30584
PV UUID A4dfV0-82zW-Uhoc-gZAI-Uwit-MbBn-BU2hLC

Спойлер
# vgdisplay
--- Volume group ---
VG Name NOD01-LVM
System ID
Format lvm2
Metadata Areas 1
Metadata Sequence No 19
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 4
Open LV 2
Max PV 0
Cur PV 1
Act PV 1
VG Size <2.00 TiB
PE Size 4.00 MiB
Total PE 524287
Alloc PE / Size 524159 / <2.00 TiB
Free PE / Size 128 / 512.00 MiB
VG UUID sewNJh-PhRH-T5wo-1cwx-ccDT-65jR-I8faXX

--- Volume group ---
VG Name pve
System ID
Format lvm2
Metadata Areas 1
Metadata Sequence No 7
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 3
Open LV 2
Max PV 0
Cur PV 1
Act PV 1
VG Size <135.47 GiB
PE Size 4.00 MiB
Total PE 34680
Alloc PE / Size 30584 / <119.47 GiB
Free PE / Size 4096 / 16.00 GiB
VG UUID ZNg8bR-377K-L8yB-qBWJ-gpkX-CE0l-knPhoP

Спойлер
# lvdisplay
--- Logical volume ---
LV Name NOD01-LVM
VG Name NOD01-LVM
LV UUID B1TSvb-FLb3-2ekF-tmpT-1KeO-on7l-XenQNO
LV Write Access read/write
LV Creation host, time IIS-PVE-NOD01, 2020-04-07 11:30:16 +1000
LV Pool metadata NOD01-LVM_tmeta
LV Pool data NOD01-LVM_tdata
LV Status available
# open 3
LV Size <1.97 TiB
Allocated pool data 16.04%
Allocated metadata 1.18%
Current LE 516063
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 253:2

--- Logical volume ---
LV Path /dev/NOD01-LVM/vm-106-disk-0
LV Name vm-106-disk-0
VG Name NOD01-LVM
LV UUID yvyKDj-BlLd-TvVu-iFAt-sMAc-QlFj-Y9g8g5
LV Write Access read/write
LV Creation host, time IIS-PVE-NOD01, 2020-05-11 21:23:23 +1000
LV Pool name NOD01-LVM
LV Status available
# open 1
LV Size 100.00 GiB
Mapped size 0.01%
Current LE 25600
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 253:4

--- Logical volume ---
LV Path /dev/NOD01-LVM/vm-106-disk-1
LV Name vm-106-disk-1
VG Name NOD01-LVM
LV UUID pjlJqg-Tci0-KS5o-8gqi-EiLg-XK6D-ZDGE12
LV Write Access read/write
LV Creation host, time IIS-PVE-NOD01, 2020-05-11 21:23:24 +1000
LV Pool name NOD01-LVM
LV Status available
# open 1
LV Size 450.00 GiB
Mapped size 71.85%
Current LE 115200
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 253:5

--- Logical volume ---
LV Path /dev/NOD01-LVM/NOD01-LVM_meta0
LV Name NOD01-LVM_meta0
VG Name NOD01-LVM
LV UUID 2hoVkA-aHtG-SaEu-uxUg-7KoU-Xnag-Rl7Pr6
LV Write Access read/write
LV Creation host, time IIS-PVE-NOD01, 2020-04-07 11:30:16 +1000
LV Status available
# open 0
LV Size 15.81 GiB
Current LE 4048
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 253:6

--- Logical volume ---
LV Path /dev/pve/swap
LV Name swap
VG Name pve
LV UUID TCFEqK-jsdK-abSw-oTJT-R3Ra-F9MW-pByaWD
LV Write Access read/write
LV Creation host, time proxmox, 2020-03-25 23:26:09 +1000
LV Status available
# open 2
LV Size 8.00 GiB
Current LE 2048
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 253:7

--- Logical volume ---
LV Path /dev/pve/root
LV Name root
VG Name pve
LV UUID o5M8LR-AR2X-2NJK-65fV-urxV-lDbd-Eqeo3z
LV Write Access read/write
LV Creation host, time proxmox, 2020-03-25 23:26:09 +1000
LV Status available
# open 1
LV Size 33.75 GiB
Current LE 8640
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 253:8

--- Logical volume ---
LV Name data
VG Name pve
LV UUID Jqbuvk-sai1-OKwg-a7rP-rAQc-PQbo-9vgktJ
LV Write Access read/write
LV Creation host, time proxmox, 2020-03-25 23:26:10 +1000
LV Pool metadata data_tmeta
LV Pool data data_tdata
LV Status available
# open 0
LV Size <75.72 GiB
Allocated pool data 0.00%
Allocated metadata 1.60%
Current LE 19384
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 253:11

Спойлер
# lvs -a -o +devices
LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert Devices
NOD01-LVM NOD01-LVM twi-aotz-- <1.97t 16.04 1.18 NOD01-LVM_tdata(0)
NOD01-LVM_meta0 NOD01-LVM -wi-a----- 15.81g /dev/sdb(520111)
[NOD01-LVM_tdata] NOD01-LVM Twi-ao---- <1.97t /dev/sdb(4048)
[NOD01-LVM_tmeta] NOD01-LVM ewi-ao---- 15.81g /dev/sdb(0)
vm-106-disk-0 NOD01-LVM Vwi-aotz-- 100.00g NOD01-LVM 0.01
vm-106-disk-1 NOD01-LVM Vwi-aotz-- 450.00g NOD01-LVM 71.85
data pve twi-a-tz-- <75.72g 0.00 1.60 data_tdata(0)
[data_tdata] pve Twi-ao---- <75.72g /dev/sda3(10688)
[data_tmeta] pve ewi-ao---- 1.00g /dev/sda3(30072)
[lvol0_pmspare] pve ewi------- 1.00g /dev/sda3(30328)
root pve -wi-ao---- 33.75g /dev/sda3(2048)
swap pve -wi-ao---- 8.00g /dev/sda3(0)

Спойлер
# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 136G 0 disk
├─sda1 8:1 0 1007K 0 part
├─sda2 8:2 0 512M 0 part
└─sda3 8:3 0 135.5G 0 part
├─pve-swap 253:7 0 8G 0 lvm [SWAP]
├─pve-root 253:8 0 33.8G 0 lvm /
├─pve-data_tmeta 253:9 0 1G 0 lvm
│ └─pve-data 253:11 0 75.7G 0 lvm
└─pve-data_tdata 253:10 0 75.7G 0 lvm
└─pve-data 253:11 0 75.7G 0 lvm
sdb 8:16 0 2T 0 disk
├─NOD01--LVM-NOD01--LVM_tmeta 253:0 0 15.8G 0 lvm
│ └─NOD01--LVM-NOD01--LVM-tpool 253:2 0 2T 0 lvm
│ ├─NOD01--LVM-NOD01--LVM 253:3 0 2T 0 lvm
│ ├─NOD01--LVM-vm--106--disk--0 253:4 0 100G 0 lvm
│ └─NOD01--LVM-vm--106--disk--1 253:5 0 450G 0 lvm
├─NOD01--LVM-NOD01--LVM_tdata 253:1 0 2T 0 lvm
│ └─NOD01--LVM-NOD01--LVM-tpool 253:2 0 2T 0 lvm
│ ├─NOD01--LVM-NOD01--LVM 253:3 0 2T 0 lvm
│ ├─NOD01--LVM-vm--106--disk--0 253:4 0 100G 0 lvm
│ └─NOD01--LVM-vm--106--disk--1 253:5 0 450G 0 lvm
└─NOD01--LVM-NOD01--LVM_meta0 253:6 0 15.8G 0 lvm
sdc 8:32 0 2T 0 disk
└─sdc1 8:33 0 2T 0 part /mnt/pve/NOD01-DIRECTORY

Спойлер
# lvscan
ACTIVE '/dev/NOD01-LVM/NOD01-LVM' [<1.97 TiB] inherit
ACTIVE '/dev/NOD01-LVM/vm-106-disk-0' [100.00 GiB] inherit
ACTIVE '/dev/NOD01-LVM/vm-106-disk-1' [450.00 GiB] inherit
ACTIVE '/dev/NOD01-LVM/NOD01-LVM_meta0' [15.81 GiB] inherit
ACTIVE '/dev/pve/swap' [8.00 GiB] inherit
ACTIVE '/dev/pve/root' [33.75 GiB] inherit
ACTIVE '/dev/pve/data' [<75.72 GiB] inherit

Нужно восстановить работу 106 VM. Помогите.

Ответить
6 Ответов
Записи: 4
Создатель темы
(@skamxbot)
New Member
Присоединился: 4 года назад

Загрузился с Acronis. Диск LVM-vm--106--disk--0 на 100GB, на котором система Windows - не инициализирован. Со второго диска могу выкачать файлы.

Ответить
Записи: 894
Admin
(@zerox)
Prominent Member
Присоединился: 10 лет назад

У вас похоже какие-то проблемы с файловой системой на диске. Если железо после аварии работает нормально, значит что-то с виртуальным диском. Первое, с чего надо начать - загрузиться с какого-то live CD и посмотреть, как определяется диск, видно ли на нем разделы. Если ничего нет, надо попробовать каким-то софтом восстановить таблицу разделов и файловую систему. Чаще всего сыпется именно это при аварийных выключениях. Я так не раз чинил сервера, правда на linux.

Вот пример аналогичной ситуации в linux - https://serveradmin.ru/vosstanovlenie-tabliczy-razdelov-v-linux/ Алгоритм действий по восстановлению у вас должен быть схожий.

Ответить
4 Ответов
(@skamxbot)
Присоединился: 4 года назад

New Member
Записи: 4

@zerox, спасибо, но увы. LVM пуст, будто никогда и ничего туда не писалось.

Ответить
Admin
(@zerox)
Присоединился: 10 лет назад

Prominent Member
Записи: 894

@skamxbot как это узнали? Аварийное выключение сервера не приводит к тому, что lvm раздел очищается. Я ни разу с таким не сталкивался, хотя много всяких аварий повидал.

Ответить
(@skamxbot)
Присоединился: 4 года назад

New Member
Записи: 4

@zerox, testdisk показывает пустой lvm. Paragom Hard Disk Manager аналогично. Никаких разделов которые были бы удалены и можно восстановить.

Ответить
Admin
(@zerox)
Присоединился: 10 лет назад

Prominent Member
Записи: 894

@skamxbot странная история, но раз пусто, ничего не поделать. Вероятность такого всегда есть, поэтому важно делать бэкапы как можно чаще. Аварийное выключение это всегда шанс того, что система больше не поднимется.

Ответить
Используешь Telegram? Подпишись на канал автора →
This is default text for notification bar