Home »

Proxmox влияние vm ...
 

Proxmox влияние vm друг на друга

4 Записи
2 Пользователи
0 Likes
299 Просмотры
Записи: 3
Создатель темы
(@nameless)
Active Member
Присоединился: 8 месяцев назад

Доброго времени суток!

Имеется proxmox, NVMe диск без рейда, на нем какое то количество vm. В один прекрасный момент в одной из vm отвалился диск с базами sql. Какой то колоссальной нагрузки на дисковую подсистему не было, диск в порядке, при этом в журнале windows выскакивает предупреждение "Был произведен возврат к устройству \Device\RaidPort0." Опытным путем было установлено что при нагрузке на диск к примеру iometer-ом получается воспроизвести ошибку в журнале windows но она далеко не всегда приводит к отвалу диска. Из Grafana скорость чтения в этот момент 650мб\с записи 260мб\с. Для 4-полосного NVMe это не много. Самое странное что при проведении теста на одной vm получаем схожую проблему на нескольких других vm, но не на всех которые есть на этом диске. Файловая система zfs, Дедупликация выключена. Кто то сталкивался с чем то похожим, могут vm в proxmox как то влиять друг на друга?

Ответить
3 Ответов
Записи: 901
Admin
(@zerox)
Prominent Member
Присоединился: 10 лет назад

Тут речь скорее не о влиянии VM друг на друга. Понятное дело, что живя на одной физической ноде, они влияют друг на друга. Скорее всего в момент пиковой нагрузки с диском что-то происходит. Возможно он перегревается и начинает сбоить. Может у него кончается кэш на запись и он начинает тупить. Вариантов может быть много. Если диск бюджетный, ориентированный на десктопное применение, то проблемы под параллельной нагрузкой, особенно на запись, бывают. Я сам с этим много раз сталкивался. Иногда при сильной нагрузке на запись SSD диска, у меня сам сервер подвисал или уходил в reboot. Это всё касается десктопного железа. Если покупать серверную платформу и серверные SSD, таких проблем не видел.  

Ответить
Записи: 3
Создатель темы
(@nameless)
Active Member
Присоединился: 8 месяцев назад

Железо не десктопное, HPE 2TB NVMe x4 RI SFF SCN DS SSD (VO002000KWJSF). При проблеме с самим диском вероятно тупило бы все а не часть vm (возможно я ошибаюсь и проблема с 1 из 4 каналов). Или белее вероятно проблема с прошивкой (пытаюсь сейчас выяснить какая стоит), не могу найти описание отличий HPK1 от HPK0, HP не утруждают себя подробным описанием, если у кого то есть подобная информация буду благодарен.

Ответить
Записи: 3
Создатель темы
(@nameless)
Active Member
Присоединился: 8 месяцев назад

Появилась новая информация, проблема появилась после миграции с другого физ. сервера, вероятно проблема в конфигурации вм - 

agent: 1
boot: order=virtio0
cores: 10
hotplug: disk,network,usb,cpu
machine: pc-q35-7.2
memory: 32768
meta: creation-qemu=7.2.0,ctime=1686848947
name: Copy-of-VM-ZelSad
net0: virtio=,bridge=vmbr0,firewall=1,tag=464
numa: 1
onboot: 1
ostype: win10
scsihw: virtio-scsi-single
smbios1: uuid=
sockets: 1
tags:
unused0: local-zfs:vm-101-disk-2
virtio0: local-zfs:vm-101-disk-6,cache=writeback,format=raw,iothread=1,size=100G
virtio1: local-zfs:vm-101-disk-7,cache=writeback,format=raw,iothread=1,size=10G
virtio3: local-zfs:vm-101-disk-8,cache=writeback,format=raw,iothread=1,size=20G
virtio4: local-zfs:vm-101-disk-9,backup=0,cache=writeback,format=raw,iothread=1,size=300G
vmgenid: 

 

1. какой тип виртуального контролера(scsihw) лучше подходит для NVMe дисков?

2. мог ли неправильный тип вызвать такие проблемы?

Ответить
Используешь Telegram? Подпишись на канал автора →
This is default text for notification bar