< meta name="referrer" content="origin">
Home » Linux » CentOS » Бэкап и перенос linux (centos, debian, ubuntu) сервера с помощью Veeam Agent for Linux

Бэкап и перенос linux (centos, debian, ubuntu) сервера с помощью Veeam Agent for Linux

Есть множество способов выполнить резервное копирование отдельной информации или целых серверов. Я хочу рассказать о самом простом способе полного бэкапа сервера и переноса его на другое железо, если будет такая необходимость. Делается все это очень просто, без лишних телодвижений с помощью бесплатного Veeam Agent for Linux FREE.

Введение

Ранее я уже неоднократно рассматривал вопрос резервного копирования данных или целых серверов linux. Конкретно в этих статьях:

Забэкапить сразу весь сервер можно, например, с помощью Duplicity. Но вот восстановить его на другом железе будет не так просто. Помимо данных нужно будет, как минимум, позаботиться о разметке диска, установке загрузчика. На это необходимо затратить некоторые усилия и немного разбираться в теме initramfs и grub. Сам я не очень разбираюсь в нюансах работы этих инструментов и очень не люблю с ними возиться.

Некоторое время назад появился отличный бесплатный продукт для бэкапа всего сервера целиком. Речь идет о Veeam Agent for Linux FREE. С его помощью можно сделать полный backup сервера, положить его куда-нибудь по smb или nfs, потом загрузиться с live cd и восстановить из бэкапа на другом железе.

Сразу расскажу о некоторых нюансах работы бесплатной версии, с которыми столкнулся в процессе эксплуатации замечательного продукта от veeam.

  1. Бэкап можно сделать либо всего сервера сразу, либо отдельного диска, либо отдельных папок и файлов. При выборе бэкапа всего диска или сервера, нельзя задать исключения для отдельных папок или файлов. Это очень неудобно, но увы и ах, таков функционал. Исключения можно сделать только если вы делаете бэкап на уровне папок.
  2. Бэкап можно положить локально на соседний раздел, если делаете резервную копию раздела, локально в папку — если делаете бэкап файлов и папок. Если бэкапите всю систему целиком, то удаленно по smb и nfs. К сожалению, по ftp или sftp программа не работает.

В качестве хранилища для архивов может выступать репозиторий Veeam Backup & Replication. Но я не рассматриваю этот вариант, так как в данном случае использую только бесплатное решение.

Мне очень хотелось настроить резервную копию всего сервера на Яндекс.Диск, но, к сожалению, у меня это не получилось из-за технических ограничений. Яндекс.Диск подключается к системе через webdav. Для того, чтобы сделать резервную копию всей системы, нужно бэкапить либо всю систему сразу, либо образ диска. Если у вас небольшой веб сервер, то скорее всего на нем только один раздел. На этом же разделе хранится кэш, который использует webdav для передачи файлов. Без кэша он работать не умеет.

Думаю вы уже поняли, в чем проблема сделать полный backup сервера с помощью Veeam Agent for Linux на Яндекс.Диск по webdav. Вы не сможете добавить в исключения папку с кэшом от webdav. В итоге, во время бэкапа с помощью veeam будет расти папка с кэшом webdav, которая, в свою очередь, будет бэкапиться. В итоге, свободное место на диске закончится, бэкап прервется.

Я подробно описал ситуацию с Яндекс.Диском, потому что пространство на нем не дорого стоит. Я часто его использую в повседневной жизни, настраиваю бэкапы, храню данные и т.д. В общем, мне он нравится по ряду причин. Для того, чтобы бэкапить весь сервер целиком, вам придется найти место для архивных копий с доступом по smb или nfs. Таких предложений не очень много на рынке. Практически не из чего выбирать, я специально искал.

Остановился вот на этом варианте — KeyDisk. После оплаты, вам дают адрес сервера, логин и пароль. Вы можете сразу же подключаться по smb к хранилищу. Можно прям в windows через два обратных слеша зайти или подмонтировать хранилище к linux серверу.

Подключение сетевого диска keyweb в windows

Подключение сетевого диска keyweb в linux

KeyDisk стоит примерно 350р. в месяц за 100 гигов. Не очень дешево, конечно, в сравнении с облачными сервисами, но все равно не дорого. Похожих предложений с доступом по smb я лично вообще не нашел в принципе. Этот объем позволит вам забэкапить небольшой веб сервер с глубиной архива в несколько недель или месяцев, в зависимости от того, сколько данных у вас на нем хранится.

Дальше я подробно на конкретном примере расскажу как все настроить и восстановить или перенести сервер целиком, если понадобится. Причем переносить буду вообще на другое железо. Но обо всем по порядку.

Установка Veeam Agent for Linux

Для установки Veeam Agent for Linux необходимо подключить репозиторий veeam под нужную вам систему. Это можно сделать либо руками, либо скачать файл с репозиторием в виде rpm или deb пакета. Сделать это можно на странице с описанием продукта.

Загрузка Veeam agent для linux

Для того, чтобы получить доступ к разделу с загрузками, придется зарегистрироваться. Выбираете тип системы и скачиваете репу.

Выбор типа системы

Чуть ниже рекомендую сразу же скачать Veeam Linux Recovery Media. Он нам понадобится, когда мы будем переносить сервер на другое железо или восстанавливать из бэкапа.

Копируем файл с репозиторием на сервер и устанавливаем его. На момент написания статьи, файл можно было скачать по прямой ссылке.

# cd /root
# wget https://download2.veeam.com/veeam-release-el7-1.0-1.x86_64.rpm
# rpm -Uhv veeam-release-el7-1.0-1.x86_64.rpm

Обновляем репозитории и устанавливаем veeam.

# yum update
# yum install veeam

Все, Veeam Agent for Linux установлен и готов к работе.

Настройка полного бэкапа сервера

Сделать бэкап с помощью Veeam Agent for Linux очень просто. Вариантов настроек не так много, можете сами все проверить и посмотреть. Я для примера рассмотрю вариант с созданием полного бэкапа всей системы и перенос ее на другое железо. Создаем задачу для резервного копирования сервера на наше хранилище по smb.

# veeam

Нам сразу же предлагают указать файл с лицензией. Так как у нас лицензии нет, то отказываемся. Нас встречает главное окно программы.

Главный экран программы для бэкапа линукса

Нажимаем C (configure) для настройки задания на backup. Задаем любое имя задания, затем указываем, что будем делать полный бэкап сервера.

Выбор режима резервных копий

В качестве приемника для архива системы, указываем Shared Folder.

Место хранения бэкапа сервера

Далее нужно ввести параметры доступа к хранилищу бэкапов. Я использую свои от системы KeyDisk.

Параметры подключения диска для архивных копий по smb

В пункте Restore Points указывается глубина архива. Это число копий, которые будут храниться на сервере. Если делать бэкап каждый день и указать число 14, то будут храниться резервные копии системы за последние 14 дней. Если делать будете через день, то за 28 дней и т.д.

Можно создавать несколько заданий с различной глубиной архива. Например, каждый день с глубиной 7 копий, раз в неделю с глубиной 4, и раз в месяц с глубиной в 12. Таким образом у вас всегда будут последние 7 бэкапов системы на этой неделе. Потом по одному бэкапу в неделю за последний месяц и 12 бэкапов по месяцам в течении последнего года.

Если получите ошибку:

Current system does not support cifs. Please install cifs client package.

Установите пакет cifs. В CentOS вот так:

# yum install cifs-utils

И так в Debian/Ubuntu:

# apt install cifs-utils

Запускайте заново veeam и продолжайте. После настройки Destination, предлагается указать скрипты для выполнения перед и после бэкапа. Нам сейчас это не надо. Далее настраиваем расписание и запускаем задание на архивацию в конце настройки.

Расписание резервных копий

Запустилась архивация. Можно следить за ее прогрессом.

Процесс резервного копирования сервера

После завершения архивации системы, можно проверить содержимое сетевого хранилища, зайдя на него прямо из винды.

Проверка архива с бэкапами

На этом настройку полного бэкапа сервера мы завершили. Резервная копия системы лежит в надежном месте. Попробуем теперь с нее восстановиться.

Перенос или восстановление linux сервера

Представим теперь ситуацию, что наш веб, или какой-нибудь другой сервер умер, и нам надо восстановить систему в другом месте. Выполним полное восстановление всего сервера с помощью созданной ранее резервной копии. Для этого нам понадобится Veeam Linux Recovery Media, который мы скачали ранее.

Для восстановления системы нужно соблюсти два обязательных условия:

  1. Готовим новый сервер с диском, который должен быть не меньше диска исходного сервера. Это обязательное условие, иначе восстановление системы даже не начнется. Veeam скажет, что размер диска недостаточный и не предложит больше никаких вариантов восстановления.
  2. Оперативной памяти для системы должно быть не меньше 1024 Мб. Если меньше, то загрузка с диска не будет выполнена. Система скажет, что она не может развернуть корневой раздел.

Загружаемся с диска. В разделе Configure network убеждаемся, что сеть настроена, получен ip адрес, который имеет доступ к интернету. Далее выбираем Restore volumes -> Add shared folder. Заполняем параметры доступа к хранилищу архивов.

Подключение диска с бэкапом сервера

Выбираем там директорию с нашим архивом системы, которую будем восстанавливать. Далее будет показан список задач в левом столбце и список резервных копий в правом.

Список заданий резервного копирования

В моем случае там только одна копия. Выбираю ее. Дальше мы видим слева список дисков нашего сервера, справа диски резервной копии.

Список разделов для восстановления

У меня слева чистый диск, справа тоже один диск, на который установлен загрузчик и есть один раздел с корнем системы. Выбираем справа наш диск (не раздел с корнем!!!) и жмем Restore whole disk to.

Меню восстановления образа диска

В качестве приемника выбираем пустой диск на новом сервере.

Выбор диска для восстановления системы

Нажимаем S ( Start restore ). Визард покажет список действий, которые будут выполнены и попросит их подтвердить, нажатием на Enter.

Подтверждение шагов восстановления

Делаем это и наблюдаем за процессом восстановления сервера centos из бэкапа.

Восстановление системы centos из бэкапа

Дожидаемся окончания переноса сервера, выбираем перезагрузку и извлекаем загрузочный CD. Грузимся с жесткого диска.

Дальше может быть много различных вариантов. Если вы переносите сервер на тот же гипервизор, то проблем скорее всего не будет, и все заведется сразу. Если же гипервизор другой, то могут быть варианты, в зависимости от ситуации.

Перенос виртуальной машины с KVM на Hyper-V

В моем случае я переношу сервер с KVM на Hyper-V. После загрузки системы я получаю такую картину.

Ошибка после переноса с kvm на hyper-v

Сервер начинает бесконечно висеть в подобном состоянии с такими характерными ошибками:

Warning: dracut-initqueue timeout starting timeout scripts
a start job is running for dev-disk-by ......

Начинаю разбираться в чем может быть дело. Конечно, тут решение проблемы будет зависеть от конкретной ситуации. А успешность решения от квалификации сисадмина. Я уже немного повозился с подобными переносами и примерно представляю, в чем тут может быть проблема. Частично я эту тему затрагивал, когда делал перенос виртуальных машин с XenServer на Hyper-V. Но там была другая проблема, связанная с кастомным ядром от Xen.

В нашей ситуации с переносом виртуальной машины с KVM на Hyper-V проблема в другом. У нас поменялось имя диска. Нам нужно изменить это имя в fstab и в конфиге grub. До кучи я еще собрал заново initramfs, но не уверен на 100%, что в данном случае это нужно было делать. Я сделал на всякий случай сразу все за один заход.

Итак, загружаемся с установочного диска CentOS 7 и выбираем режим Rescue a CentOS system. Подробно об этом рассказывал в упомянутой ранее статье с переносом от xen. Выбираем первый режим запуска.

Восстановление системы centos после переноса c kvm на hyper-v

Дальше работаем в консоли. Смотрим, как называется наш диск.

# fdisk -l

Список дисков

У меня это sda, а на прошлом сервере он назывался vda. Нам нужно внести эти изменения в 2 файла:

  1. /etc/fstab
  2. /boot/grub2/grub.cfg

Диск восстановления в самом начале мог сам смонтировать системный раздел в директорию/mnt/sysimage. Если он этого не сделает по какой-то причине, то сделайте это сами:

# mount /dev/sda1 /mnt/sysimage

Теперь нам надо сделать chroot в систему, предварительно смонтировав туда информацию о текущей системе. Выполняем команды:

# mount --bind /proc /mnt/sysimage/proc
# mount --bind /dev /mnt/sysimage/dev 
# mount --bind /sys /mnt/sysimage/sys 
# mount --bind /run /mnt/sysimage/run 
# chroot /mnt/sysimage

Мы загрузились в окружение нашего сервера. Тут можете использовать установленный у вас на сервере текстовый редактор. С его помощью изменяете имена дисков в файлах /etc/fstab и /boot/grub2/grub.cfg. Можете просто автозаменой поменять имена.

Теперь соберем новый initramfs. Идем в директорию /boot и смотрим там последнюю версию ядра.

# cd /boot
# ls -l | grep initramfs

Генерируем новый initramfs

В данном случае просто смотрим самые высокие цифры. Соберем новый initramfs в соответствии с версией ядра.

# dracut initramfs-3.10.0-514.26.2.el7.x86_64.img 3.10.0-514.26.2.el7.x86_64

В завершении установим измененный загрузчик на наш диск:

# grub2-install /dev/sda

Перезагружаем сервер. После этих изменений, у меня благополучно все загрузилось. Перенос виртуальной машины с KVM на Hyper-V выполнен полностью. Причем, у нас не было доступа к образу системы. Хотя подобная ошибка скорее всего все равно возникла бы, даже если бы мы конвертировали и переносили готовый образ.

Заключение

Изначально планировал написать небольшую заметку на тему использования Veeam для бэкапа сервера. Но в процессе получилось разобрать еще и перенос сервера с одного гипервизора на другой. Еще раз повторюсь, кому показалось это слишком сложным. Если вы будете бэкапить и восстанавливать сервер в рамках одного и того же гипервизора, то описанных выше проблем у вас не будет. Все пройдет гладко.

При переносе с железа на виртуальную машину или наоборот, тоже скорее всего возникнут какие-нибудь проблемы. Не существует софта или готового решения, которое бы позволило все это выполнить в автоматическом режиме.  С проблемами загрузки придется разбираться по ходу дела. Но две основные проблемы я разобрал:

  1. Неподходящие версии ядер. После переноса нужно будет переустановить или обновить ядро.
  2. Разные имена дисков или меток разделов. Нужно будет их привести в соответствие с новым железом.

Это наиболее популярные проблемы. С другими мне не приходилось сталкиваться. Хотя не сказать, что мне часто приходилось переносить сервера, но некоторый опыт есть. Думаю, эта статья будем многим полезна, так как подобный перенос не очень раскрыт в статьях в интернете. По крайней мере мне не попадались хорошие гайды на эту тему. Разбираюсь обычно сам с помощью гугления по англоязычному сегменту.

Делитесь своим опытом и оставляйте замечания к статье или указывайте на ошибке в комментариях.


Помогла статья? Есть возможность отблагодарить автора

80 комментариев

  1. Добрый день!
    Полезная статья, не знал о таком сервисе.
    В закладки, однозначно!

  2. Аноним

    На debian 7.11 cразу не взлетело
    #uname -a
    Linux tower 3.16.0-0.bpo.4-amd64 #1 SMP Debian 3.16.39-1+deb8u1~bpo70+1 (2017-02-24) x86_64 GNU/Linux

    #lsb_release -a
    Description: Debian GNU/Linux 7.11 (wheezy)
    Release: 7.11

    при запуске процесса бэкапа ошибка:
    Failed to load module [veeamsnap] with parameters [zerosnapdata=1 debuglogging=0]

    После перезагрузки сервера, проблема ушла.

    • Дмитрий

      Привет! давече столкнулся с такой же проблемой. только на freepbx distro после обновлений(видимо не могут они нормально поднимать ядро), до этого все нормально работало)) Решилось созданием симлинка build в папке /usr/lib/modules/»ваша версия ядра» на /usr/src/kernels/»ваша версия ядра» и симлинка source в папке /usr/lib/modules/»ваша версия ядра» на (как не удивительно) build.
      После выполняем команды
      смотрим билд веамснап sudo dkms status
      dkms remove -m veeamsnap -v «билд веамснап » —all
      dkms build -m veeamsnap -v «билд веамснап »
      dkms install -m veeamsnap -v «билдвеамснап »

      Если все ок, то ошибок быть не должно, можно полностью снести и переустановить веам дабы спокойнее было))

      • Дмитрий

        В общем, надеюсь это поможет кому-нибудь во избежании потраченного времени и нервных клеток)

  3. Аноним

    На proxmox настроенный по мануалу https://serveradmin.ru/ustanovka-i-nastroyka-proxmox/
    #uname -a
    Linux proxmox 4.4.76-1-pve #1 SMP PVE 4.4.76-94 (Thu, 17 Aug 2017 14:21:30 +0200) x86_64 GNU/Linux

    #lsb_release -a
    Description: Debian GNU/Linux 8.9 (jessie)
    Release: 8.9
    Codename: jessie

    бэкап пока не работает, пишет
    Failed to load module [veeamsnap] with parameters [zerosnapdata=1 debuglogging=0]

    возможно из-за нестандартного ядра т.к. по мануалам для veeam гарантируется работа только на стандартном ядре дистрибутива
    https://helpcenter.veeam.com/docs/agentforlinux/userguide/system_requirements.html?ver=10
    * As long as you use kernels supplied by your distribution.

    • А какой смысл сам гипервизор бэкапить? Достаточно только виртуалки. Я никогда гипервизоры не бекаплю. Их настроить с нуля быстрее, чем постоянно держать актуальный бэкап, а потом разворачивать его.

      • хм…про гипервизор этот момент не продумал, согласен.

        Так а виртуалки есть ли смысл бэкапить другим инструментом, например в Proxmox есть бэкап виртуалок из коробки.

        • Надо смотреть по ситуации. Конечно, если гипервизор позволяет делать бэкапы, то пользоваться нужно именно этим средством, так проще и удобнее. Но, к примеру, proxmox делает только полные бэкапы, а veeam умеет инкрементные. Так что в отдельных ситуациях можно отдать предпочтение бесплатному veeam.

  4. а можно бекапнуть lxc контейнер в проксмок, а потом востановить обратно но на виртуалку KVM?

    • Не знаю, не пробовал. Не уверен, что это возможно. Контейнеры и виртуалки принципиально разные вещи.

  5. есть еще вариант исправления ошибки после переноса с kvm на hyper-v, который не требует установочного образа, выполняется из rescue mode:

    • remove «rhgb» from the kernel command line in /etc/default/grub

    • # systemctl daemon-reload

    • generate a new /boot/grub2/grub.cfg:
    grub2-mkconfig -o /boot/grub2/grub.cfg

    • generate a new initramfs — varies based on your kernel!
    mv /boot/initramfs-3.10.0-229.11.1.el7.x86_64.img /boot/initramfs-3.10.0-229.11.1.el7.x86_64.img.bak
    dracut -v /boot/initramfs-3.10.0-229.11.1.el7.x86_64.img 3.10.0-229.11.1.el7.x86_64

    • Какая ошибка исправляется таким образом? Я не удалял модуль rhgb при переносе.

      • исправляет ошибки «Warning: dracut-initqueue timeout starting timeout scripts» и «a start job is running for dev-disk-by ……». как раз на этой неделе занимался миграцией centos7 и столкнулся с таким, выше приведенный способ исправляет их

  6. при запуске команды yum install veeam выдает следующее:

    Error: Package: veeamsnap-1.0.1.364-1.noarch (veeam)
    Requires: dkms

    • Нужно попробовать вручную установить пакет dkms. Это на какой системе? Я на нескольких серверах с CentOS 7 ставил, всегда гладко проходила установка, без затыков и ошибок.

  7. попробовал поставить Veeam на сервер астериска FreePBX
    вот какая ошибка при запуске veeam
    подскажите куда копать?
    Error: No such file or directory
    Failed to connect: /tmp/veeam/socket/veeam.sock.
    Failed to connect to local socket.

    • Сервер перезагружали?

      • там телефония крутиться. в принципе можно попробовать

      • после перезагрузки тоже самое.
        изначально не было даже папки /tmp/veeam/socket
        создал папку
        mkdir /tmp/veeam/socket
        потом создал сокет
        mkfifo /tmp/veeam/socket/veeam.sock
        делаю права для veeam
        chown -R veeam /tmp/veeam/socket
        получаю в ответ:
        chown: invalid user: `veeam’

    • Система какая? Или это готовый дистр от FreePBX?

      • готовый дистр Freepbx
        x86

        • Тогда в этой системе могут быть нюансы. Я бы для начала на виртуальной машине развернул этот дистрибутив и потренировался на нем, а потом уже на боевом пробовал что-то делать.

          • да вроде тот же centos судя по всему. хех veeam такой удобный на других серверах. придеться что то другое ставить

  8. На hetzner дешевле место арендовать и поддержка кучи протоколов и smb/cifs, sftp и т.д.

  9. Руслан

    Можно ли как то удалить Jobs’ы а то я насоздавал ради теста, удалить не могу (((

    • Можно. Там же в интерфейсе программы.

      • Руслан

        нет, нельзя, попробуйте, я целых два часа над этим парюсь

        • Все доброго времени суток.

          Попробуйте вызвать из строки veeamconfig job delete —name %имяДжобы%

          • Руслан

            Пробовал, задания все равно остаются

            Попробуйте сами, вдруг я где то ошибся, хотя наврятли ….

            • Я выполняю:
              # veeamconfig job delete —name BackupJob1

              и получаю:
              Job has been deleted successfully.

              Если вы под джобами имеете в виду то что видно на главном экране при старте меню, так то не джобы, а бэкап-сессии, т.е. хистори. убедиться что джоб не осталось сделайте

              veeamconfig job list

  10. Руслан

    окей, извиняюсь (( был не прав… (, тогда вопрос другой, как то можно удалить бэкап сессии ? А то уж больно глаза мазолят (

  11. Александр

    Установил veeam на Centos7. При выборе C (configure) для настройки задания на backup выдаётся ошибка: LvmDriver: Failed to create LVM instance. В чём причина и как исправить?

    • Александр

      Решение проблемы нашёл на сайте veeam: https://www.veeam.com/kb2334
      Необходимо отредактировать файл /etc/lvm/lvm.conf
      Секция Configuration section global, изменить units = «r» на «h»

      • Отлично, спасибо за информацию. Дополню статью.

      • Еще раз спасибо за информацию. Тоже словил эту ошибку после обновления centos. Оказывается бэкапы с этого времени не делались 🙁

  12. николай

    доброго дня, скажите пожалуйста после установке возникли вот такие ошибки
    bis2:~ # veeam
    Error: No such file or directory
    Failed to connect: /tmp/veeam/socket/veeam.sock.
    Failed to connect to local socket.

    • Система какая? На CentOS 7 у меня ни разу не было никаких проблем с установкой и запуском.

  13. николай

    Welcome to SUSE Linux Enterprise Server 11 SP2 (x86_64) — Kernel \r (\l).

    • Судя по документации, версия эта поддерживается
      https://www.veeam.com/veeam_agent_linux_1_0_user_guide_pg.pdf
      Такая же ошибка уже была у одного пользователя выше. Не знаю, как он ее решил. Возможно, поможет запрос в техподдержку. Мне нечего посоветовать.

      • николай

        спасибо

      • николай

        скажи пожалуйста , а другими средствами можно перенести физ сервак на виртуалку hyper-v ?

        • Clonezilla, Acronis. Как минимум у них заявлен этот функционал, но сам я не пользовался ими, хотя знаю, что clonezilla нормально сервера переносит один в один. Главное, чтобы сама система завелась на новом железе. Возможно в ней самой нужно будет что-то редактировать (пересобирать ядро, править загрузчик, initramfs, fstab и т.д.) В общем, нюансов может быть много. Linux в принципе труднее переносить с железо на железо в автоматическом режиме, чем винду.

    • Это известный баг

      https://forums.veeam.com/veeam-agent-for-linux-f41/unable-to-start-veeam-t45138.html

      вам в саппорт нужно, они скажут что дальше делать

  14. добрый день
    при запуске первоначального бекапа на smb сервер залипла на 511,7 Мб
    попытка снять с выполнения привела к тому, что статус поменялся на Stopping, но висит так же, ничего не меняется
    подскажи, пож, Куда копать, что можно сделать ?

    • Службу veeamservice перезапустить:
      # systemctl restart veeamservice

      • спасибо
        после перезапуска службы «висеть» перестал, но и дальше тех же 511,7 Мб не двигается.
        заканчивает бекапировать со стейт failed

        • Дальше логи надо смотреть в /var/log/veeam. Они достаточно подробные. Скорее всего там будет какая-то ошибка.

          • Изучаю логи, если честно, пока понять ничего не могу.
            Наверное наглость с моей стороны, но если есть возможность — посмотрите пож ? http://transfiles.ru/fbynb

            • Ошибки же видно. Искать по слову «Failed». Надо разбираться подробно, в чем там дело. Я так не помогу. Может просто места на дисках нет свободного? Для бэкапа нужен какой-то свободный объем.

  15. места много свободного есть на smb (где то в 1000 раз больше того, что нужно)
    в любом случае, спасибо за участие, буду копать дальше

    • На самом сервере, который бэкапится, тоже должно быть свободное место.

      • /dev/md2 1,8T 620G 1,1T 37%
        devtmpfs 24G 0 24G 0%
        tmpfs 24G 0 24G 0%
        tmpfs 24G 2,6G 21G 12%
        tmpfs 24G 0 24G 0%
        tmpfs 256M 207M 50M 81%
        /dev/md1 488M 379M 84M 83%
        tmpfs 4,8G 0 4,8G 0%
        tmpfs 4,8G 0 4,8G 0%
        tmpfs 4,8G 0 4,8G 0%
        tmpfs 4,8G 0 4,8G 0%
        tmpfs 512M 43M 470M 9%
        tmpfs 256M 8,3M 248M 4%
        tmpfs 4,8G 0 4,8G 0%
        tmpfs 4,8G 0 4,8G 0%
        tmpfs 768M 495M 274M 65%
        tmpfs 4,8G 0 4,8G 0%
        /dev/veeamimage1 1,8T 1,8T 0 100%

        • Причин может быть много, нужно смотреть что за ошибка в сессии бэкапа показана, отсюда плохо видно. Сходите для начала на форум их, а дальше по ситуации — либо ошибка известная и форума хватит, либо в саппорт отправят.

  16. Александр

    Делаю бэкап сервера на Centos 7 с астериском. Потом делаю восстановление из созданного бэкапа на другом железе. Всё хорошо разворачивается, за исключением: Нет конекта с asterisk`ом. Ошибка: Unable to connect to remote asterisk (does /var/run/asterisk/asterisk.ctl exist?). Файл asterisk.ctl в наличии. Пробую перезапускать asterisk — без результата. В чём может быть причина?, и что делать?

  17. Александр

    Да, Вы правы. Я сразу так и поступил (пересобрал aster), но думал, что может есть более короткое решение. Спасибо за ответ!

  18. приветствую. вылезла проблема

    система CentOS Linux release 7.4.1708 (Core)

    при запуске бэкапы вываливается с ошибкой

    [error] Failed to create volume snapshot
    [error] Failed to perform backup
    [error] Child execution has failed. Exit code: [1]
    [error] Failed to load module [veeamsnap] with parameters [zerosnapdata=1 debuglog…

    в интернетиках пишут то может не совпадать версии, но у меня все совпадает

    rpm -qa | grep veeamsnap
    veeamsnap-1.0.1.364-1.noarch

    uname -r
    3.10.0-693.2.2.el7.x86_64

    rpm -qa | grep kernel-headers
    kernel-headers-3.10.0-693.2.2.el7.x86_64

    есть мысли по решению?

    • Выше в комментариях человек написал, как решил такую же проблему.

      • выше таких же проблем как у меня не нашел

        пришлось ковырять самому, набрел на тему на офф форуме

        forums.veeam.com/veeam-agent-for-linux-f41/failed-to-load-module-with-parameters-zerosnapd-t40889.html

        там советую проверить модуль veeamsnap

        «Let me a little tediousness: veeamsnap is a DKMS module. DKMS modules have 4 states: not in a tree, added, built and installed. More info: http://www.linuxjournal.com/article/6896

        In general, the said error message means that veeamsnap module hasn’t been installed. You can check its status by running the following command
        # dkms status

        If the output looks like ‘veeasnap added’ this message means that module has been added, but hasn’t been built and hasn’t been installed. In the most cases, this status means that your OS doesn’t have corresponding kernel-devel and kernel-headers for the current kernel. When you install them (missing packages) you can either re-install Veeam Agent for Linux in order to execute DKMS hooks which will rebuild and install veeamsnap or rebuild it manually by executing the following commands:

        # dkms remove -m veeamsnap/1.0.0.944 —all
        # dkms build -m veeamsnap -v 1.0.0.944
        # dkms install -m veeamsnap -v 1.0.0.944

        I hope my message is informative and helpful.»

        на шаге dkms build -m veeamsnap -v 1.0.1.364
        возникает ошибка Your kernel headers for kernel 3.10.0-693.2.2.el7.x86_64 cannot be found at
        /lib/modules/3.10.0-693.2.2.el7.x86_64/build or /lib/modules/3.10.0-693.2.2.el7.x86_64/source.

        упорное гугление вывело на то что

        «I suspect that at some point you did a yum update or similar, and that actually installed a new kernel, but you have not yet started running it. »

        пробуем
        yum install «kernel-devel-uname-r == $(uname -r)»
        Loaded plugins: fastestmirror, replace
        Loading mirror speeds from cached hostfile
        * webtatic: uk.repo.webtatic.com
        No package kernel-devel-uname-r == 3.10.0-693.2.2.el7.x86_64 available.
        Error: Nothing to do

        пришлось искать качать и ставить вручную
        https://centos.pkgs.org/7/centos-updates-x86_64/kernel-devel-3.10.0-693.2.2.el7.x86_64.rpm.html
        rpm -i kernel-devel-3.10.0-693.2.2.el7.x86_64.rpm

        после этого уже можно делать
        # dkms build -m veeamsnap -v 1.0.1.364
        # dkms install -m veeamsnap -v 1.0.1.364

        после этого бэкап успешно запустился

        надеюсь будет полезно

  19. Интересно, забекапить zimbra можно будет агентом под linux… Может кто уже пробовал?

    • Думаю да. Если в целом бэкап заработает, то и зимбра забэкапится. Она же на обычном линуксе работает. Тут пока сам не проверишь конкретно на своем сервере, не узнаешь наверняка.

Добавить комментарий

Ваш e-mail не будет опубликован.