Home » Полезные советы » Подключение к lxc контейнеру Centos 7 по ssh в proxmox

Подключение к lxc контейнеру Centos 7 по ssh в proxmox

Решил потестировать работу lxc контейнеров в последнем proxmox 5.2. Столкнулся с неожиданной проблемой, выраженной в том, что не получается подключиться по ssh к созданному контейнеру. Решение очень простое, ниже расскажу в чем суть.

Оказывается, в дефолтном шаблоне centos 7 нет openssh сервера. Чтобы подключиться по ssh к контейнеру, надо локально зайти в него и выполнить команды:

# yum install openssh-server
# systemctl start sshd
# systemctl enable sshd

После этого штатно подключаетесь к 22 порту по ssh. Сервер работает с дефолтными настройками.

Для справки, тем, кто захочет тоже потестировать. По-умолчанию в proxmox не установлены шаблоны для lxc контейнеров. Их нужно руками установить по потребностям. Список всех доступных шаблонов можно посмотреть командой:

# pveam available

После этого можно установить необходимый lxc шаблон в proxmox.

# pveam download local centos-7-default_20171212_amd64.tar.xz

Обновлять установленные lxc шаблоны следует командой:

# pveam update

На первый взгляд все выглядит красиво и удобно, но надо потестировать на наличие багов, с которыми я сталкивался, когда устанавливал и настраивал lxc в centos 7. Рабочие проекты пока не решаюсь на lxc размещать, хотя хочется. Например, большой веб сервер удобнее бить на lxc и размещать сайты, нежели в отдельные виртуальные машины.

Если у кого-нибудь есть опыт работы с lxc контейнерами именно в proxmox, прошу поделиться информацией.

Помогла статья? Есть возможность отблагодарить автора

13 комментариев

  1. Доброго времени суток.
    Смотрю по моему наставлению таки приобщились к Proxmox. Замечатьельно. Слова мои дошли до Вас.

    P.s. Ссылка на небольшую вики по Proxmox, ZFS, pfsense — https://forum.netgate.com/topic/120102/proxmox-ceph-zfs
    Пользуйте.

    • С proxmox я стал работать ровно в тот момент, когда XenServer 7-й версии перестал поддерживать работу с mdadm. Причина только в этом. XenServer мне нравится больше хотя бы тем, что к нему есть продукты для инкрементного копирования. Для kvm ни одного такого не знаю, приходится hyper-v использовать там, где нужны инкрементные архивы виртуальных машин. Так что не надо строить из себя наставника, которого пришлось забанить в скайпе из-за спама!!!

      • Zerox, подскажите, пожалуйста, что имеете ввиду под прекращением поддержки mdadm XenServer’ом?
        Сам только подумываю над тем, чтобы его попробовать, но, насколько я понял, установку на softraid он никогда и не поддерживал. Или это ещё и ограничение внутри виртуалок?

        • Из коробки он не поддерживает установку на mdadm, но надо понимать, что XenServer сделан на базе Centos. До 7-й версии, это была Centos 5. Можно было спокойно после штатной установки сервера создать mdadm рейд и перенести систему на него.

          На 7-й версии такой трюк уже не сработает. Точнее, перенести систему на mdadm получится, но в случае выхода из строя системного диска, со второго система не загрузится, будет висеть с ошибкой. Я пробовал это несколько раз и всегда одно и то же. Даже статья висит в черновиках на тему установки XenServer на mdadm. Но не стал публиковать, потому что не вижу смысла. Данные так можно защитить, так как реально рейд будет работать, но вот загрузиться гипервизор не сможет с развалившегося софтового рейда.

          • Спасибо за подробный ответ.

            Установку на флешку/отдельный SSD не рекомендуете? Если говорить о XenServer 7.

            • Флешка как вариант для установки чего-либо важного мной вообще не рассматривается. Я не понимаю, таких советов. Она же умереть в любой момент может с вероятностью в разы выше, чем диск. На ssd можно, но надо смотреть что за диск и сколько прослужит.

              Все от задач зависит. Я в продакшн без отказоустойчивости не ставлю ничего. Система даже самая простая должна переживать выход из строя жесткого диска.

      • Добрый.

        Но-но, меньше эмоций. Если поискать тут на сайте, то можно найти наше старое общение. По поводу того ,как я вас уговариваю на использование Proxmox вместо Xen. Если вы не потерли, конечно.

        Теперь насчет «забанить в скайпе из-за спама!!!». Могу прям скрины общения выложить, к-ых точно хватит понять нормальным людям, что никакого спама не было. Иногда я бросал вам ссылки по никсам etc.

        «Не понравилась статья и хочешь научить меня администрировать? Пожалуйста, я люблю учиться. Комментарии в твоем распоряжении. Расскажи, как сделать правильно!»
        Ваше ? Так вы или трусы наденьте, или крестик снимите. Соглашусь, что вы неплохой специалист. Но, похоже, что вы заболели «звездной болезнью». И это плохо.

        P.s. Могу дать свой скайп для общения. Мне нечего стыдиться.

        • Удивительно, какая настойчивость 🙂 Я не хочу спорить, скажу лишь, что ежедневные ссылки в скайп по никсам я не просил вообще. За полезную информацию спасибо.

  2. Любопытная инфа, нужно протестировать.

  3. Zerox, по контейнеризации в Proxmox ve 5.*, стоит кластер(3 ноды, сервера — hp dl180se g6, 1 диск ssd — система, 12 дисков в 10-м рейде — ceph), дисковая подсистема ceph, в контейнерах samba(файлопомойка), видеонаблюдение Xeoma, Zabbix server, ERA, Postfix, Bitrx, Bacula, 4 web-сервера, KVM — терминальный сервер XRDP на Debian 9, сервер 1С + PostgreSQL Debian 9, на тестовый сервер windows 2008r2. В качестве клиентов — терминалы на thinstation 5.
    Система работает в режиме 24/7/365 уже 2 года, особых проблем с контейнерами не возникает. Сеть небольшая 145 пользователей + система мониторинга холодильных установок + видеонаблюдение (110 камер) + система контроля внешней среды 32 датчика + телефония.
    В общем, я очень удовлетворен.
    Могу выслать конфиги.

    • Это все поднято на штатном функционале, или пришлось кастомизировать? Я вижу инструкцию — https://pve.proxmox.com/wiki/Ceph_Server Сам не тестировал, нет железа для теста. Хочется понимать, в таком виде это рабочий, надежный и законченный вариант?

    • Был опыт с выходом из строя одного из серверов? Поломки и замена дисков?

      • Дмитрий

        Был опыт с выходом из строя двух серверов и заменой 9-ти дисков, скачок напряжения был очень жесткий, пробило всю защиту. Даже вспомнить страшно, чуть инфаркт не поймал, боялся в консоль зайти и посмотреть.
        Потери информации не произошло.
        По-поводу инструкции, у меня таких крутых дисков нет, обычные sas, сервера подключены через 10Гб карты оптикой, контроллеры внешние, в общем все по-взрослому — избыточность, отказоустойчивость, полное резервирование, бэкап на ленту.

Добавить комментарий

Ваш e-mail не будет опубликован.

Нажимая кнопку "Отправить комментарий" Я даю согласие на обработку персональных данных.