Home » Полезные советы » Подключение к lxc контейнеру Centos 7 по ssh в proxmox

Подключение к lxc контейнеру Centos 7 по ssh в proxmox

Решил потестировать работу lxc контейнеров в последнем proxmox 5.2. Столкнулся с неожиданной проблемой, выраженной в том, что не получается подключиться по ssh к созданному контейнеру. Решение очень простое, ниже расскажу в чем суть.

Онлайн-курс по устройству компьютерных сетей

На углубленном курсе "Архитектура современных компьютерных сетей" вы с нуля научитесь работать с Wireshark и «под микроскопом» изучите работу сетевых протоколов. На протяжении курса надо будет выполнить более пятидесяти лабораторных работ в Wireshark.

Оказывается, в дефолтном шаблоне centos 7 нет openssh сервера. Чтобы подключиться по ssh к контейнеру, надо локально зайти в него и выполнить команды:

# yum install openssh-server
# systemctl start sshd
# systemctl enable sshd

После этого штатно подключаетесь к 22 порту по ssh. Сервер работает с дефолтными настройками.

Для справки, тем, кто захочет тоже потестировать. По-умолчанию в proxmox не установлены шаблоны для lxc контейнеров. Их нужно руками установить по потребностям. Список всех доступных шаблонов можно посмотреть командой:

# pveam available

После этого можно установить необходимый lxc шаблон в proxmox.

# pveam download local centos-7-default_20171212_amd64.tar.xz

Обновлять установленные lxc шаблоны следует командой:

# pveam update

На первый взгляд все выглядит красиво и удобно, но надо потестировать на наличие багов, с которыми я сталкивался, когда устанавливал и настраивал lxc в centos 7. Рабочие проекты пока не решаюсь на lxc размещать, хотя хочется. Например, большой веб сервер удобнее бить на lxc и размещать сайты, нежели в отдельные виртуальные машины.

Если у кого-нибудь есть опыт работы с lxc контейнерами именно в proxmox, прошу поделиться информацией.

Онлайн-курс по устройству компьютерных сетей.

На углубленном курсе "Архитектура современных компьютерных сетей" вы с нуля научитесь работать с Wireshark и «под микроскопом» изучите работу сетевых протоколов. На протяжении курса надо будет выполнить более пятидесяти лабораторных работ в Wireshark.

Помогла статья? Подписывайся на telegram канал автора

Анонсы всех статей, плюс много другой полезной и интересной информации, которая не попадает на сайт.

Автор Zerox

Владимир, системный администратор, автор сайта. Люблю настраивать сервера, изучать что-то новое, делиться знаниями, писать интересные и полезные статьи. Открыт к диалогу и сотрудничеству. Если вам интересно узнать обо мне побольше, то можете послушать интервью. Запись на моем канале - https://t.me/srv_admin/425 или на сайте в контактах.

19 комментариев

  1. Просто другого решения, которое можно безболезненно интегрировать в Proxmox, при минимальных финансовых затратах нет, другие решения намного более затратны, Ceph server можно реализовать намного дешевле серьезной СХД.

    • Есть еще такой вариант - https://habr.com/company/stss/blog/279589/
      Сам не пробовал, но по описанию выглядит не сложно. Функционал для общего случая достаточный.

      • Дмитрий

        Можно конечно, но не люблю я iSCSI, это чисто субъективное предубеждение. Какой-то это недосторедж, недосеть, В общем, на вкус и цвет..... :)
        Помимо этого: "У неё, конечно же, схема работы active-active в кластере Nexenta уже платная"
        А Ceph server бесплатен, он, конечно же, еще развивается, документация там та еще, кривизны и багов море, но и возможностей.
        Если нужно сразу и из коробки, то Ваш вариант очень жизнеспособен.

  2. Zerox, по контейнеризации в Proxmox ve 5.*, стоит кластер(3 ноды, сервера - hp dl180se g6, 1 диск ssd - система, 12 дисков в 10-м рейде - ceph), дисковая подсистема ceph, в контейнерах samba(файлопомойка), видеонаблюдение Xeoma, Zabbix server, ERA, Postfix, Bitrx, Bacula, 4 web-сервера, KVM - терминальный сервер XRDP на Debian 9, сервер 1С + PostgreSQL Debian 9, на тестовый сервер windows 2008r2. В качестве клиентов - терминалы на thinstation 5.
    Система работает в режиме 24/7/365 уже 2 года, особых проблем с контейнерами не возникает. Сеть небольшая 145 пользователей + система мониторинга холодильных установок + видеонаблюдение (110 камер) + система контроля внешней среды 32 датчика + телефония.
    В общем, я очень удовлетворен.
    Могу выслать конфиги.

    • Это все поднято на штатном функционале, или пришлось кастомизировать? Я вижу инструкцию - https://pve.proxmox.com/wiki/Ceph_Server Сам не тестировал, нет железа для теста. Хочется понимать, в таком виде это рабочий, надежный и законченный вариант?

      • Дмитрий

        Извините, ответить раньше не мог, 3 проекта веду.
        Инструкция верная, но есть нюансы, кластер с Ceph_Server можно поднимать только на 10Гб, при меньшей пропускной способности сеть ложится при репликации и выходе из строя хотя бы одной ноды, кэш выносится на ssd, тоже влияет на производительность.
        Неплохо о планировании написано здесь https://habr.com/post/313644/

        • C ceph очень много нюансов. Вот недавно читал - https://habr.com/company/croccloudteam/blog/422905/
          Получается, нужно очень хорошо разбираться в нем и тратить значительное время на настройку, поддержку. И всегда есть шанс потерять данные.

          • Дмитрий

            Само собой, Вы же понимаете, все, что связано с хранением и передачей данных, использованием сети, резервированием, репликацией и прочими вкусностями, требуют серьезных познаний в вопросе. С кондачка и на основании инструкций тут не разберешься. Мне было проще, я пришел к ceph серверу и пониманию вопроса с hp систем хранения (MASE, CSE HP-UX), просто сейчас на пенсии и есть время разбираться в этих вопросах.
            Ceph server, при правильной настройке, неубиваемая система, но, малейшая ошибка влечет за собой либо серьезные потери в быстродействии, либо потерю данных, любой вариант чреват...
            Если есть интерес, обращайтесь, что знаю, расскажу, в остальном, сам еще постигаю технологию виртуализации.

    • Был опыт с выходом из строя одного из серверов? Поломки и замена дисков?

      • Дмитрий

        Был опыт с выходом из строя двух серверов и заменой 9-ти дисков, скачок напряжения был очень жесткий, пробило всю защиту. Даже вспомнить страшно, чуть инфаркт не поймал, боялся в консоль зайти и посмотреть.
        Потери информации не произошло.
        По-поводу инструкции, у меня таких крутых дисков нет, обычные sas, сервера подключены через 10Гб карты оптикой, контроллеры внешние, в общем все по-взрослому - избыточность, отказоустойчивость, полное резервирование, бэкап на ленту.

  3. Любопытная инфа, нужно протестировать.

  4. Доброго времени суток.
    Смотрю по моему наставлению таки приобщились к Proxmox. Замечатьельно. Слова мои дошли до Вас.

    P.s. Ссылка на небольшую вики по Proxmox, ZFS, pfsense - https://forum.netgate.com/topic/120102/proxmox-ceph-zfs
    Пользуйте.

    • С proxmox я стал работать ровно в тот момент, когда XenServer 7-й версии перестал поддерживать работу с mdadm. Причина только в этом. XenServer мне нравится больше хотя бы тем, что к нему есть продукты для инкрементного копирования. Для kvm ни одного такого не знаю, приходится hyper-v использовать там, где нужны инкрементные архивы виртуальных машин. Так что не надо строить из себя наставника, которого пришлось забанить в скайпе из-за спама!!!

      • Zerox, подскажите, пожалуйста, что имеете ввиду под прекращением поддержки mdadm XenServer'ом?
        Сам только подумываю над тем, чтобы его попробовать, но, насколько я понял, установку на softraid он никогда и не поддерживал. Или это ещё и ограничение внутри виртуалок?

        • Из коробки он не поддерживает установку на mdadm, но надо понимать, что XenServer сделан на базе Centos. До 7-й версии, это была Centos 5. Можно было спокойно после штатной установки сервера создать mdadm рейд и перенести систему на него.

          На 7-й версии такой трюк уже не сработает. Точнее, перенести систему на mdadm получится, но в случае выхода из строя системного диска, со второго система не загрузится, будет висеть с ошибкой. Я пробовал это несколько раз и всегда одно и то же. Даже статья висит в черновиках на тему установки XenServer на mdadm. Но не стал публиковать, потому что не вижу смысла. Данные так можно защитить, так как реально рейд будет работать, но вот загрузиться гипервизор не сможет с развалившегося софтового рейда.

          • Спасибо за подробный ответ.

            Установку на флешку/отдельный SSD не рекомендуете? Если говорить о XenServer 7.

            • Флешка как вариант для установки чего-либо важного мной вообще не рассматривается. Я не понимаю, таких советов. Она же умереть в любой момент может с вероятностью в разы выше, чем диск. На ssd можно, но надо смотреть что за диск и сколько прослужит.

              Все от задач зависит. Я в продакшн без отказоустойчивости не ставлю ничего. Система даже самая простая должна переживать выход из строя жесткого диска.

      • Добрый.

        Но-но, меньше эмоций. Если поискать тут на сайте, то можно найти наше старое общение. По поводу того ,как я вас уговариваю на использование Proxmox вместо Xen. Если вы не потерли, конечно.

        Теперь насчет "забанить в скайпе из-за спама!!!". Могу прям скрины общения выложить, к-ых точно хватит понять нормальным людям, что никакого спама не было. Иногда я бросал вам ссылки по никсам etc.

        "Не понравилась статья и хочешь научить меня администрировать? Пожалуйста, я люблю учиться. Комментарии в твоем распоряжении. Расскажи, как сделать правильно!"
        Ваше ? Так вы или трусы наденьте, или крестик снимите. Соглашусь, что вы неплохой специалист. Но, похоже, что вы заболели "звездной болезнью". И это плохо.

        P.s. Могу дать свой скайп для общения. Мне нечего стыдиться.

        • Удивительно, какая настойчивость :) Я не хочу спорить, скажу лишь, что ежедневные ссылки в скайп по никсам я не просил вообще. За полезную информацию спасибо.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Нажимая кнопку "Отправить комментарий" Я даю согласие на обработку персональных данных.
Используешь Telegram? Подпишись на канал автора →
This is default text for notification bar