Русский
Русский
English
Статистика
Реклама

Proxmox

Чего ожидать от бета-версии Proxmox Backup Server

15.07.2020 12:10:08 | Автор: admin

10 июля 2020 года австрийская компания Proxmox Server Solutions GmbH представила публичную бета-версию нового решения по резервному копированию.

Мы уже рассказывали, как использовать штатные методы бэкапа в Proxmox VE и выполнять инкрементальный бэкап с помощью стороннего решения Veeam Backup & Replication. Теперь же, с появлением Proxmox Backup Server (PBS) процесс резервного копирования должен стать удобнее и проще.


Распространяется PBS на условиях лицензии GNU AGPL3, разработанной Фондом свободного программного обеспечения (Free Software Foundation). Это позволит без проблем использовать и модифицировать ПО под свои нужды.


Инсталляция PBS практически ничем не отличается от стандартного процесса установки Proxmox VE. Точно так же задаем FQDN, сетевые настройки и другие требуемые данные. После завершения инсталляции можно перезагрузить сервер и зайти в веб-интерфейс, используя ссылку вида:

https://<IP-address or hostname>:8007

Основное предназначение PBS выполнение резервного копирования виртуальных машин, контейнеров и физических хостов. Для выполнения этих операций предоставляется соответствующий RESTful API. Поддерживается три основных типа резервного копирования:

  • vm копирование виртуальной машины;
  • ct копирование контейнера;
  • host копирование хоста (реального или виртуальной машины).

Структурно бэкап виртуальной машины представляет собой набор архивов. Каждый дисковый накопитель и конфигурационный файл виртуальной машины упаковывается в отдельный архив. Такой подход позволяет ускорить процесс частичного восстановления (например, нужно вытащить только отдельную директорию из бэкапа), поскольку отпадает необходимость сканирования архива целиком.

Помимо привычного формата img для хранения объемных данных и образов виртуальных машин, появился формат pxar (Proxmox File Archive Format), предназначенный для хранения файлового архива. Он спроектирован таким образом, чтобы обеспечить высокую производительность для выполнения ресурсоемкого процесса дедупликации данных.

Если посмотреть на типичный набор файлов внутри снапшота, то вместе с файлом .pxar еще можно обнаружить файлы catalog.pcat1 и index.json. Первый хранит список всех файлов внутри бэкапа и предназначен для быстрого поиска нужных данных. Второй же, помимо списка, хранит размер и контрольную сумму каждого файла и предназначен для проверки консистентности.

Управляется сервер традиционно с помощью веб-интерфейса и/или утилит командной строки. Подробные описания команд CLI приведены в соответствующей документации. Веб-интерфейс лаконичен и знаком всем, кто хоть раз использовал Proxmox VE.


В PBS можно настроить задания синхронизации локальных и удаленных хранилищ данных, поддержку ZFS, шифрование AES-256 на стороне клиента и прочие полезные опции. Судя по дорожной карте, скоро появится возможность импорта существующих бэкапов, хоста с Proxmox VE или Proxmox Mail Gateway целиком.

Также с помощью PBS можно организовать бэкап любого хоста на базе Debian, установив клиентскую часть. Добавляем репозитории в /etc/apt/sources.list:

deb http://ftp.debian.org/debian buster main contribdeb http://ftp.debian.org/debian buster-updates main contrib# security updatesdeb http://security.debian.org/debian-security buster/updates main contrib

Обновляем список ПО:

apt-get update

Устанавливаем клиент:

apt-get install proxmox-backup-client

В дальнейшем появится поддержка и других дистрибутивов Linux.

Пощупать бета-версию PBS можно уже сейчас, готовый образ есть на официальном сайте. На форуме Proxmox также появилась соответствующая ветка обсуждений. Исходный код также доступен всем желающим.

Подводим итоги. Первая публичная бета-версия PBS уже сейчас демонстрирует набор весьма полезных возможностей и заслуживает самого пристального внимания. Надеемся, что будущий релиз нас не разочарует.
Подробнее..

Proxmox Backup Server интеграция с Proxmox VE и базовые операции

16.11.2020 18:23:29 | Автор: admin

В середине июле этого года мы рассказывали о том, что была представлена бета-версия Proxmox Backup Server (PBS). В день холостяков, 11.11.2020 в 11:11, Proxmox Server Solutions GmbH опубликовали релиз версии 1.0.1, что не прошло незамеченным. Взглянем детально, как использовать PBS и для чего он подходит.

Основной упор при создании PBS был сделан на совместимость и удобство работы с Proxmox VE (PVE). Разработчики постарались максимально упростить процесс интеграции и сделать так, чтобы все элементы интерфейса и подход к управлению резервным копированием были интуитивно понятны пользователям PVE.

Прежде всего установим Proxmox Backup Server. С момента выхода beta-версии инсталлятор остался точно таким же.

Доступные варианты файловых систем в инсталляторе

Примечательно то, что система может сама собрать ZFS-массив и установиться сразу на него. Также для выбора доступна традиционная для Linux файловая система EXT4.
Вариант с XFS не рекомендуем, поскольку у нее имеется ряд существенных недостатков, таких как невозможность уменьшить размер существующей файловой системы, а также сложность восстановления данных при возникновении сбоев.
После установки и перезагрузки появляется возможность зайти в веб-интерфейс управления PBS. Отметим, что не все действия можно выполнить непосредственно из него, часть придется выполнять через CLI. Вероятно, с развитием продукта ситуация в корне поменяется.

Внешний вид веб-интерфейса управления

Главная страница достаточно информативна. Удобные индикаторы, показывающие в реальном времени нагрузку на сервер, данные по занятому дисковому пространству, наиболее длительные операции за последний месяц, а также запущенные задания резервного копирования.

Главное не забыть обновления


Чтобы потом не было мучительно больно получать ошибки вида HTTP Error 404 Not Found: Path '/fixed_index' not found при создании заданий бэкапа, следует озаботиться обновлением серверов PVE и PBS до актуальных версий. Если у вас есть платная подписка на Enterprise-репозиторий, то просто обновляете дистрибутивы командой:

apt update && apt full-upgrade

Если подписки нет ничего страшного. Пропишем в систему no-subscription репозиторий и обновимся с него.

nano /etc/apt/sources.list.d/pve-enterprise.list

Закомментируем строку платного репозитория символом # и добавим следующую строку.

Для Proxmox Backup Server:

deb http://download.proxmox.com/debian/pbs buster pbs-no-subscription

Для Proxmox Virtual Environment:

deb http://download.proxmox.com/debian/pve buster pve-no-subscription

Выходим Ctrl + X и отвечаем y. Теперь можно обновить пакеты вышеуказанной командой и приступить к интеграции PBS.

Добавляем PBS-сервер в Proxmox VE


Перед тем как добавлять сервер резервного копирования в среду виртуализации Proxmox VE, потребуется выполнить ряд предварительных действий непосредственно на сервере Proxmox Backup Server.

Создание пользователей


Управление пользователями в Proxmox Backup Server

Перед тем как переходить к бэкапам, нужно первым делом сконфигурировать доступы. Советуем сразу зайти в Configuration Access Control и создать пользователей для хранилища. Для демонстрации мы изначально создали пользователя test@pbs, которого станем использовать для подключения. Обратите внимание, что при вводе имени пользователя часть '@pbs' обязательна, в противном случае будет выдаваться ошибка о неверно введенных данных.

Теперь переходим к созданию нужных репозиториев (Datastore в терминологии PBS). Это дает возможность четко распределить бэкапы по необходимым системному администратору критериям, а также распределить права доступа. Для создания нам потребуется директория, расположенная на одном из примонтированных дисков.

Создание Datastore и указание прав доступа


Управление дисками в Proxmox Backup Server

Заходим в раздел Administration Storage / Disks. Выбираем нужный диск и инициализируем его нажатием кнопки Initialize Disk with GPT. Теперь переходим в раздел Directory Create:Directory и создаем директорию для хранения данных. Здесь указываем имя репозитория и абсолютный путь к созданной директории. Если поставить галочку Add as Datastore, то новый репозиторий сразу будет подключен как сущность для хранения данных.


Осталось лишь указать пользователей, которые имеют право использовать этот репозиторий, и их уровень доступа. Для этого кликаем на имя созданного репозитория, переходим в раздел Permissions и нажимаем кнопку Add User Permission. Выбираем нужного пользователя и его роль, затем подтверждаем нажатием Add. На этом предварительная подготовка закончена.

Сохранение отпечатка пальца сервера


По умолчанию PBS поставляется с самоподписанным сертификатом SSL. Чтобы в дальнейшем установить доверенное соединение между клиентом и сервером PBS, следует считать его отпечаток и сохранить для последующего использования.

Заходим в Administration Shell и снимаем отпечаток пальца сервера:

proxmox-backup-manager cert info | grep Fingerprint

Ответом на команду будет строка вида:

Fingerprint (sha256):bb:fb:13:0f:f7:59:df:32:f0:bf:70:38:22:f8:22:93:05:2f:22:80:bc:71:07:cc:8d:1f:6e:f8:0f:da:bf:73

В дальнейшем мы будем использовать этот отпечаток для установки соединения.

Добавление сервера в роли хранилища


Увы, на данный момент нет способа добавить новое хранилище с типом pbs непосредственно из веб-интерфейса Proxmox VE. Так что воспользуемся консолью и проделаем следующие шаги. Добавляем наш Datastore командой:

pvesm add pbs PVE_STORAGE_NAME --server PBS_SERVER_ADDRESS --datastore STORAGE_NAME

Немного разберем, что делает эта команда:

  • pvesm add pbs добавление хранилища (Storage в терминологии PVE);
  • PVE_STORAGE_NAME это имя будет отображаться в веб-интерфейсе PVE и может отличаться от имени хранилища;
  • --server PBS_SERVER_ADDRESS указываем хостнейм или IP-адрес сервера PBS (при необходимости можно указать и другой порт подключения через --port);
  • --datastore STORAGE_NAME тут указываем имя существующего datastore на сервере PBS.

pvesm set PVE_STORAGE_NAME --username test@pbs --password PASSWORD

Тут все также логично. Нам нужно указать реквизиты для подключения к хранилищу. Именно для этого мы предварительно создавали пользователя и распределяли права доступа. Осталось лишь прописать отпечаток пальца сервера для установки доверенного соединения.

pvesm set PVE_STORAGE_NAME --fingerprint bb:fb:13:0f:f7:59:df:32:f0:bf:70:38:22:f8:22:93:05:2f:22:80:bc:71:07:cc:8d:1f:6e:f8:0f:da:bf:73

Так выглядит правильно подключенное хранилище сервера PBS

После выполненных действий мы увидим наше хранилище в списке доступных для хранения данных бэкапов виртуальных машин и контейнеров, а также статистику заполненности. Пора сделать первый бэкап.

Бэкап LXC-контейнера


Тестовый контейнер с Ubuntu

Для теста мы из стандартного шаблона создали и запустили контейнер СТ100 с запущенной внутри операционной системой Ubuntu 16.04. Теперь переходим в раздел Backup, выбираем нужный Storage и нажимаем кнопку Backup Now. Выбираем тип резервного копирования (об этом можно детально прочитать в одной из предыдущих статей) и выполняем резервное копирование.

Успешно выполненный бэкап из web-интерфейса PVE

Зайдя на сервер PBS, мы также увидим, что у нас теперь есть информация о выполненном задании резервного копирования.

Успешно выполненный бэкап из web-интерфейса PBS

Восстановление контейнера


Сделать бэкап это лишь половина успеха. Гораздо важнее из него восстановиться. Удаляем наш LXC-контейнер с Ubuntu и попробуем выполнить процедуру восстановления. Для этого в веб-интерфейсе PVE переходим на наш Storage в раздел Content и выбираем файл бэкапа.

Выбор опций восстановления

Для восстанавливаемого контейнера выбираем место размещения, новый ID (по умолчанию будет стоять тот, который был на момент резервного копирования), а также скоростной лимит чтения данных. Это позволит не перегрузить входящий канал сервера виртуализации. Нажимаем Restore и запускаем наш контейнер.

Контейнер восстановлен и запущен

Контейнер успешно восстановлен. На нашем тестовом стенде процедура бэкапа заняла чуть более 9 секунд и восстановилась за 14. Скорость будет зависеть как от выбранных опций, так и от характеристик обоих серверов.

Бэкап виртуальной машины


Процедура бэкапа полноценной виртуальной машины ничем не отличается от процедуры бэкапа контейнера, разве что времени занимает больше. Мы для теста создали машину с ID 100 и развернули на ней Ubuntu 16.04, после чего выполнили резервное копирование.

Успешно выполненный бэкап виртуальной машины из веб-интерфейса PVE

Со стороны Proxmox Backup Server это выглядело следующим образом:

Успешно выполненный бэкап виртуальной машины из веб-интерфейса PBS

Как и в случае с контейнером, процедура восстановления проста и тривиальна. Указываем, какой бэкап, куда разворачиваем и будем ли включать машину после завершения процедуры.

Бэкап данных с любого Linux-хоста


Помимо виртуальных машин и контейнеров, заявлено, что Proxmox Backup Server позволяет бэкапить любые Linux-хосты целиком. Проверим это на практике. Будет использован тот же PBS-сервер. Для корректного выполнения нам потребуется на бэкапируемом хосте выполнить ряд дополнительных действий по установке агента под названием proxmox-backup-client. В роли тестовой машины у нас будет компьютер с той же самой Ubuntu 16.04.

Утилиты proxmox-backup-client в репозиториях Ubuntu нет, поэтому для начала добавим 3 репозитория. Два из них нужны для разрешения зависимостей утилиты, а еще один содержит нужный нам клиент:

sudo nano /etc/apt/sources.list

В конец добавляем строки:

deb http://ftp.debian.org/debian buster main contribdeb http://ftp.debian.org/debian buster-updates main contribdeb http://download.proxmox.com/debian/pbs buster pbs-no-subscription

Выходим из редактора Ctrl + X и отвечаем y на вопрос о сохранении данных. Вытягиваем и устанавливаем ключики репозиториев:

sudo apt-key adv --recv-keys --keyserver keyserver.ubuntu.com 7BF2812E8A6E88E0

sudo apt-key adv --recv-keys --keyserver keyserver.ubuntu.com 04EE7237B7D453EC

sudo apt-key adv --recv-keys --keyserver keyserver.ubuntu.com DCC9EFBF77E11517

Обновляем список источников приложений:

sudo apt update

Устанавливаем бэкап-клиент:

sudo apt install proxmox-backup-client

Осталось лишь выполнить бэкап. Для примера мы забэкапим корневую директорию нашей тестовой машины:

sudo proxmox-backup-client backup root.pxar:/ --repository PBS_IP_ADDRESS:DATASTORE_NAME

Успешно выполненный бэкап хоста

Восстановление отдельных файлов из бэкапа


Часто бывает так, что восстанавливать данные целиком не требуется, нужно лишь вытащить определенный файл или директорию. Сделать это в два щелчка можно прямо из веб-интерфейса PBS:

Пример скачивания отдельного файла из бэкапа

Заключение


Proxmox Backup Server стал тем кусочком паззла, которого не хватало для полноценной среды виртуализации Enterprise-уровня. Один раз настроив выполнение бэкапов по расписанию, можно будет не переживать, что виртуальные машины или контейнеры пропадут, например, при сбое носителей информации. Восстановить их теперь тривиальная задача, практически не требующая никаких лишних телодвижений. Подняли новый хост, добавили репозиторий и запустили восстановление.

Добавим к этому, что разработчики активно расширяют возможности своего ПО и не бросают пользователей на произвол судьбы, составляя грамотную документацию и помогая в рамках коммьюнити-форума.

Подробнее..

Proxmox VE обновился до версии 6.3

30.11.2020 14:07:23 | Автор: admin

Proxmox Server Solutions GmbH выпустила новый релиз платформы виртуализации Proxmox VE 6.3, сообщается в пресс-релизе компании. Обновление включает в себя Debian Buster 10.6 c ядром Linux версии 5.4 (LTS), актуальные версии приложений для сред виртуализации, таких как QEMU 5.1, LXC 4.0, Ceph 15.2, и файловую систему ZFS версии 0.85.

Ключевые изменения


Прежде всего обновления направлены на удобство интеграции с недавно вышедшей системой резервного копирования Proxmox Backup Server 1.0, обзор которой мы уже делали в одной из предыдущих статей. Интеграция сводится к добавлению Proxmox Backup Server в качестве целевого хранилища для резервных копий Proxmox VE.

Весь трафик между клиентом и сервером может быть зашифрован на стороне клиента и безопасно передан на сервер резервного копирования. Создание и управление ключами достаточно простая процедура, предусматривающая сохранение ключевых файлов как на защищенном файл-сервере или USB-носителе, так и в текстовом виде (можно распечатать или сохранить в парольном менеджере).

Поддержка Ceph Octopus и Ceph Nautilus


В Proxmox 6.3 была реализована поддержка объектных хранилищ Ceph Octopus версии 15.2.6 и Ceph Nautilus версии 14.2.15. Нужную версию пользователь может выбрать на этапе установки. В интерфейс Proxmox VE было добавлено множество специфических для Ceph возможностей управления. В частности, функция мониторинга прогресса восстановления на статус-панели.

Новая версия позволяет отображать и настраивать режим автомасштабирования для групп размещения (Placement Groups) в каждом пуле кластера Ceph. Это дает дополнительную гибкость в управлении кластером и снижает затраты на обслуживание. Ceph Octopus теперь включает в себя возможность multi-site репликации, что важно для обеспечения отказоустойчивости.

Улучшения веб-интерфейса


Веб-интерфейс Proxmox версии 6.3 значительно расширил возможности управления виртуальным дата-центром за счет следующих нововведений:

  • Поддержка внешних серверов метрик. Теперь в качестве внешних сервисов можно добавить отображение данных в InfluxDB или Graphite из веб-интерфейса.
  • Улучшенный редактор порядка загрузки ВМ. Появилась возможность выбора нескольких устройств по типу (дисковые или сетевые) простым перетаскиванием.
  • Поддержка опциональной проверки TLS сертификата для LDAP и Active Directory.
  • Резервное копирование и восстановление. Возможность детального просмотра гостевых машин и дисков, которые будут задействованы в процессе бэкапа.
  • Возможность добавления комментариев. Для каждого типа хранилища теперь можно оставить заметку, что, несомненно, будет полезным для системных администраторов. Также Proxmox Backup Server будет отображать процесс проверки всех выполненных снапшотов.

Прочие улучшения


  • Новые настройки политик хранения бэкапов. Для каждого задания резервного копирования можно тонко настроить, сколько резервных копий хранить и на протяжении какого времени.
  • Улучшен механизм определения износа твердотельных накопителей.
  • Расширение возможностей контейнеров. Теперь поддерживаются системы с количеством ядер до 8192. Официальную поддержку получили контейнеры с пентест-дистрибутивом Kali Linux и Devuan, форком Debian без systemd. Разумеется, все последние версии Ubuntu, Fedora и CentOS также будут корректно работать. Улучшены возможности мониторинга запуска контейнеров и установки для контейнеров отдельных часовых поясов.
  • Управление пользователями и разрешениями. Учтены особенности Active Directory и LDAP, такие как чувствительность логина к регистру, а также возможность использования клиентских сертификатов и ключей.
  • Улучшена обработка реплицированных ВМ при миграции.
  • Файервол. Обновленный API и графический интерфейс для сопоставления типов ICMP.
  • Установка. После успешного завершения инсталляции система автоматически перезагружается.

Скачать Proxmox VE 6.3 можно на официальном сайте Proxmox Server Solutions GmbH.

Подробнее..

Наиболее интересные факты о Ceph по результатам опроса пользователей в 2019 году

23.09.2020 00:14:39 | Автор: admin
TL;DR: наиболее интересные факты о Ceph в таблицах и графиках, полученных из результатов опроса пользователей Ceph в 2019 году.



Какой у вас тип организации?


Ответили на вопрос: 405
Пропустили вопрос: 0
Ответ Ответили %
Коммерческая 257 63.46
Правительственная 19 4.69
Военная 0 0
Образовательная 57 14.07
Некоммерческая 16 3.95
Другая 56 13.82



Почему используете Ceph?


Ответили на вопрос: 405
Пропустили вопрос: 0
Ответ Ответили %
Открытый исходный код 367 90.62
Масштабируемость 326 80.49
Стоимость 247 60.99
Функционал 223 55.06
Отказоустойчивость 309 76.30
Надежность\живучесть\целостность данных 279 68.89
Производительность 125 30.86
Возможность внедрения со смежными технологиями 120 29.63
Другое 13 3.21



Как давно используете Ceph?


Ответили на вопрос: 405
Пропустили вопрос: 0
Ответ Ответили %
Менее года 72 17.78
1-2 года 65 16.05
2-5 лет 203 50.12
Более 5 лет 58 14.32
Не пользуюсь 7 1.73



В каких странах у вас развернут Ceph?


Ответили на вопрос: 405
Пропустили вопрос: 0
Ответ Ответили %
Другая 249 61.48
США 87 21.48
Германия 73 18.02
Китай 30 7.41
Великобритания 29 7.16
Россия 26 6.42
Франция 20 4.94



Как устанавливаете Ceph?


Ответили на вопрос: 344
Пропустили вопрос: 61
Ответ Ответили %
Пакеты от разработчиков 170 49.42
Пакеты из дистрибутивов 131 38.08
Пакеты от производителей 93 27.03
Собираем свои пакеты 26 7.56
Собираем свою версию 12 3.49



N.B. Если всё ещё немного плаваете в вопросах, как устанавливать и разворачивать правильно Ceph c 15 октября запускается курс по Ceph от практиков. Вы изначально получите системные знания по базовым понятиям и терминам, а по окончании курса научитесь полноценно устанавливать, настраивать и управлять Ceph.


Как разворачиваете?


Ответили на вопрос: 312
Пропустили вопрос: 93
Ответ Ответили %
Ansible 134 42.95
ceph-deploy 133 42.63
Другое (тут Proxmox + CLI) 75 24.04



Применяемая операционная система


Ответили на вопрос: 344
Пропустили вопрос: 61
Ответ Ответили %
Ubuntu 131 38.08
Debian 101 29.36
CentOS 125 36.34
RHEL 34 9.88
SLES\OpenSuse 21 6.10
Другая 55 15.99



Какое оборудование применяете?


Ответили на вопрос: 343
Пропустили вопрос: 62
Ответ Ответили %
Supermicro 171 50.00
Dell 131 38.30
HPE 89 26.02
Другое 162 47.23



Какие накопители применяете?


Ответили на вопрос: 342
Пропустили вопрос: 63
Ответ Ответили %
HDD 305 89.18
SSD (SAS, SATA) 261 76.32
NVMe 161 47.08
Другие 21 6.14



Используете отдельную сеть для OSD?


Ответили на вопрос: 342
Пропустили вопрос: 63
Ответ Ответили %
Да 249 72.81
Нет 93 27.19


Какое ПО используете совместно с Ceph?


Ответили на вопрос: 340
Пропустили вопрос: 65
Ответ Ответили %
RBD на Linux серверах 123 36.18
Proxmox 114 33.53
KVM 105 30.88
OpenStack 97 28.53
Kubernetes 88 25.88
Другое 178 52.35



Для чего используете RBD?


Ответили на вопрос: 295
Пропустили вопрос: 110
Ответ Ответили %
Виртуализация 232 78.64
Резервное копирование 133 45.08
Облака 122 41.36
Контейнеры 117 39.66
Архивное хранилище 94 31.86



Для чего используете RGW?


Ответили на вопрос: 163
Пропустили вопрос: 242
Ответ Ответили %
Архивное хранение 105 64.42
Резервное копирование 92 56.44
Big data и аналитика 61 37.42



Для чего используете CephFS?


Ответили на вопрос: 184
Пропустили вопрос: 221
Ответ Ответили %
NAS общего назначения 98 53.26
Резервное копирование 87 47.28
Домашние каталоги 63 34.24
Архивное хранение 54 29.35
Media\Streaming 44 23.91



Какой мониторинг используете?


Ответили на вопрос: 312
Пропустили вопрос: 93
Ответ Ответили %
Ceph Dashboard 170 54.49
Grafana (свои настройки) 135 43.27
Prometheus 126 40.38
Proxmox 91 29.17
Zabbix 60 19.23
Nagios\Icinga 54 17.31



N.B. Если есть необходимость подтянуть, а то и научиться правильному логированию и мониторингу, добро пожаловать на курс Мониторинг и логирование инфраструктуры в Kubernetes. Сейчас можно приобрести курс с существенной скидкой. На курсе узнаете Узнаете, что именно мониторить, какие метрики собирать и как настраивать алерты для оперативного поиска и устранения проблем в кластере. Какие метрики стоит собирать с помощью Prometheus? Как визуализировать мониторинг с помощью Grafana и как грамотно настроить алерты?
Данные для графиков взяты отсюда.
Подробнее..

На землю из облаков переезд Proxmox на компьютер в офисе в РФ

06.12.2020 10:16:13 | Автор: admin
Доброго времени суток, Хабр!
Предлагаю вниманию краткую историю переезда одного сервера виртуализации на базе Proxmox из Hetzner в РФ на сервер виртуализации, расположенный в стойке в офисе компании.
Кратко о причинах выбора Proxmox, его особенностях. Википедия о системе виртуализации Proxmox
Размещено в качестве пособия самому себе и желающим, чтобы не восстанавливать порядок действий и не терять время на тех подводных камнях, о которых, собственно, в статье ниже.

Если кратко, то главное желание отсутствие необходимости администрирования запущенного проекта; отсутствие потребности в обновлениях, только по выходу заплаток безопасности; простота веб-интерфейса. Обусловлено тем, что у компании в штате нет настоящего linux-гуру. Так что, практический стандартный Debian решил все вопросы в пользу Proxmox. Еще один плюс низкая нагрузка ядром виртуализации на процессор(ы) это действительно так.


В связи с ростом курса Евро передаваемая в аренду услуга по предоставлению удаленных рабочих мест на специально арендованном сервере стала дорожать. После расчетов было принято решение о приобретении в физической конфигурации Процессор 8 x AMD Ryzen 5 1400 Quad-Core Processor (1 Сокет), 2 * SSD M.2 1ТБ + райзеры к ним для установки в порт PCI-E, 32 Gb ОЗУ. В облаке же машина CPU(s) 8 x Intel Core(TM) i7 CPU 920 @ 2.67GHz (1 Socket), 2*2ТБ HDD, 47.16 Gb ОЗУ.

Кстати, о еще причине ухода из облака
В этом году выходил из строя один из HDD, благо не рабочий, а для хранения снэпшотов виртуальных машин. Длительная переписка с техподдержкой и срок замены в 2 недели так же повлияли на решение о переносе виртуальных машин.


Настройки хранилища Proxmox из коробки базируются на томах LVM, хотя есть возможность под хранилище образов использовать и папку ОС и другие варианты файловых систем и даже внешние FTP ресурсы (ниже об этом). На данной машине настроен раздел LVM с именем data на диске 1 и прописано хранилище данных proxmox с именем data, на нем хранятся образы дисков виртуальных машин. На второй диск сохраняются бекапы (снэпшоты) виртуальных машин по некоему графику.

В облаке запущено две клиентских ноды на 4 CPU 16GB ОЗУ каждая и типом процессора core2duo. Их виртуальные диски занимают полностью 2ТБ.

Особенности установки Proxmox на дистрибутив Debian (в облаке)
Официальный How-To
Смысл в том, что вместо танцев с бубном вокруг скачивания/подключения образа Proxmox можно воспользоваться скриптом для Debian для его установки. Опуская детали, кратко необходимо c правами root:
1) подключить репозиторий без поддержки
echo "deb http://download.proxmox.com/debian/pve stretch pve-no-subscription" > /etc/apt/sources.list.d/pve-install-repo.listwget http://download.proxmox.com/debian/proxmox-ve-release-5.x.gpg -O /etc/apt/trusted.gpg.d/proxmox-ve-release-5.x.gpgchmod +r /etc/apt/trusted.gpg.d/proxmox-ve-release-5.x.gpg 

2) Обновить данные о доступных пакетах
apt update && apt dist-upgrade

3) Установить Promox и перезагрузить машину
apt remove os-proberapt install proxmox-ve postfix open-iscsireboot

В результате WEB-Интерфейс будет доступен по адресу: ВашIP:8006/


Для переезда анализируем конфигурацию дисков, смотрим размеры полного бекапа, чтобы определить размеры сжатой ноды и место хранения (на новую ноду или на офисное хранилище):
Нода 1: 200Gb+400Gb+200Gb; Размер бекапа 175Gb
Нода 2: 200Gb+500Gb; Размер бекапа 7Gb;

Просим клиента разрешить доступ и определяем, что Нода 2 диск 2 не используется, хотя активен. Следовательно, на исходной машине в облаке необходимо верно настроить гостевую ОС и отключить в веб-интерфейсе Proxmox диск на 500GB. При этом он останется привязан к Ноде 2, но будет отключен, то есть Нода 2 видеть его не будет.

В веб-интерфейсе делается бекап с произведенными изменениями с максимальным сжатием образа диска в GZip. Получаем те же 6Gb в архиве, что собственно и ожидалось.

В офисном пространстве есть хранилище с доступом по FTP, выделен 1Тб для заливки архивных образов виртуальных машин, поэтому решено подключить к папке "/bkps" облачной ОС это хранилище по FTP.

Как подключить в Debian возможность примонтировать FTP-шару к каталогу ОС
Спасибо коллеге, очень полезная статья
Все комманды от root
apt updateapt install curlftpfsmkdir /bkpscurlftpfs ftp://$USER:$PASSWD@$HOST:$PORT/ /bkpscd /bkpsls

Должно быть видно содержание шары FTP. Если не видно, то ищем где проблема.
fusermount -u /bkps 
отключит примонтированный ресурс.


Создание образа Proxmox для установки с флешки помощью Rufus 3.xx
В привычной мне манере, в привычном ПО из под Windows, выбрал образ, диск флешки и несколько раз не глядя нажал да, ок кнопки, которые были выделены по умолчанию. В итоге при установке с флешки машина начинает грузиться, а затем выдает сообщение, что ISO образ не найден.
Внимательно перечитав сообщение Rufus выяснил, что он мне предлагает сделать образ флешки либо с помощью развертки из iso на существующий диск либо развернуть образ с помощью DD (CheckBox с Radio-Button). Так вот, надо создавать образ флешки с помощью DD-тогда iso образ находится, Proxmox устанавливается.


На сервере приемнике настроены диски так: LVM data1 на 1TB-> Хранилище data1; LVM data2 временно на SSD 256Gb -> Хранилище data2. После переноса образа машины на FTP-шару подключаем ее методом, описанным выше к директории /bkps сервера-приемника. В хранилище сервера-приемника подключаем Директорию "/bkps" как хранилище бекапов и пытаемся восстановить в ранее созданную Ноду 2 из Web-интерфейса. Первые проблемы:
1. Оказывается, что настройки Ноды полностью в архиве, поэтому нет необходимости создавать аналогичную на приемнике с помощью copy-paste.
2. Оказывается, что для распаковки образа в системе требуется хранилище data, а у нас же нет такого, поэтому процесс разархивации останавливается с ошибкой.
Попытка отредактировать файл Архив ноды 2.tar.bz2 в MC закончилась неудачей. Пытаюсь на остановленной Ноде 2 из консоли сервера виртуализации с помощью
dd if=/data/vm-101-disk-0 | grep -9cf > /bkps/vm-101-disk-0.img.gz
залить на FTP и развернуть на сервере-приемнике из консоли в созданный на LVM data2 образ с именем "/dev/data2/vm-101-disk0" с помощью команд:
cd /bkpsls | grep vm101gunzip -c vm101-disk-0.img.gz | dd of=/dev/data2/vm101-disk-0

По окончании процесса Нода 2 запустилась корректно, гостевая ОС заработала без дальнейших манипуляций.

С Нодой 1 процесс пошел сложнее, так как с помощью DD не удалось развернуть диск 2 на 400Gb. В чем причина пока мне неизвестна. Так как время поджимало, было принято Соломоново решение: переименовать Хранилище сервера-приемника с data1 на data и развернуть из бекапа Ноду 1. В такой конфигурации процесс пошел отлично, машина запустилась и корректно работает, видит все подключенные диски.

И в заключение кратко о миграции дисков внутри сервера между хранилищами:
1. Останавливаем ноду
2. В настройках конфигурации ноды наводимся на диск, который нужно мигрировать. Странно, что работает только на подключенном диске, а тот, который не attached мигрировать нельзя.
3. Выбираем целевое хранилище и система перемещает его в необходимое Хранилище

Исходя из заключения можно было переехать и так (бонусный способ переезда для самых настойчивых читателей):
1) На сервере-в-облаке запустить миграцию в произвольную директорию дисков Ноды1 и Ноды2;
2) Перенести их копированием на FTP (можно было сжать тем же gzip для уменьшения трафика);
3) Развернуть на FTP сервере файл виртуального диска, если мы передавали сжатый образ;
4) подключить (не стартуя) к необходимой Ноде и нажать кнопку migrate.

Данные манипуляции привели бы к штатной миграции образа виртуального диска в необходимое нам хранилище.

Спасибо за внимание, надеюсь кому-то этот текст окажется полезен.
Подробнее..

Категории

Последние комментарии

  • Имя: Макс
    24.08.2022 | 11:28
    Я разраб в IT компании, работаю на арбитражную команду. Мы работаем с приламы и сайтами, при работе замечаются постоянные баны и лаги. Пацаны посоветовали сервис по анализу исходного кода,https://app Подробнее..
  • Имя: 9055410337
    20.08.2022 | 17:41
    поможем пишите в телеграм Подробнее..
  • Имя: sabbat
    17.08.2022 | 20:42
    Охренеть.. это просто шикарная статья, феноменально круто. Большое спасибо за разбор! Надеюсь как-нибудь с тобой связаться для обсуждений чего-либо) Подробнее..
  • Имя: Мария
    09.08.2022 | 14:44
    Добрый день. Если обладаете такой информацией, то подскажите, пожалуйста, где можно найти много-много материала по Yggdrasil и его уязвимостях для написания диплома? Благодарю. Подробнее..
© 2006-2024, personeltest.ru