Русский
Русский
English
Статистика
Реклама

Vmware

Один день из жизни разработчика VMware

20.02.2021 12:17:51 | Автор: admin

В Москве семь часов вечера. Рабочий день подошел к концу. Коллеги прощаются, закрывают лэптопы и выходят из Zoomа. Город потихоньку засыпает, просыпаются айтишники. 19:00 по Москве это 08:00 в Сан-Франциско. Моя подруга из VMware Маша Шалдыбина делает утренний кофе, логинится и впрочем, обо всем по порядку.

Привет, Хабр. Меня зовут Катя Юдина, я руководитель контент-маркетинга облачного бизнеса МТС. Буквально на днях я взяла небольшое интервью у своей давней подруги, которая сейчас работает в центральном офисе хоум-офисе компании VMware. Под катом вас ждет интересный рассказ о карьере ИТ-специалиста в крупной международной компании. Поговорим о том, как происходит трудоустройство на западе, как устроена работа в VMware и почему мировой карантин почти никак не затронул отдел разработки.

Кстати, у нас отличная новость! Если у вас нет времени на чтение, можно прослушать подкаст-версию статьи по этой ссылке.


Маша, как начался твой путь в ИТ?

Скорее, не как, а когда в раннем детстве. Повлияла семья: оба родителя у меня физики. Так что у нас дома постоянно была разная электроника, даже компьютеры (что на тот момент было большой редкостью). Я достаточно рано освоила Бейсик. Помню, устраивала себе развлечение: писала программы, которые рисовали разные картинки на экране. Уже в школе заинтересовалась онлайн-играми, они как раз тогда только-только пошли. Когда я училась в 10 классе, была очень популярна Ragnark Online. Игрушка меня заинтересовала, но сам геймплей показался неторопливым. Нужно было постоянно фармить и ждать. Так что я развернула свою собственную версию и начала копаться в ее коде, чтобы настроить игру под свои хотелки.

Мы тогда жили в Ташкенте, и ВУЗ я выбрала достаточно быстро. Моя альма-матер Ташкентский Университет Информационных Технологий. Собственно, направление Информационные технологии тогда только открылось. Мы много экспериментировали, делали что-то новое. Преподаватели тоже не отставали, учились вместе с нами. Там же я защитила диссертационную работу, самописную CMS для веб-сайтов.

Ты помнишь свое первое место работы?

Еще бы! Курсе на четвертом моя подруга, Юлия Яковлева, схантила меня поработать в местном интернет-провайдере. К своему удивлению, собеседование я прошла быстро и без проблем, чего нельзя сказать о первых месяцах моей работы. Вышло так, что разработчик, писавший биллинговую систему для компании, через две недели уволился. Я осталась один на один с этой системой. Пришлось очень много выучить в кратчайшие сроки на собственных ошибках, с помощью коллег-администраторов

Еще в ВУЗе я познакомилась с будущим мужем, Олегом. Дальше мы двигались вместе. Стало понятно: если мы хотим добиться большего, понадобится переезжать. Из Ташкента мы отправились в Санкт-Петербург. Там мы продолжили карьеру веб-разработчиков: я в Daxx, а Олег в Murano.

Тем не менее, мы все время находились в поисках лучшего. Через какое-то время муж прошел интервью в Microsoft, и его пригласили на работу в парижский офис. Но судьба распорядилась иначе. У компании, в которой он тогда работал, было много клиентов из США. Когда одному из них стало известно, что муж увольняется, он предложил ему дальше работать напрямую. Почему бы и нет?

Дальше началась маета с визами. После первого интервью в посольстве США на J-визу мы получили отказ. Пришлось штурмовать Америку заново. Наученные горьким опытом и добрым послом, мы подготовили новый пакет документов и подали на визу H1B. Шел 2008-й, год финансового кризиса, даже лотерея тогда не проводилась из-за недобора запросов (если в первый день подачи документов на визу, первого апреля, не набирается 65000 запросов, лотерею не проводят).

Для визы пришлось подготовить действительно много документов с базовым списком можно ознакомиться на сайте посольства. Вдобавок мужу пришлось в деталях расписать, ради какого проекта он едет в Штаты: архитектура веб-сайта, предстоящие задачи и все в таком духе. Все это проверялось в посольстве, так что схитрить вряд ли бы вышло.

Эти же документы мы взяли с собой в Америку. Таможенник на границе проявил компетентность и долго расспрашивал нас про этот сайт. Нам показалось даже, что он украдкой зашел на него во время беседы. Когда очередь дошла до меня, я сказала, что работать не планирую виза не позволяет. Таможенника этот ответ устроил, и мы, наконец, услышали заветное: Welcome to the United States.

Ты сразу пошла на работу в VMware?

Нет (смеется), еще целый год после переезда я не могла устроиться на официальную работу. Нам очень помог работодатель Олега: встретил нас, поселил в своем доме, пока мы не нашли собственное жилье. Помог купить подержанный автомобиль без машины здесь никак.

Самый главный документ США, SSN (номер социального страхования, который присваивается всем гражданам и резидентам США), мы оформили быстро и без проблем. Всю информацию в доступной форме можно найти на сайтах агентств.

Разумеется, сложа руки я не сидела. Постоянно решала задачи на всяких Topcoderах и CodeSprintах, готовилась к интервью. Есть такая хорошая книга Cracking the Coding Interview. В ней описано, как проходить собеседования в крупных ИТ-компаниях, таких как Google или Facebook. Много хороших задач с решениями, рекомендую. Еще я прошла сертификацию на знание языков программирования, создала приложение для iPhone то есть, всеми силами старалась сформировать хорошую базу для устройства на работу.

Cracking the Coding Interview

Когда через год я получила разрешение на работу, началась фаза активных поисков компании мечты. У меня были друзья в Facebook с их помощью удалось получить приглашение на интервью. Здесь важно понимать: в Америке как нигде сильно понятие leverage потенциальный работодатель может заинтересоваться тобой, если ты упомянешь о собеседовании в другой компании того же ранга. Так что интервью в Facebook мне помогло получить приглашение от VMware. Они устроили все очень быстро, предложили даже пропустить телефонный этап и сразу пригласили on-site в офис. Дальше все достаточно стандартно: мне дали несколько задач, после решения я лично поговорила с руководителями и получила оффер. Собственно, так я и попала в VMware.

Расскажи подробнее об интервью. Что требуется, какой бэкграунд нужен кандидатам? Как проходит собеседование в деталях?

Универсально рассказать не получится, тут все зависит от должности, на которую ты подаешь резюме, и от людей, которые будут проводить собеседование. В целом за день может быть четыре-пять разных бесед. Из них три, например, могут вести программисты кандидату предложат решить задачки на программирование (перевернуть связанный список, решить задачу с установкой зависящих друг от друга приложений и т.п.). Чаще всего код пишется на белой доске маркером.

Может быть беседа с HR спрашивают про карьеру, цели, почему именно к нам?. Еще одна интересная разновидность интервью на дизайн. Писать код уже не придется вам зададут некий общий вопрос из серии как бы вы построили подобное приложение? и попросят обосновать свой выбор.

А что после собеседования? Сразу в поле или есть какая-то адаптация?

На самом деле, ввод новых сотрудников в эксплуатацию у нас поставлен очень грамотно, что называется на потоке. Первые пару недель занимают групповые тренинги и лекции. Тебя знакомят с компанией, ее целями, продуктами и историей. Затем прикрепляют к конкретной команде разработчиков и дают менеджера. Задания выдают попроще. В VMware для учета багов и фич используется Pivotal Tracker весьма удобный инструмент, а для команд менее 5 человек он доступен бесплатно. Обычно раз в неделю обсуждается, кто из сотрудников над какой задачей будет работать. Вливание в работу очень мягкое и спокойное. Все хорошо документировано, так что типовых проблем надо срочно что-то делать, но непонятно как не возникает.

Pivotal Tracker

Когда я присоединилась к VMware, мне поручили работу в проекте Cloud Foundry. На тот момент он существовал всего год. В двух словах, Cloud Foundry это система, которая позволяет разработчикам запускать свои приложения в облаке. Лично я работала над компонентами, отвечающими за корректную работу приложений, написанных на Node.js, он тогда как раз был на пике популярности.

Интересный момент как известно, основная деятельность VMware долгие годы была сосредоточена на решении достаточно низкоуровневых задач, близко к железу. А Cloud Foundry это уже software-level, он выбивался из концепции. Поэтому все высокоуровневые проекты решено было объединить в компанию Pivotal. То есть фактически это родная сестра VMware, обе находились в собственности Dell.

Таким образом, я перешла из VMware в Pivotal. Кто-то из моих коллег был против перехода, они остались в VMware, ушли на другие проекты. Дело было в экстремальном agile-подходе к написанию кода, принятом в Pivotal. Парное программирование, SCRUM-собрания. Мне это показалось интересной возможностью научиться чему-то новому, да и с людьми мне общаться легко. Почему бы и нет?

Так началась моя карьера в Pivotal. Спустя семь лет после начала моей работы компанию купила VMware, и я вернулась туда, откуда начинала (смеется).

На самом деле, все оказалось не так страшно. Сессии парного программирования устраиваются ежедневно с 9 утра до 6 часов вечера. Все очень хорошо организовано: на утреннем стендапе мы определяемся с пулом задач и выбираем себе пару. Садимся за один компьютер, работаем над одним и тем же кодом, но при этом у каждого свои монитор, клавиатура и мышь. Практика парного программирования обычно подразумевает, что один из нас драйвер, ведущий, а второй ведомый. Роли распределяются так: драйвер печатает код, фолловер проверяет и смотрит наперед, какие ошибки могут возникнуть в его работе. Идет постоянное обсуждение, как можно улучшить то или иное решение. Это очень помогает решать сложные задачи как известно, одна голова хорошо, а две лучше. Для продуктивности роли внутри пары меняются, обычно в середине дня. Кстати, у нас есть инстаграм, там можно посмотреть, как выглядят наши рабочие будни и праздники.

На самом деле, такой подход дает очень много свободы. Не стоит менеджер над душой, не приходится ждать code review мы самостоятельно вычитываем код друг друга и решаем, как сделать его еще лучше. И сразу сабмиттим в тестовую ветку.

Минусы тоже есть. За неделю накапливается эмоциональная усталость от постоянного общения с другим человеком. Приходится говорить, о чем ты думаешь. Описывать ход своих мыслей. Чтобы сотрудники не выгорали, по пятницам у нас этакий день разработчика никакого парного программирования, все занимаются тем, что сами считают нужным для развития.

А как вы уходили на карантин? Были сложности с построением коммуникации с удаленным партнером по программированию?

Мы начали переход на удаленный режим работы еще до карантина. У нас было много офисов в Нью-Йорке, Лондоне, Мюнхене. Иногда члены одной команды могли жить в разных городах. Да мы и ранее занимались парным программированием удаленно. Например, в моей команде были ребята из Нью-Йорка. Утром мы все встречались в Zoom, обсуждали дела и разделялись на пары. Собственно, на карантине все происходит точно так же. Ведущий включает демонстрацию экрана, ведомый может делать аннотации и по необходимости перехватывает управление. С кодом работаем в основном в Visual Studio Code. При необходимости разворачиваем виртуальную машину и работаем на ней. В этом сценарии для совместной работы в терминале используем Tmux, а код пишем в Vim. Мы привыкли к такому формату, так что карантин не стал для нас шоком.

У моего мужа, например, сложилась обратная ситуация. Он работает в Google, а там любят, чтобы сотрудники приходили на работу. Удаленка им претит. Офисы для них второй дом: и накормят, и стиральная машина имеется, и поспать можно. Хоть живи, главное из дома не работай. Конечно, им перестроиться было на порядок сложнее.

Вообще, если не говорить о причинах карантина, я вижу в нем много плюсов. Не нужно тратить время на дорогу. В любое время я могу взять перерыв и провести время с дочерью. Благодаря парному программированию после шести вечера ты полностью свободен, никаких овертаймов, связь между сотрудниками осуществляется асинхронно. Никто никого не дергает. Я рада, что в свободное время я могу забыть о работе и быть со своей семьей. Моему сыну три, дочке нет еще и года, справляться с ней помогают родители они всегда рядом и с радостью приходят на помощь.

В двух словах: над какими продуктами ты работала/работаешь?

Над Tanzu Application Service. Я участвовала практически во всех командах разработки: различные бэкенд-подсистемы, фронтенд, интерфейс командной строки, непрерывная интеграция и релиз. Примерно раз в год в проекте происходит ротация, и команды перетасовываются. Это не только предотвращает выгорание, так как не приходится годами долбить одно и то же, но и не порождает новых проблем, что тоже важно. Наоборот, свежий взгляд на код помогает делать его лучше и чище.

Маша, спасибо! Надеюсь, следующий раз получится рассказать об одном дне из жизни разработчика Google :)

***

По традиции, ждем ваших комментариев. Поделитесь своим опытом, расскажите, понравился ли вам такой формат статьи, что стоило бы добавить или изменить. До встречи, друзья!

Подробнее..

Интервью с Михаилом Михеевым, автором первой книги на русском по vSphere

20.05.2021 18:13:57 | Автор: admin

Не так давно мы публиковали интервью Один день из жизни разработчика VMware рассказ о карьере ИТ-специалиста в крупной международной компании.

А сейчас у нас возникла идея поискать в своем отечестве, и мы обратили внимание на российский офис VMware. Программистов в нем нет, но есть о чем поговорить с инженерами presales. Встречайте Михаил Михеев!

Если вы стояли у истоков использования виртуализации в России, то вы могли знать о нем как о человеке, который:

  • вел блог по этой узкой тематике и обучающие курсы;

  • участвовал в организации встреч сообщества;

  • написал книгу Администрирование VMware vSphere.

Мы решили поговорить с Михаилом по душам и выведать, как он попал в ИТ, почему решил написать собственную книгу и как стал сотрудником VMware, не будучи программистом. Небольшой спойлер: оказалось, под маской уверенного в себе специалиста скрывается обычный человек. Скромный и с превосходным чувством юмора.

Эксперт с форума

Пути, по которым ведет нас жизнь, не всегда поддаются логическому анализу. Порой даже случайности, которым не придаешь особого значения, становятся решающими. Итак, представьте: Казань. Я учусь на последнем курсе университета. Стажируюсь за еду бесценный опыт у местного интегратора. (Большое спасибо им, кстати: я в первые полгода действительно не умел делать ничего полезного, чтобы просить денег.) И вот передо мной поставили задачу разобраться с неподдавшимся с наскока продуктом, Microsoft SMS 2003. Мне удалось найти один админский форум: там я искал информацию и задавал тонны вопросов в основном как раз по этому продукту. В первое время я только спрашивал, затем осмелел и начал понемногу отвечать менее опытным товарищам. Как потом выяснится, потребность делиться знаниями это неотъемлемая часть моего характера.

Мои ответы заметил форумчанин, очень много помогавший мне на начальных этапах. Можно сказать, я рос на его глазах. Совпало, что в то же самое время к нему обратился один из московских учебных центров: мол, есть ли на примете тренер, который может прочитать курс по MS SMS? И он пришел с этим предложением ко мне.

Если мне не изменяет память, потом он рассказывал: Я был впечатлен тем, что на форуме ты не только искал решения для собственных задач, но и в какой-то момент начал помогать другим. Подумал: раз уж ты и разобраться смог, и продолжаешь погружаться прочитать курс тебе вполне по силам.

Сейчас я понимаю, что учебный центр тогда пошел на авантюру, доверив вести серьезный курс неопытному и неизвестному мне. Видимо, вакансия преподавателя совсем горела :)

(Справедливости ради, они сначала со мной очно познакомились, и обеспечили всей возможной поддержкой, так что это не было стереотипным возьмем с заказчиков много денег, а наймем студента.)

Шел 2005 год. Товарищ с форума оставил мне контакты учебного центра. Представьте мое состояние: где я, студент Миша из Казани, а где это достойное заведение! Заметьте: я раньше не только лекции сам не вел, но даже слушателем подобных вендорских курсов мне бывать не доводилось. Я очень ОЧЕНЬ волновался перед звонком.

Но, как говорится, колени дрожат, а руки делают. Я согласился на этот вызов. Мы договорились о личной встрече, я съездил в Москву на собеседование, а дальше как в тумане. Чтобы я получил представление о том, как все это вообще происходит, учебный центр позволил мне принять участие в качестве слушателя на другом курсе. Затем предоставил trainer guide и назначил дату курса уже со мной в роли тренера.

Как потом признался один из сотрудников, во время курса они подкрадывались к двери, скрестив пальцы, и слушали, что происходит в аудитории.

Мне удалось взять себя в руки и во время курса хранить спокойное и доброжелательное выражение лица, несмотря на внутренний котел эмоций. А нервничал я в первые разы, конечно, очень здорово. Желание не ударить в грязь лицом мотивировало раз за разом приходить все более подготовленным. Кучу времени я потратил на штудирование тренинг-гайда, на каждой странице, на каждом слайде выделяя важную и интересную информацию. В буквальном смысле почти на каждой странице толстенной печатной методички у меня были наклеены канцелярские листочки с заметками.

При этом на мне была подготовка не только по теоретической части, но и по практической. Во время курса на локальных ПК слушателей запускались лабораторные виртуальные машины их тоже настраивал и заливал я сам.

Преподавание легло мне на душу. Люди оставляли хорошие отзывы после курсов. Было видно, что они не просто получили удовольствие, но и реальные навыки заработали. По итогам учебный центр предложил мне постоянную работу. Можно сказать, так и началась моя настоящая карьера, и я переехал в Москву.

(Сейчас душевная рана почти затянулась, поэтому расскажу: моя будущая жена смогла переехать лишь спустя целый год. Все это время я жил в Москве один, без нее. Это было отдельным вызовом.)

Со временем я начал читать и другие курсы по продуктам Microsoft немного, буквально две-три штуки. Учебный центр нашел еще одного нишевого вендора, и некоторые курсы по его продуктам тоже достались мне. Приблизительно в то же время (2006 год) на российский рынок вышла и VMware. Мой учебный центр оперативно заключил с ними соглашение, и я стал первым преподавателем по vSphere (тогда продукт носил немного другое название) на территории РФ. Наверное, достаточно долгое время я был вообще единственным. Как и сейчас, курс назывался Install, Configure, Manage (ICM). Добротный и весьма полный материал для подготовки молодых бойцов в сфере виртуализации.

Личный блог для самообучения

Все, что касается получения новой информации и знаний о виртуализации в целом, это достаточно интересная тема. Чем больше преподавательской деятельности я на себя брал, тем сильнее ощущалась потребность в новых, более глубоких знаниях.

В первое время мне за глаза хватало и тренинг-гайда: я мог прочитать его 10 раз и каждый раз находил что-то новое. Много времени я проводил с лабораторными машинами: разворачивал продукты, воспроизводил лабы, крутил их по-разному. Эта практика тоже оказалась очень полезной, я восполнял пробелы в базовых знаниях. Сейчас уже не вспомню: возможно, я читал какие-то англоязычные книги, но привычки их искать и изучать еще не было. Это пришло немного позже. Может быть, я тогда вообще ничего профильного со стороны не читал (смеется).

Затем я открыл для себя мир блогов. Они стали сами собой появляться по всему интернету: гуглишь что-то специфическое, и бац! выдается чей-то личный блог. Я перешел в фазу жадного поглощения информации и спустя короткое время оказался подписан буквально на десятки тематических блогов. Тогда я столкнулся со следующей проблемой: оказалось, недостаточно просто прочитать информацию, чтобы ее запомнить. Мне нужен был способ пропустить знания сквозь себя, выделить наиболее важные моменты и усвоить их. Так и возник мой собственный блог не из желания продвинуть свою фигуру, а чтобы важная информация откладывалась в голове через написание статей и заметок. Надо сказать, этот шаг тоже дался мне непросто. Все-таки, это публичное поле, новая ответственность :)

Главная страница блога МихаилаГлавная страница блога Михаила

Работа преподавателем, с одной стороны, заставляла меня постоянно получать новые знания, с другой оставляла много свободного времени на учебу. Либо тренинги удавалось закончить немного пораньше, либо выдавались свободные недели, и я мог активно постить в блог. Можно сказать, я тогда занимался на 90% именно переработкой: публиковал короткое резюме-выдержку со ссылкой на оригинальную заметку.

Эта схема себя оправдала: со временем в блог подтянулась моя аудитория. Люди комментировали, задавали вопросы, даже уточняли что-то. Это давало много пищи для изучения. Забавно, что в какой-то момент я столкнулся с тем, что мне задают вопрос, я ищу ответ и нахожу его у себя же в блоге. Получалось, я забывал даже то, о чем сам писал.

Огонь в глазах, дискуссии и споры

Это, скорее, относится к курьезам, запоминающимся моментам. Есть такое устоявшееся выражение огонь в глазах. Применительно к моей практике преподавания это люди интересующиеся, жадные к знаниям. Есть и те, у кого этот огонь потух: к обучению они относятся, скорее, как к формальности.

С опытом я научился различать, к какой категории относятся те или иные мои слушатели. К моему удивлению, огонь далеко не всегда коррелирует с возрастом. Я видел и сонных молодых людей, которым ничего не интересно, и (почти) бабушек-дедушек, которые расспрашивали меня и действительно понимали, о чем идет речь на курсе. Я тогда решил, что дедушкой я хочу стать именно таким. Разумеется, не прямо сейчас, а с годами :)

Но огонь в глазах надо уметь поддерживать. Не давать ему угасать. Меня очень воодушевляли положительные отзывы слушателей. Я искренне верил, что люди оставляли их не только из вежливости, старался добиваться новых успехов.

Так я заметил еще один момент: в каждой группе между инициативными слушателями возникали дискуссии, споры. Я поощрял такие ситуации, даже говорил: Ребята, так получилось, что преподаватель здесь я, но у многих из вас есть опыт, которого нет ни у меня, ни у ваших коллег. Обменивайтесь этим опытом!. Наблюдая со стороны, я обратил внимание на то, что многие споры возникали из-за недопониманий между людьми. Два человека могли говорить об одном и том же, но разными словами. Или для обозначения разных понятий использовали одни и те же термины. Я старался всеми силами минимизировать такие ситуации, выводя спор в конструктивное русло. Дискуссии хороши, если обе стороны понимают друг друга и не пускаются в терминологические споры. Возможно, эта практика помогала людям учиться эффективнее и, в том числе, находила свое отражение в позитивных отзывах.

Мужики в свитерах: правда или вымысел?

Пару слов скажу о контингенте на моих курсах: на 98% процентов это были системные администраторы и инженеры заказчиков или интеграторов. Как правило, характеры у тех, кто представляет заказчиков, отличаются от тех, кто пошел на работу к интеграторам. Это, скорее, курьезное наблюдение, чем строгое. Что касается возраста были все, от молодежи до зрелых специалистов. Люди постарше приходили, конечно, реже.

Отвечая на ваш невысказанный вопрос да, девушки тоже бывали. Меньше, чем юноши, но в ИТ девушек в принципе меньше работает. Тем не менее, стабильный женский процент слушателей был всегда.

Когда в 2008-ом у меня вышла собственная книга и в узких кругах я стал Тем-Самым-Михаилом-С-Книжкой, я даже дежурно шутил: жаль, что в ИТ мало девушек. Приятно, конечно, когда бородатые мужики в свитерах пожимают тебе руку и говорят, какую классную книгу ты написал. Это льстит. Но все равно это бородатые мужики в свитерах

(На всякий случай еще раз поясню: это дежурная шутка!)

В качестве исключения были у меня и необычные слушатели, имевшие к ИТ опосредованное отношение. Изредка у интеграторов возникали ситуации, когда нужно кровь из носа обучить человека, но подходящих кадров под рукой нет. Таким ставленникам было сложно, но они все равно приходили, старались понять тему. Интересно, что большинство из них упорно сидели на курсах и даже пытались делать лабы. Им я максимально подробно объяснял, практически разжевывал материал делал скидку на непрофильный бэкграунд.

Как писалась книга

Книга это мой личный проект. Авантюра. Начав писать, я даже не был уверен, что смогу ее закончить. Но, как видите (улыбается). Сейчас я могу сказать, что книга оказала большое влияние на меня, на мою дальнейшую карьеру. Написать ее это решение, которым я до сих пор горжусь.

Я хорошо запомнил день, с которого все началось. Меня тогда отправили в командировку в Хабаровск как раз таки с курсами по VMware. Время от времени я летал с учебными задачами, в основном по отдаленным от Москвы местам: Казахстан, Баку, Дальний Восток. А длительный перелет это смена часовых поясов и неминуемый джет лаг.

Представьте себе: 4 часа утра. Гостиница, сна ни в одном глазу. Чтобы занять руки, отвечаю на вопрос читателя моего блога. Гуглю, чтобы уточнить информацию и попадаю... правильно, в собственный блог! Выходит, я все это знал, даже писал об этом, но забыл. За пониманием пришло озарение: а что, если я возьму и зафиксирую свои текущие знания в виде книги? Под рукой как раз была программа для составления mind mapов, в ней я начал накидывать приблизительное содержание про что и в каком порядке можно рассказать. Это был первый подход: крупные мазки, обширные планы.

Запала хватило на то, чтобы написать начало, а потом я стал перегорать. Не знаю, продвинулся бы я дальше, если бы не очередное удивительное совпадение. Спустя короткое время я поехал на конференцию VMware. Во время перерыва ко мне подошел представитель нишевого издательства: Вы Михаил Михеев? Очень приятно. Мне посоветовали обратиться к вам по поводу написания книги по теме виртуализации. Звезды сошлись: мысли о книге одновременно пришли в голову и мне, и издателю.

(Только сейчас понял, что забыл спросить у представителя издательства, кто указал ему именно на меня!)

Обязательства перед другим человеком всегда мотивируют. С тех пор каждый день я тратил хотя бы пару часов на работу над книгой: открывал вордовский файлик и писал. Не скажу, что это было просто: требовалось написать и выверить текст, подготовить с помощью лабы набор скриншотов их действительно много, почти на каждой странице... Это заняло уйму времени, первый релиз писался примерно год.

Есть несколько воспоминаний из той поры:

  • Издатель выдал набор правил оформления рукописи (подозреваю, что-то из области ГОСТов). А-ля пункты нумерованного списка должны заканчиваться точкой, а не-нумерованного точкой с запятой, кроме последнего, где тоже нужна точка. Запомнить все эти заморочки оказалось непросто, но в дальнейшем эти знания мне не раз пригодились.

  • Скриншоты это сущий ад. На них уходила если не бльшая, то как минимум львиная доля времени. А в инструкции от издателя было указано: скриншоты сохраняйте в таком-то формате, притом обязательно черно-белые. Я люблю делать все по инструкции, поэтому не противился. И угадайте что? Оказывается, инструкция не учитывала существование электронных версий книг, где, очевидно, не имеет смысла черно-белить картинки. Подозреваю, издатель попросту не подумал об электронной книге (да-да, смешно звучит с высоты 2021 года). А для меня это обернулось повторным созданием почти всех скринов, так как исходники я почему-то не сохранял.

  • Знали бы вы, как я стеснялся выложить анонс у себя в блоге. Очень сильно нервничал :)

Анонс книги в блогеАнонс книги в блоге

Всего было три релиза: первый по 4-ой версии vSphere, второй по 4.1, а последний был посвящён уже 5-ой версии. Бумажные издания оформлены в разных цветах, чтобы читатели не путались.

Здесь важно понимать: моя книга это не художественное произведение. В ней нет героев и злодеев, только факты и темы, которые требуется осветить. По большому счету это учебник со всеми вытекающими из этого последствиями.

В свое время я шутил: мол, я написал самую лучшую книгу по VMware на русском языке. Знаете, почему? Потому что единственную, других нет.

В какой-то момент я увидел свою книгу на торрентах. Примерно в тех же раздачах, что и продукты VMware. Эмоции я испытал сложные. С одной стороны, по моему карману это не ударило. С другой было чуть-чуть обидно из за потери права распоряжаться своим детищем.

Один писатель-фантаст сказал: автор [в случае пиратства] теряет не столько деньги, сколько право распоряжаться плодом своего труда. В правовом поле автор может убрать свое произведение из конкретного магазина или вообще изъять из продажи. С условным торрентом это не так, это обидно. Вне зависимости от того, будешь ты что-то такое делать или нет.

Меня часто спрашивают, пишу ли я новую книгу. Короткий ответ нет. Чаще всего отшучиваюсь: мол, куда, у меня уже двое детей!

А если серьезно я и блог-то уже лет 7 не веду. Когда я был занят преподаванием, и блог, и книга были частью моей работы. В том числе, над собой. Моя текущая работа в VMware оставляет намного меньше времени на такие проекты. Честности ради в какой-то момент я предпринял еще одну попытку обновить книгу, но буквально через неделю понял: нет, не стоит этим заниматься. На предыдущем жизненном этапе у меня была четкая цель: что я хочу сделать, для кого и зачем. А книга ради книги это никому не интересно.

Сам собой назревает дискуссионный вопрос: вот я молодой, горящий специалист, есть ли мне смысл заявить о себе, написав книгу? [не суть важно, но, допустим, по решению VMware].

Выскажу свое мнение.

С одной стороны, сейчас у VMware есть продукты, по которым нет русскоязычных материалов. Так что смысл написать по ним книгу имеется, у специалистов она будет востребована. Но насколько велика будет аудитория? Вопрос открытый. К примеру, первый тираж моей книги составил порядка 5 тысяч экземпляров (за давностью могу ошибаться).

Это много или мало?

C другой стороны, старая добрая книга это уже немного олдскул. Есть блоги, есть YouTube. Есть Telegram-каналы, в конце концов. Может, лучше в эту сторону копнуть?

Готовогоответа у меня нет, но мне кажется, что классическая книга по-прежнему имеет смысл. Все-таки, когда ты говоришь: я Миша, автор [например] Telegram-канала такого-то или я автор такой-то книги, эффект получится разным.

Мой совет прислушайтесь к себе, постарайтесь понять задачу, которую хотите решить. Тогда вам станет ясно, каким способом подходить к решению: с помощью блога, канала или, к примеру, книги.

Как я попал в VMware

Наступил 2011 год. К тому моменту я уже имел около 6 лет преподавательского стажа. Популярность VMware и, соответственно, номенклатура курсов росли. Бывало так, что в течение месяца я мог читать один и тот же курс двум-трем разным группам.

С одной стороны, работа мне нравилась: я получал удовольствие от общения с людьми. Любил объяснять какие-то нетривиальные моменты. А с другой стал замечать, что прихожу на работу в понедельник, а голова включается только к среде. Рутина. Вышел к доске и пошел по накатанной: одни и те же слова, одни и те же шутки. Всем, вроде, нравится, а мне нет.

Потихоньку я начал искать варианты. Честно пошел к руководству учебного центра как раз тогда они активно знакомились с новыми боссами российского офиса VMware. И вышло так, что центр сам порекомендовал меня VMware.

Помнится, сижу я в больнице. Жду приема врача. Раздается звонок с незнакомого номера: оказалось, звонит руководитель пресейлов VMware. Предлагает пообщаться. Я тогда ничего не понял какую именно работу мне предлагают, чем я буду заниматься... Но все равно согласился на встречу.

По итогам собеседования меня приняли. В силу того, что в учебном центре существовал определенный горизонт планирования на пару месяцев вперед, когда набрана группа, составлен график, у слушателей куплены билеты и командировки, сразу же уйти я не мог. В VMware мне пошли навстречу, я доработал необходимый срок, съездил в небольшой отпуск в Питер и 13 февраля вышел на работу.

Моя первая должность называлась пресейл-инженер. Это такой технарь, инженер, хорошо разбирающийся в продукте. Он занимается решением разнообразных вопросов по ходу проработки проектов в крупных организациях.

Любая большая компания в процессе поиска решений для своих задач не может просто взять и купить продукт. В любом случае требуется тестовая инсталляция и обкатка. Необходимо вдумчиво пообщаться с заказчиком и понять, насколько текущие проблемы закрываются предложенным решением. А если не закрываются, как с этим быть. Процесс это долгий, ресурсоемкий: очные встречи (до карантина), звонки, переписка по электронной почте и все в таком духе.

Значимую долю времени занимает обучение на внутренних и внешних курсах. Мир развивается, портфолио развивается, продукты обзаводятся новыми функциями и возможностями. Без обучения никак.

Кстати: еще в задачи пресейл-инженера входит обучение заказчиков и партнеров, а также выступления на различных мероприятиях. Например, в этом году наши пресейлы проводят цикл весенних вебинаров VMware 2021, которые будут идти до июня. На них можно не только послушать экспертов, но и пообщаться с ними в чатах и Q&A. Зарегистрироваться на вебинары можно на сайте, а посмотреть онлайн-мероприятия в записи на нашем YouTube-канале. А для энтузиастов у нас есть канал в Telegram: там мы напоминаем о старте вебинаров и делимся видео.

Спустя несколько лет мне предложили стать тимлидом группы пресейлов. Людей в отделе становилось все больше и больше, и в одиночку решать все менеджерские проблемы нашему начальнику становилось тяжело. Время в сутках ограничено.

Как водится, решение пойти в эту область не было для меня легким. Другие задачи, другая ответственность, потенциально иные отношения с коллегами. В новые обязанности мне удалось войти не спеша, совмещая их с работой пресейла. Более того, я по прежнему прикладываю усилия чтобы оставаться одной ногой на земле. Оторваться всегда легко, а вернуться обратно, как говорят старшие товарищи, невозможно.

Немного об изоляции

У нас переход на полную удаленку прошел очень гладко. Иногда мы с коллегами обмениваемся опытом, у кого и как оборудовано рабочее место.

У части нашего коллектива, например, у меня, есть дома съемный зеленый экран и штатив для камеры. На Хабре были статьи об организации рабочих мест в части аудио- и видеосвязи. Многое я почерпнул именно оттуда. Я даже телесуфлером обзавелся, чтобы в домашних условиях делать записи попрофессиональнее.

Сотрудники VMware в России это такие же люди, как и везде. Нам тоже не хватает встреч лицом к лицу и в коллективе, и при решении вопросов с заказчиками. Удаленка это нормально, это правильно сейчас. Но я все равно жду момента, когда мы сможем хотя бы какой-то процент времени тратить на очные встречи.

Кто востребован в VMware

Наверное, я сейчас скажу не самую очевидную вещь. Нам не особо важно, является ли человек экспертом в продуктах VMware. Этому мы как раз можем научить на месте: и ресурсов, и учебных материалов, и опыта у нас достаточно. Любые ИТ-продукты это не квантовая физика. Получить нормальную или даже отличную экспертизу в них можно. Главное воспринимать это не как проблему, а как задачу. Попробовал получилось. Поотвечал на вопросы и сам не заметил, как освоил тему.

Гораздо сложнее научить человека soft-скиллам и такому навыку, как доведение дел до конца. Работы больше, чем времени в сутках, поэтому всегда есть соблазн что-то здесь поделать, там поковырять, но до конца не доводить. Льется нескончаемый поток задач, и ты думаешь: я буду что-то отдельное выхватывать. Это не очень хорошая история. Если уж взялся делай. Не берешься скажи. Не оставляй повисшим в воздухе.

Один из главных soft-скиллов уметь говорить на языке собеседника. Отличным примером является известный в хаброкругах Milfgard. Помните шикарную статью про недочеты в унаследованной архитектуре живых существ? Огонь же! И в том числе потому, что материал подан на языке читательской аудитории.

Вернемся к теме. При всем вышесказанном айтишный бэкграунд иметь все-таки желательно. Научить продуктам можно, но если вообще никакого бэкграунда нет, это может стать большой проблемой. С другой стороны, нам бывают нужны люди с разным рабочим опытом. Где-то сетевой бэкграунд более важен, где-то менее, например.

Из очевидных требований сотруднику необходим разговорный английский. VMware мировая компания, на ежедневной основе люди работают в интернациональных группах, обращаются за консультацией или помощью к западным коллегам. По-моему, это здорово, когда ты в рамках рабочего общения можешь поговорить с крутыми людьми, представителями родственной профессии, живущими в другой стране или даже части мира. Прикоснуться к их культуре, менталитету. Незабываемый опыт. Отдельная приятность прямой доступ к Product Managerам, которые непосредственно отвечают за развитие продуктов (нередко прямо в Кремниевой долине, с географической точки зрения). Лично мне очень импонирует возможность обратиться к первоисточникам, а то и пригласить их на конф-колл по проекту с заказчиком.

Немного о Хабре

Хабр для меня один из главных источников информации из разных сфер.

Например, актуальны были несколько статей про организацию видеозвонков, вот эту даже в Evernote себе сохранил и по ее заветам приспособил старый телефон в качестве веб-камеры.

Просто просмотр заголовков статей в RSS-клиенте позволяет составить мнение о событиях мира ИТ в целом.

Очень интересны статьи про собеседования с обеих сторон. У меня есть собственный список вопросов для обсуждения на собеседовании, и я периодически вношу в него изменения, если встречаю интересный вопрос, подход или какой-то инструмент для проведения собеседования.

Обязательно читаю статьи Milfgardа. Во-первых, он в принципе хорошо складывает слова в приложения. Во-вторых, он хорошо умеет разговаривать на языке аудитории. Это крутая тема, близкая мне и по работе преподавателем, и по нынешней. Его статью Вы неправильно пишете животных я даже перечитываю для удовольствия иногда, круто написана и оптимизирована под ИТ.

Ну и нельзя не сказать, что именно с его статьи Настольные игры: во что играют в IT-офисах? от далекого 2011 года началось мое нынешнее увлечение настольными играми, в котором я весьма глубоко погряз :)


Друзья! Если вам интересен такой формат, будем рады вашим пожеланиям. Поделитесь в комментариях, интервью с представителями каких сфер и профессий вам бы хотелось видеть на Хабре.

Подробнее..

Перевод АНБ утверждает, что российские хакеры атакуют платформы VMware

08.12.2020 16:17:05 | Автор: admin
В течение 2020 года из-за пандемии коронавируса огромное количество офисных сотрудников были вынуждены работать удаленно. Эта ситуация предсказуемо вызвала интерес со стороны хакеров. Агентство национальной безопасности США заявило, что группы российских провластных хакеров активно атакуют различные платформы для удаленной работы, используя обнаруженную уязвимость VMWare.



Сам вендор на днях выпустил бюллетень по безопасности, где описал все нужные шаги для устранения уязвимости. Тогда же Агентство кибербезопасности и защиты инфраструктуры (CISA) обратилось к администраторам сетей с призывом немедленно исправить уязвимость. Хакер мог использовать уязвимость, чтобы взять систему под контроль, говорится в сообщении. АНБ отдельно просит администраторов сетей Национальной системы безопасности (National Security System), Министерства обороны и всего оборонно-промышленного комплекса страны немедленно устранить уязвимость везде, где это возможно.

Волнуются не везде


Обеспокоенность АНБ разделяют не все. Так, старший специалист по аналитике кибершпионажа в ИБ-компании FireEye Бен Рид говорит, что в этой ситуации важно анализировать не только само сообщение, но и от кого оно исходит. Эта уязвимость удаленного выполненного кода то, чего любая компания старается не допустить. Но иногда такое случается. АНБ уделяет этому такое большое внимание, потому что уязвимость использовали люди из России и, предположительно, против важных для АНБ целей, сказал он.

Все уязвимые продукты VMware относятся к решениям для облачной инфраструктуры и управления учетными данными. Это, например, VMware Cloud Foundation, VMware Workspace One Access и его предшественник VMware Identity Manager. В заявлении самой компании говорится, что после появления проблемы она провела работу по оценке уязвимости и опубликовала обновления и патчи для ее закрытия. Также отмечается, что ситуация оценивается, как важная, то есть на один уровень ниже критической. Причина в том, что хакеры должны иметь доступ к веб-интерфейсу управления, защищенному паролем, прежде чем они смогут воспользоваться уязвимостью. Как только хакер получает доступ, он может использовать уязвимость для манипулирования запросами аутентификации SAML-утверждениями и таким образом проникнуть в сеть организации глубже, чтобы получить доступ к важной информации.

Сама АНБ в своем сообщении говорит, что надежный пароль снижает риск атаки. К счастью, пострадавшие продукты VMWare спроектированы так, чтобы администраторы не использовали пароли по умолчанию, которые было бы легко угадать. Бен Рид из FireEye отмечает, что хотя для использования этой ошибки сначала требуется узнать пароль, это не является непреодолимым препятствием, особенно для российских хакеров, у которых есть большой опыт по взлому учетных записей с помощью многих способов. Например, Password Spraying.

Также он отметил, что за последние несколько лет количество публичных заявлений о выявлении уязвимостей нулевого дня, используемых российскими хакерами, уменьшилось. Обычно, они предпочитают использовать общеизвестные баги.

Реакция компании


Когда много сотрудников работают удаленно, может быть сложно использовать традиционные инструменты сетевого мониторинга для выявления потенциально подозрительного поведения. Однако АНБ сообщает, что такие уязвимости, как ошибка VMware, представляют собой уникальную проблему, потому что вредоносная активность здесь происходит в зашифрованных соединениях с веб-интерфейсом, которые невозможно отличить от аутентификаций сотрудников. АНБ рекомендует администраторам организаций просматривать сетевые логи на предмет exit statements, которые могут указывать на подозрительную деятельность. Регулярно отслеживайте журналы аутентификации на предмет аномальных входов, особенно успешных. Стоит уделить внимание тем из них, которые используют установленные трасты, но которые приходят с необычных адресов или содержат необычные свойства, говорится в сообщении ведомства.

АНБ не конкретизировало свои наблюдения об использовании уязвимости пророссийскими хакерами. Однако, по сообщениям американских СМИ хакеры из России активно атаковали ИТ-инфраструктуру США в течение 2020 года. В частности, их интересовали цели среди правительственных, энергетических и других важных структур. Кроме того, сообщается, что хакеры проявляли активность и во время президентских выборов.



Блог ITGLOBAL.COM Managed IT, частные облака, IaaS, услуги ИБ для бизнеса:



Подробнее..

VMworld 2020 щеночки, кубики и Рене Зеллвегер

16.10.2020 20:06:22 | Автор: admin

Но, разумеется, это далеко не все, чем нам запомнилась самая масштабная ИТ-конференция года. Те, кто следит за нашими социальными сетями, наверняка знают о том, что в течение всего события мы освещали его ключевые моменты и брали интервью у экспертов VMware. Под катом короткий список самых примечательных анонсов VMworld 2020.

Год перемен

Вряд ли хоть один спикер обошел вниманием сложность и необычность уходящего года. Множество докладов было сосредоточено вокруг тем здравоохранения, включая разработку вакцины от COVID-19, безопасности, удаленной работы и обучения. Спикеры подчеркнули, что в насыщенном технологиями современном мире именно ИТ позволяет сохранять накопленный опыт и двигаться вперед.

Крис Вольф, вице-президент VMware, ввел новое значение термина выносливость применительно к бизнес-сообществу: теперь это не просто способность справляться с повышенными нагрузками, но и умение адаптироваться к меняющимся условиям, сохраняя свою целостность. Девиз VMworld 2020 Когда мы вместе, все становится возможным (Together, Anything is Possible).

Так, именно технологии сделали возможным проведение крупнейшего ИТ-мероприятия в режиме онлайн. Более 900 сессий, десятки анонсов, сотни спикеров и даже мини-спектакль с участием голливудской звезды. Разберемся по порядку.

Безопасность и сети

В этом году тема безопасности в сети стала одной из центральных для компании. Даже если не брать в расчет колоссальный прирост трафика в стриминговых сервисах, вызванный пандемией, количество данных, приложений и удаленных сотрудников в крупных организациях все равно превышает все ожидаемые показатели. Подробный разговор о безопасности в нашем подкасте.

VMware SASE Platform

Первый продукт, о котором мы сегодня расскажем, VMware SASE Platform. Задача решения обеспечить сотрудников компаний инструментами сетевой безопасности в любом месте, где бы они ни находились. VMware SASE Platform базируется на VMware SD-WAN массиве, состоящем из более чем 2700 облачных узлов в 130 точках входа.

В основе VMware SASE Platform лежат следующие компоненты и принципы:

  • Непосредственно VMware SD-WAN.

  • Cloud Access Service Broker (CASB), Secure Web Gateway (SWG) и удаленная изоляция браузера.

  • VMware NSX Stateful Layer 7 Firewall.

  • Концепция безопасности Zero Trust во главе угла стоит идентификация конечного пользователя и его устройств при каждом подключении.

  • Edge Network Intelligence машинное обучение используется для предиктивного анализа и обеспечения безопасности как конечных пользователей, так и IoT-устройств.

Наряду с VMware SASE Platform стоит поговорить и о других инновациях компании.

VMware Workspace Security Remote

Это интегрированное решение для обеспечения безопасности, администрирования и удаленной ИТ-поддержки конечных устройств. Включает антивирусную защиту, аудит и устранение неполадок, а также функционал Carbon Black Workload по обнаружению и реагированию на угрозы.

VMware NSX Advanced Threat Prevention

Брандмауэр для защиты east-west трафика в многооблачных средах на базе машинного обучения. Служит для распознавания угроз и сокращения числа ложных срабатываний.

Также было анонсировано несколько новых решений из сетевого портфеля VMware:

  • VMware Container Networking with Antrea продукт для управления сетевым взаимодействием контейнеров в виртуальной среде.

  • NSX-T 3.1 расширение возможностей маршрутизации на базе API, автоматизированное развертывание процессов с помощью Terraform Provider.

  • VMware vRealize Network Insight 6.0 проверка и контроль качества сети на базе модели ее работы.

VMware Carbon Black Cloud Workload

Решение было анонсировано в виде планируемой технологии еще в прошлом году. Его задача обеспечение безопасности виртуальных машин на vSphere.

Кроме того, в VMware vCenter теперь будут встроенные инструменты для визуализации рисков, подобные тем, что уже есть в Carbon Black Cloud.

Также в планах компании представление отдельного модуля Carbon Black Cloud для защиты рабочих нагрузок Kubernetes.

VMware Workspace Security VDI

VMware Workspace ONE Horizon и VMware Carbon Black Cloud интегрированы в единое решение. Решение использует поведенческий анализ для защиты от вымогателей и бесфайловых вредоносов. В VMware vSphere оно доступно через VMware Tools. Больше нет необходимости устанавливать и настраивать агенты безопасности отдельно.

Приоритеты в мультиоблачности

Мультиоблачность один из ключевых векторов VMware. Тем не менее, многим компаниям с трудом дается переход даже в одно облако. Возникают сложности с вопросами безопасности и связности различных разрозненных решений. Закономерно, что бизнес боится появления такого хаоса сразу в нескольких облачных средах. Стратегия VMware в ключе мультиоблака призвана помочь заказчикам решить проблемы унификации средств и процессов.

Azure VMware Solution

Компания уже оставила заметный след в таких крупных публичных облаках, как AWS, Azure, Google Cloud, IBM Cloud и Oracle Cloud.

Azure VMware Solution позволит бизнесу сэкономить за счет гибридного использования Azure, интеграции с Microsoft Office 365 и других нативных сервисов Azure.

VMware Cloud on AWS

Новые возможности появились и в VMware Cloud on AWS. Среди них:

  • VMware Cloud Disaster Recovery.

  • Поддержка VMware Tanzu.

  • VMware Transit Connect.

  • Улучшения в области автоматизации: расширение поддержки vRealize Operations, Cloud Automation, Orchestrator, Log Insight and Network Insight support.

  • Расширенные возможности HCX: vMotion с поддержкой репликации, локальная маршрутизация для мигрированных ВМ, а также группировка миграция.

Project Monterey

Без сомнения, это один из самых интересных проектов VMware из числа анонсированных на VMworld 2020. Фактически, Project Monterey логическое продолжение технологии Project Pacific для инфраструктуры VMware Cloud Foundation, только теперь с акцентом на железо.

Миссия проекта состоит в том, чтобы реорганизовать и переработать архитектуру VCF для интеграции новых аппаратных возможностей и компонентов ПО. Сообщается, что благодаря SmartNIC VCF сможет поддерживать исполнение программ и ОС без гипервизора, то есть на чистом железе. Выделим следующие основные моменты:

  • Увеличение пропускной способности и уменьшение задержек за счет переноса сложных сетевых функций на железный уровень.

  • Унифицированные операции для всех типов ПО, включая bare-metal ОС.

  • Возможность изоляции приложений без уменьшения их производительности благодаря применению модели Zero-trust security.

Если проект вас заинтересовал, рекомендуем прочитать (на английском) эту статью.

VMware vRealize AI

Еще в 2018 году сообществу был представлен Project Magna. На минувшей конференции основной функционал проекта стал доступен в качестве VMware vRealize AI. Решение использует обучение с подкреплением для самонастройки производительности приложений. Оптимизация кэша чтения и записи в средах vSAN с помощью vRealize AI позволила на 50% повысить производительность операций ввода-вывода, включающих чтение и запись.

Inside the Tanzu Portfolio

С серьезными новостями покончено, и мы переходим к развлекательному контенту. В рамках сессии Inside the Tanzu Portfolio была продемонстрирована короткая романтическая комедия, включавшая кадры с актрисой Рене Зеллвегер. Эксперты VMware решили, что игровой формат позволит продемонстрировать новые возможности Tanzu и немного развлечет зрителей, подключившихся к конференции онлайн. Разумеется, воспринимать эту трансляцию на 100% серьезно не стоит это не академический материал, а простое объяснение портфеля решений, составляющих Tanzu.

Говоря кратко, Tanzu представляет собой новый бренд, под капотом которого находится целый комплекс ПО для разработчиков, призванный облегчить их труд на всех этапах жизненного цикла приложения. В частности, продукты Tanzu решают ключевые вопросы построения приложений, менеджмента, обеспечения безопасности, отказоустойчивости и сосредоточены вокруг работы с контейнерами Kubernetes. Рекомендуем трансляцию к просмотру продуктологам и менеджерскому составу компаний.

Virtual Data Therapy PuppyFest

Компания Commvault, золотой партнер компании VMware, продемонстрировала полусерьезный ролик о защите данных под слоганом Dont let your data go to the dogs Не допустите, чтобы ваши данные пошли псу под хвост.

Примечательно, что после трансляции основного видеоматериала был открыт живой чат с представителями команды Puppy Love компании, которая занимается передачей спасенных собак в добрые руки. Практически любой зритель из США мог в ходе сессии не только задать интересующие технические вопросы, но и обзавестись четвероногим другом.

Что же в итоге?

VMworld 2020, без преувеличения, знаковое событие на технологической арене. Если бы оно не состоялось, это значило бы, что у нашего мира начались по-настоящему тяжелые дни. Но, как оптимистично заявляет Пэт Гелсингер, CEO VMware, игра продолжается. Новые трудности подстегивают нас на создание новых способов борьбы с ними. Жизнь идет своим чередом пандемия понемногу отступит, а багаж знаний и опыта, накопленный за месяцы изоляции, останется с нами и послужит надежным подспорьем для создания чего-то нового, крутого и интересного.

А что вам больше всего запомнилось из минувшей конференции? Поделитесь своим мнением в комментариях.


По традиции скажем: оставайтесь на связи и обязательно послушайте выпуски нашего подкаста IaaS без прикрас, посвященные VMworld 2020. На Яндекс Музыке, Anchor и YouTube доступны:

  • VMworld 2020: Генеральная сессия, мультиоблака и стратегия VMware

  • VMworld 2020: Стратегия безопасности, SD-WAN, SASE и будущее сетей

  • VMworld 2020: Kubernetes, Tanzu Portfolio и что нового в vSphere 7

Подробнее..

Организация гибкого рабочего места взгляд с трёх сторон

30.10.2020 14:07:40 | Автор: admin
Главный тренд 2020-го года остаётся неизменным: удалённая работа это всерьёз и надолго. Мы часто общаемся с нашими заказчиками, многие из которых представляют огромные компании всероссийского масштаба. Все они сходятся во мнении, что примерно треть перешедших на удалёнку сотрудников не вернутся в офис даже после того, как пандемия закончится.

Именно поэтому сегодня мы вновь хотим уделить внимание этой теме. Не пандемии, конечно, а удалённой работе. В материале посмотрим на вопрос с трёх сторон:

  • Расскажем об особенностях организации удалённых рабочих мест на базе VMware Workspace ONE и Horizon.
  • Подробно рассмотрим ноутбуки корпоративного класса (это линейка Dell Latitude) 2020-го года в контексте их использования на удалёнке, а также тонкие клиенты Dell Wyse.
  • Поделимся несколькими живыми примерами того, как заказчики организовывали работу в своих компаниях на базе устройств Dell Technologies.



Кстати, почему обо всём этом говорим именно мы? Дело в том, что у Dell Technologies огромный опыт в области организации удалённых рабочих мест для персонала. Мы начали заниматься этим не в начале 2020-го, как многие, а очень давно. Уже много лет внутри нашей компании всё устроено так, что 70% сотрудников каждого локального офиса могут работать в любое время дня и ночи из любой точки земного шара (где есть выход в Интернет), при этом ничего не теряя в плане функциональности.

Мы перепробовали много разных подходов и технологий, но всегда стремились к тому, чтобы решение удовлетворяло трём основным требованиям: удобство для сотрудника, удобство для администрирования, безопасность для организации и её данных. Этот же подход мы советуем и всем нашим заказчикам.



Основа удалёнки: VMware Workspace ONE, Horizon и не только


Итак, на одной чаше весов комфорт сотрудника и гибкость использования, а на другой безопасность доступа. Как всё это учесть и организовать удалённый доступ быстро? Есть два основных подхода.

Первый организация VPN-тоннеля между пользователем и корпоративным порталом. Главное преимущество здесь в том, что это можно сделать максимально оперативно. Но недостатков слишком много. Во-первых, корпоративные данные на системе пользователя не защищены от сбоя ПК, кражи или передачи третьим лицам. Во-вторых, тоннель работает для всех программ в операционной системе пользователя без разбора: если там есть зловредное ПО, то оно имеет шанс уйти внутрь корпоративного ЦОДа и натворить в нём крайне нехороших дел.



Второй вариант организация VDI, то есть инфраструктуры виртуальных рабочих мест. Да, это сложнее: на развёртывание решения нужны ресурсы и квалификация IT-персонала, это дороже, в том числе и в плане лицензий на ПО. Но если инфраструктура уже создана, то с ней любой новый пользователь может за считанные минуты получить доступ к виртуальному десктопу и тут же начать на нём работать. Кроме того, корпоративные данные хранятся только внутри ЦОД компании они защищены от сбоя клиентского устройства, а протоколы доступа можно настроить так, что кража или передача третьим лицам будет невозможна или сильно затруднена. Не будем забывать и о скорости: в рамках ЦОД операции выполняются почти мгновенно. А недостаток, по сути, только один: если у вас решения ещё нет, то собирать его из коробки долго и дорого. Впрочем, есть ведь и вариант с арендой готового облачного VDI.



У себя мы используем стек-решение VMware Workspace ONE, его же рекомендуем и настраиваем нашим заказчикам. Оно включает в себя решение по управлению виртуальными рабочими столами, мобильными устройствами и инфраструктуру рабочих мест. Главный плюс заключается в том, что мы существенно повышаем безопасность доступа за счёт того, что позволяем подключаться к порталу только тем пользователям, устройства которых подключены к решению управления мобильными девайсами. То есть просто с любого ПК или гаджета зайти нельзя предварительно нужно передать его системе под управление. Затем она проверит соответствие требованиям политик безопасности, подгонит всё под них, если нужно, и только после этого откроется доступ к корпоративным ресурсам.

Второе решение, которое мы рекомендуем и активно используем, VMware Horizon, платформа для виртуализации рабочих мест и приложений в гибридном облаке. Именно оно оказалось в последние полгода наиболее востребованным у заказчиков, причём поток запросов до сих пор очень большой.

Суть здесь заключается в том, что мы предоставляем пользователям виртуальные десктопы с помощью технологии мгновенного клонирования Instant Clones. Если вы работали с Horizon раньше, то обращаем внимание на то, что в самой актуальной версии 2006 других типов клонов больше нет.



Технология позволяет создать практически любое количество клонированных рабочих столов за считанные секунды. За эти же секунды на виртуальную машину ставятся приложения в количестве вплоть до пары десятков это уже другая технология, App Volumes. Очень важно, что вес софта влияния на время установки не оказывает: это может быть маленькая утилита на 100 КБ, а может быть что-то очень тяжёлое вроде Photoshop или, скажем, AutoCAD.



Тот, кто разворачивает десктопы, может создавать группы пользователей и для каждой назначать определённый пул приложений. При этом личные настройки каждого пользователя внутри каждой программы сохраняются вне зависимости от того, с какого устройства он подключается к своему рабочему столу. А ещё требовательные к вычислительным ресурсам сотрудники могут удалённо использовать 3D-возможности графических станций, если на сервере, в котором размещены их рабочие столы, есть карты NVIDIA. Карты можно шарить между несколькими клиентами вплоть до нескольких человек на одну.

Далее минутка занимательного нэйминга: многие наверняка заметили, что в последней версии VMware Horizon получил цифровой индекс 2006. Первая пара цифр означает год выпуска версии, вторая пара месяц. Но одними цифрами всё не ограничивается, внутри огромное количество изменений. Например, теперь поддерживаются Azure, Google Cloud и VMware Cloud on Dell EMC. Последнее это on-premise решение с установкой оборудования в ЦОД заказчика и последующим развёртыванием в пару кликов мышкой.

Кроме того, технология мгновенных клонов больше не создаёт ParentVM на хостах, экономя таким образом вычислительные ресурсы и дисковую ёмкость. Есть возможность использовать REST APIs для автоматизации и оркестрации Horizon. Появилось много улучшений, связанных с оптимизацией протокола Blast, оптимизацией приложений для видеоконференций Teams, WebEX, Zoom. Для облачных решений теперь есть Universal Broker это брокер соединений, который позволяет централизованно подключаться пользователю к различным облакам. Для этого юзеру не требуется ничего выбирать брокер сам определяет, куда ему нужно.

На случай, когда VDI заказчику не нужен, есть решение VMware Horizon Apps. Идея в том, что используя полноценный Horizon мы публикуем только терминальные приложения, но не используем рабочие столы и VDI. В итоге получаем вот такой серьёзный набор интересных преимуществ, самое крутое из которых это, конечно, возможность использования терминальных клонов и App Volumes для терминальных ферм и вытекающая из этого огромная экономия времени.



Список поддерживаемых операционных систем и клиентов выглядит вот так. Особенно удобно, что можно работать через любой браузер с поддержкой HTML5.



И, конечно, есть полноценная поддержка очень широкого набора самой разной периферии.



Завершим этот блок небольшим рассказом про ещё одно интересное решение. Помните, мы начинали разговор с VPN-тоннелей? Но в примере он организовывался для всей ОС без ограничений и, как следствие, был небезопасным. Однако из этой ситуации есть выход. В пакет Workspace ONE входит специальное решение Workspace ONE Tunnel. С его помощью можно организовать VPN-тоннель для каждого отдельно взятого приложения внутри поддерживаемых платформ. На данный момент это Windows и MacOS, а также Android и iOS. Работает это так. При публикации RDP-приложения вы просто выбираете, что для него нужно запускать VPN-тоннель до вашего ЦОДа. Он будет зашифрованным, и никакие другие программы с устройства в него попасть не смогут.

Отметим, что актуальность таких решений только растёт. Очевидно, что до нового года накал страстей с удалёнкой не утихнет. Тем, кто зарекомендовал себя как надёжный сотрудник, наверняка разрешат не выходить в офис и потом. Мы сейчас находимся в очень интересном моменте времени, когда подход к работе в корне меняется. Что из этого получится в итоге фантазировать не будем, но если бы нужно было сделать ставку на что-то, то мы бы выбрали концепцию BYOD bring your own device. Очевидно, будущее именно за ней.

Ноутбуки выходят на первый план: особенности линейки Dell Latitude 2020


После разговора о том, как решение для удалённой работы может быть организовано на стороне ЦОД, плавно переходим к другой стороне к пользователю. В продуктовом портфолио Dell Technologies огромное количество самых разных устройств, но в случае с удалёнкой на первый план выходят ноутбуки корпоративного класса Latitude.

Почему мы говорим именно о корпоративном классе? Потому что эти ПК достаточно сильно отличаются от консьюмерских. У них более длинный срок сервисной поддержки, а на складах АСЦ всегда есть увеличенный запас комплектующих для актуальных моделей. У таких машин максимальная конфигурабельность, и мы говорим не только о традиционном железе, а о возможности заказать модели с LTE, NFC, считывателем смарт-карт и так далее.

У принадлежности техники к корпоративному классу есть и весомые программные преимущества. В случае с Latitude это специальный софт, который существенно упрощает администрирование компьютерного парка организации. Первое, что приходит на ум, это Dell Support Assist. Программа зачастую предустановлена на все Latitude и работает не только как инструмент для обновления драйверов. Это скорее средство помощи IT-департаменту в контроле, мониторинге и сбору статистики по всему парку ПК организации. Приложение, кстати, настраиваемое: пользователю можно оставить только функцию очистки файлов, а настройки сети и обновления передать в руки более компетентных сотрудников из технического отдела.



Ещё есть такая удобная штука, как Dell TechDirect, в которой сотрудники IT-департамента могут собирать статистику по сданным в сервис устройствам и отправлять прямые запросы на сервисную поддержку. Кстати, именно здесь настраивается SupportAssist на компьютерах пользователей.



В случае с Dell Technologies ноутбуки корпоративного класса это ещё и ряд интересных для многих заказчиков конфигурационных сервисов. Например, мы можем включить отображение service tag устройства это уникальный неизменяемый номер, который нужен для многих операций. Или можем организовать заказчику заливку нужного ему образа операционной системы на приобретаемые машины: сначала мы тестируем его, а затем на заводе он сразу устанавливается на всю партию. Есть вариант использования Microsoft AutoPilot: передаём исходные данные на завод, формируем партию устройств, а сотрудники IT-департамента эти ноутбуки даже не включают просто передают пользователям, и у них уже при первом включении всё автоматически конфигурируется само ровно так, как просил заказчик. Это только несколько опций, в реальности их больше и всё обсуждаемо.



И ещё пара слов о софте прежде, чем мы перейдём непосредственно к устройствам. Также у нас есть Dell Client Command Suite набор из восьми приложений, позволяющих администрировать и настраивать ПК, в том числе удалённо, если устройство поддерживает Intel vPro. Остановимся на ключевых моментах:

  • Command / Deploy это ресурсы, которые доступны в том числе на официальном сайте компании. Можно скачивать, например, драйвера на определенные классифицированные устройства, создавать пакеты и задавать расписание обновлений.
  • Command / Configure это средство управления настройками BIOS устройства. Обычно у конкурентов для этого используется командная строка, а у нас всё вписано в удобный и красивый графический интерфейс. В нём можно создавать настройки и загружать на требуемые устройства. Наши крупные заказчики активно пользуются этой возможностью: тестируют варианты, формируют эталон и раздают всему парку компьютеров.
  • Command / Update локальное предустановленное приложение, которое можно администрировать удалённо. Предназначено для обновления драйверов устройства.
  • Command / Intel vPro средство, с помощью которого можно удалённо подключиться к ПК по защищённому каналу, если он поддерживает технологию Intel vPro. Причём не важно включен компьютер при этом или нет, главное, чтобы он был в сети. Это очень удобно для удалённого подключения 1 to 1, изменения настроек BIOS и загрузки обновлённых настроек в устройство в нерабочее время.
  • Command / PowerManager инструмент, который позволяет настраивать режимы эксплуатации батареи ноутбука. Тихий режим, режим повышенной производительности всё это действительно работает. Ну а администраторы через этот тул видят оставшийся срок жизни АКБ и уведомления о возможных проблемах с электропитанием.



И здесь мы наконец-то переходим непосредственно к ноутбукам Latitude. Многие наверняка помнят, что обычно у нас было три серии внутри линейки. 3000 экономичные решения, 5000 универсальные рабочие лошадки, 7000 топовые корпоративные ноутбуки. В 2020-м году добавилась 9000 series самые премиальные ноутбуки для топ-менеджмента, вобравшие в себя все передовые технологии.

максимально инновационные ноутбуки для тех случаев, где цена не имеет решающего значения, а акцент сделан на компактность и качество экранов.



В 3000-й серии, как нам кажется, наиболее интересны модели Latitude 3410 и 3510 у них одни из самых ёмких аккумуляторов в классе.



В 5000-й серии, полагаем, больше всего внимания заказчики будут обращать на Latitude 5411 и 5511, поскольку в них используются высокопроизводительные ноутбучные чипы Intel Core 10-го поколения серии H.



Впрочем, с чипами U-серии нам тоже есть что предложить.



В 7000-й серии две основных модели, и обе выпускаются как в традиционном форм-факторе, так и в форм-факторе 2 в 1



Кстати, в связи с ростом популярности стандарта USB Type-C мы активно совершенствуем линейку док-станций, и на сегодняшний день она выглядит вот так:



Особо отметим модель WD19, потому что она модульная, и это даёт ряд интересных преимуществ.



Ну а в 9000-й серии наша главная звезда это Latitude 9510, который на момент выхода этого материала является самым компактным ноутбуком в своём классе.



Вот так он выглядит, когда стоит рядом с главными конкурентами. Особо подчеркнём, что Latutude 9510 с 15-дюймовым дисплеем, а гаджеты, имена которых мы называть не будем, расположенные справа и слева от него, пятнадцатидюймовые.



Вот такой короткий обзор всей линейки. Если какие-то из них вас сильно заинтересовали, то можно написать в комментариях при достаточном интересе сделаем подробный материал про них со множеством фотографий, как это у нас в блоге обычно и бывает.

Dell Wyse: тонкий подход к серьёзным задачам


Многие наши заказчики, делая ставку на VDI, осознанно выбирают тонкие клиенты. Выбор тонких клиентов для работы с инфраструктурой VDI дает дополнительные преимущества: безопасность конечных устройств, управляемость и значительное снижение затрат на поддержку пользователей (в особенности, если эти пользователи работают удаленно). Экономика VDI проектов с годами меняется в лучшую сторону с эволюцией серверных платформ и гиперконвергентных инфраструктур стоимость рабочего места VDI с тонким клиентов все ближе подходит к стоимости ПК. А с учетом длительного жизненного цикла тонких клиентов и других преимуществ, о которых мы поговорим ниже, появляется все больше причин для перехода на VDI и тонкие клиенты. И в этой области Dell Technologies занимает лидирующие позиции как в России, так и в мире. Опыта и информации у нас много, поэтому мы точно знаем, в каких индустриях этот подход востребован больше всего.

Львиная доля внедрений это банковский сектор и финансы. Дело в том, что использование тонких клиентов с технологиями, которые предлагает Dell, позволяет ориентированному на филиальную структуру бизнесу открывать новые отделения, не создавая в них серверной инфраструктуры. Это не только позволяет открывать новые точки быстро и избавляет от необходимости постоянного присутствия технического специалиста в каждом отделении, но и позволяет быстро восстанавливаться после поломки. Тонкий клиент сломался или с ним что-то не так? Просто берём другой такой же подменный, ставим на место прошлого, и спокойно продолжаем работу. Немаловажным моментом конкретно в случае с решениями Dell Technologies является то, что наши тонкие клиенты поддерживают большое количество специализированной периферии пин-пады, сканеры, веб-камеры и так далее.

В ресторанном бизнесе тонкие клиенты тоже встречаются из-за того, что их использование минимизирует простой сотрудников в тех местах, где всё всегда должно быть безупречно. Например, на кассе.

В розничной сфере тонкие клиенты тоже весьма востребованы, но требования к конфиденциальности не такие серьёзные как у банков, но тоже ярко выражена филиальная структура: только тут уже не отделения, а торговые точки. И держать в каждой отдельного системного администратора и специальное оборудование очень накладно. Плюс тут тоже есть особая периферия, которая должна поддерживаться: всё те же пин-пады, принтеры, кассовые аппараты, сканеры штрих-кодов.

В машиностроении и строительстве критически важна безопасность данных. Какая-либо утечка автоматически может лишить проектную организацию уже контракта, а это огромная потеря во времени, деньгах, затраченных ресурсах и репутации. И здесь есть как офисные работники, так и требовательные пользователи с повышенными требованиями к вычислительной мощности, в том числе, для работы с 3D моделями. Это же справедливо и для нефтегазовой индустрии. Тут есть отдельный интересный момент, связанный с требованиям к устройствам, работающим в сейсмоопасных зонах: сервер там поставить нельзя, обычный ПК имеет неиллюзорные шансы быть повреждённым. А тонкий клиент может проработать дольше, при этом VDI-сервер устанавливается где-то далеко в месте без частых землетрясений.

Тонкие клиенты актуальны и в других отраслях: телекоммуникации, здравоохранение, госсектор и т.д.



Линейка тонких клиентов Dell Technologies называется Wyse. Есть совсем крошечные модели, есть варианты покрупнее, а есть решения в форм-факторе ноутбука и монобока. Но что отличает тонкий клиент от обычного ПК? Не столько железо, сколько программная составляющая. В нашем случае это уникальная операционная система Wyse ThinOS, и вот её основные преимущества.

  • Безопасность: нельзя поставить стороннее ПО, порты закрыты, внешние накопители отправляются только в сессию VDI, нет открытого API, монолитная прошивка, нет браузера, внутренний накопитель всегда зашифрован.
  • Практически нулевой клиент: размер прошивки 30-100 МБ. Старт за 10 секунд, обновление за 30 секунд, соединение с VDI за 10 секунд.
  • Оптимизация: аппаратное декодирование трафика протоколов, MMR, оптимизация Skype4Business и Cisco Jabber в VDI. Готовится поддержка Teams и Zoom.
  • Сертификация Citrix, Microsoft, VMware. Набор протоколов: RDP/RemoteFX 10, HDX 14, Blast Extreme, PCoIP.
  • Минимальные усилия при развёртывании: на рабочих местах нет настроек, ТК всегда имеет обновление нет простоев, управления не требует посещения рабочих мест.
  • Простота и масштабируемость: ОС настолько маленькая, что достаточно одного сервера управления на ~150 000 устройств.
  • Кстати, о скорости обновления. У нас в практике был реальный случай, когда более тысячи сотрудников заказчика пришли в офисы и не смогли начать работать из-за проблем с прошивками в тонких клиентах Wyse, которые стояли у них на столах. Вопрос благополучно решился за 7 минут после отката к прошлой версии прошивки.



Разумеется, тонкие клиенты не были бы такими удобными без хорошей системы управления. В нашем случае это Wyse Management Suite, которую вполне можно использовать и в стандартной бесплатной версии, которая распространяется на 10 000 устройств в рамках одной организации. Будем честны: заказчиков, закупавших у нас за один раз большее количество тонких клиентов было не так уж и много. Есть и платная Pro-версия, которая позволяет использовать как собственные серверы, так и разместить систему управления в облаке плюс получить ряд дополнительных приятных преимуществ.



Также есть интересное решение Wyse Converter for PC, которое позволяет превратить любой ПК в тонкий клиент. О нём мы подробно рассказывали в одной из прошлых статей.



Опыт применения: реальные проекты наших заказчиков


Клиентских устройств для корпоративного использования в портфолио Dell Technologies очень много. Ориентироваться в них наша, а не ваша задача. Поэтому мы всегда стараемся получить от заказчика максимально подробную вводную информацию. Затем мы помогаем подбирать наиболее подходящие комплекты техники и решений под конкретный запрос. Но есть и ряд готовых рекомендованных наборов.

Например, в качестве базового варианта мобильного рабочего места офисного сотрудника можно использовать:


Именно с этого мы начинали обсуждение с одним крупным заказчиком из государственного сектора, который хотел обновить парк ПК и мониторов для всех вертикалей менеджмента. Но поскольку главным требованием была экономия рабочего места, а также уменьшенный вес и компактность, то заказ разместили на Latitude 7490 и мониторы P2419 из-за возможности использовать их в паре, заражая ПК от монитора по Type-C.

Для более требовательных к вычислительным ресурсам сотрудников другой заказчик крупный банк искал мощные портативные машины с низким уровнем нагрева. После тестирования инженерных сэмплов был тендер, по итогам которого выбрали именно наше решение Latitude 5501 с док-станцией WD19.

Также у нас был очень интересный запрос на организацию мобильного рабочего места трейдера. По каким-то причинам клиенту требовалось иногда перемещать внутри офиса 16 рабочих мест с огромными мониторами. В итоге удобнее всего оказалось построить решение на базе именно наших мониторов и креплений, и это добавило в портфолио ещё один рекомендованный комплект, который мы так и назвали рабочее место трейдера:


Некогда популярные решения для переговорных комнат, мы надеемся, тоже вскоре всё же вернутся в нашу жизнь. Их мы сейчас рекомендуем строить на базе 86-дюймового монитора C8621QT, связанного с OptiPlex 7080 Micro в версии, поддерживающей Intel vPro и Unite. Всё это выглядит очень компактно и аккуратно, плюс удобно в администрировании.

Вот так может выглядеть рабочее место сотрудника бэк-офиса:


Ещё про один интересный проект, реализованный в Британской Высшей Школе Дизайна, мы писали на Хабре некоторое время назад. Там на базе Precision 5820 и 27-дюймовых мониторов UltraSharp работает VR-лаборатория. Таке у нас был масштабный проект с ГК ПИК там задача была именно в организации удалённой работы проектного бюро компании через VDI. В основу решения легли тонкие клиенты Wyse 3040 и 5070, а также VMware Horizon, развернутая на серверах Dell EMC PowerEdge R740 с графическими ускорителями NVIDIA Tesla. Это позволило заказчику очень существенно сэкономить на офисном пространстве, а сотрудникам дало большой выигрыш во времени, которое им теперь не нужно тратить на дорогу в офис.



Примечательно, что в вакансиях для новых проектировщиков бюро после этого появилось вот такое требование: наличие стабильного интернет-канала со скоростью не менее 20 Мбит/c. Все они трудятся полностью дистанционно, а ПО Autodesk Revit и AutoCAD, в которых они непосредственно работают, крутится только на сервере. В общей сложности это 2000 удалённых сотрудников.


И это всё, что мы хотели рассказать вам сегодня. Спасибо, что дочитали до конца. Если остались какие-то вопросы, то оставляйте их в комментариях, постараемся получить ответы у профильных специалистов в российском офисе. Ну а если вдруг вы по итогам прочтения решили обсудить потенциальный заказ устройств или развёртывание какого-либо упомянутого решения в свой компании, то ждём вас в личных сообщениях дадим контакты людей, которые помогут всё организовать.
Подробнее..

Перевод Как импортировать существующие виртуальные машины VMWare в Terraform

11.12.2020 18:19:05 | Автор: admin

Будущих учащихся на курсе "Infrastructure as a code in Ansible", а также всех желающих приглашаем принять участие в открытом вебинаре на тему "Управление Kubernetes при помощи Kubespray".


И по устоявшейся традиции делимся с вами переводом полезной статьи.


Terraform это потрясающее средство для автоматизации управления инфраструктурой. Все параметры вашей инфраструктуры можно записать в виде кода, который будет обслуживаться соответствующей группой. Это означает, что ваша инфраструктура будет прозрачной и не будет подвержена неожиданным изменениям.

Первоначально опубликовано в блоге techbeatly; там же доступны другие статьи по теме.

Читайте также:Программа обучения и советы по прохождению экзамена HashiCorp Certified Terraform Associate.

Возможно, вы уже знаете, что в Terraform можно импортировать существующую инфраструктуру, после чего дальнейшее управление этой инфраструктурой осуществляется уже в Terraform. В целом это вполне обыкновенный процесс для облачной инфраструктуры, однако я заметил, что некоторые инженеры сталкиваются с трудностями при импорте имеющихся у них виртуальных машин VMWare. Поэтому я написал это краткое руководство о том, как импортировать существующие виртуальные машины VMWare в Terraform. Продемонстрировано это будет на примере импорта одной виртуальной машины.

Шаг 1. Получение сведений о существующей виртуальной машине из VMWare vCenter

Выполните вход в VMWare vCenter и найдите данные виртуальной машины. Вам потребуются такие данные, какцентр обработки данных,папка виртуальной машины,имя виртуальной машины,ЦП,память,диски т.д.

Если у вашей виртуальной машины есть особые параметры конфигурации, например дополнительные диски, дополнительные сетевые адаптеры или нестандартные аппаратные характеристики, обязательно укажите их в коде Terraform.

Шаг 2. Создание кода Terraform для существующей виртуальной машины

В Terraform нет возможности импортировать существующую инфраструктуру в код Terraform. Вместо этого приходится писать конфигурацию Terraform, соответствующую имеющейся инфраструктуре, и импортировать ее.

Ниже приведен код Terraform, который я написал для виртуальной машины со следующим путем и именем:/DC1/vm/DEV/DEV2.

См. содержимое файлаvmware-import-vm.tf.

provider "vsphere" {  user           = var.vsphere_user  password       = var.vsphere_password  vsphere_server = var.vsphere_server  # If you have a self-signed cert  allow_unverified_ssl = true}data "vsphere_datacenter" "dc" {  name = "DC1"}data "vsphere_datastore" "datastore" {  name          = "datastore1"  datacenter_id = data.vsphere_datacenter.dc.id}data "vsphere_compute_cluster" "cluster" {  name          = "AZ1"  datacenter_id = data.vsphere_datacenter.dc.id}data "vsphere_network" "network" {  name          = "VM Network"  datacenter_id = data.vsphere_datacenter.dc.id}resource "vsphere_virtual_machine" "vm" {  name             = "DEV2"  resource_pool_id = data.vsphere_compute_cluster.cluster.resource_pool_id  datastore_id     = data.vsphere_datastore.datastore.id  wait_for_guest_net_timeout = 0  wait_for_guest_ip_timeout  = 0  # only if you DO NOT want to wait for an IP address  wait_for_guest_net_routable = false  num_cpus = 1  memory   = 2048  #guest_id = "other3xLinux64Guest"  network_interface {    network_id = data.vsphere_network.network.id  }    disk {    label            = "disk0"    size             = 20    thin_provisioned = false  }}

Я также объявил несколько переменных для передачи учетных данных VMWare.

$ cat variables.tf variable "vsphereuser" {}variable "vspherepassword" {}

В этом примере я передаю свои учетные данные VMWare vCenter с помощью переменных среды (см. пример ниже).

$ export TFVARvsphereuser='Administrator@lab.local'$ export TFVARvspherepassword='mypassword'

Шаг 3. Инициализация кода Terraform

Когда код будет готов, его нужно будет инициализировать с помощью командыterraform init, которая проверит среду и установит необходимые плагины и провайдеры.

$ terraform initInitializing the backend...Initializing provider plugins...- Finding latest version of hashicorp/vsphere...- Installing hashicorp/vsphere v1.24.2...- Installed hashicorp/vsphere v1.24.2 (signed by HashiCorp)The following providers do not have any version constraints in configuration,so the latest version was installed.To prevent automatic upgrades to new major versions that may contain breakingchanges, we recommend adding version constraints in a required_providers blockin your configuration, with the constraint strings suggested below.* hashicorp/vsphere: version = "~> 1.24.2"Terraform has been successfully initialized!You may now begin working with Terraform. Try running "terraform plan" to seeany changes that are required for your infrastructure. All Terraform commandsshould now work.If you ever set or change modules or backend configuration for Terraform,rerun this command to reinitialize your working directory. If you forget, othercommands will detect it and remind you to do so if necessary.

Проверим текущее состояние, управляемое Terraform:

$ terraform showNo state.

Да, мы пока еще не выполнили запуск.

Примечание. Что произойдет, если я выполню командуterraform apply? Все просто, система попытается выделить ресурсы для виртуальной машины, но эта попытка завершится ошибкой. Система сообщит, что виртуальная машина с именемDEV2уже существует. Как бы то ни было, в данном примере это не наш случай.

Шаг 4. Импорт виртуальной машины в состояние Terraform

Итак, теперь все готово к импорту имеющейся у нас виртуальной машины в состояние Terraform.

$ terraform import vsphere_virtual_machine.vm /DC1/vm/DEV/DEV2vsphere_virtual_machine.vm: Importing from ID "/DC1/vm/DEV/DEV2"...vsphere_virtual_machine.vm: Import prepared!  Prepared vsphere_virtual_machine for importvsphere_virtual_machine.vm: Refreshing state... [id=4219040f-5842-ba52-b7e4-cd9064c1f36c]Import successful!The resources that were imported are shown above. These resources are now inyour Terraform state and will henceforth be managed by Terraform.

Готово, теперь наша виртуальная машина часть состояния Terraform, и ей можно управлять изTerraform, выполняя такие операции, как добавление нового интерфейса, нового жесткого диска и т.д.

Это можно проверить, выполнив командуterraform showеще раз.

$ terraform show# vsphere_virtual_machine.vm:resource "vsphere_virtual_machine" "vm" {    boot_delay                              = 0    boot_retry_delay                        = 10000    boot_retry_enabled                      = false    change_version                          = "2020-11-03T08:33:13.180937Z"    cpu_hot_add_enabled                     = false    cpu_hot_remove_enabled                  = false    cpu_limit                               = -1    cpu_performance_counters_enabled        = false    cpu_reservation                         = 0    cpu_share_count                         = 1000    cpu_share_level                         = "normal"    custom_attributes                       = {}    datastore_id                            = "datastore-13"    efi_secure_boot_enabled                 = false    enable_disk_uuid                        = false    enable_logging                          = true    ept_rvi_mode                            = "automatic"    extra_config                            = {}    firmware                                = "bios"    folder                                  = "DEV"    force_power_off                         = true    guest_id                                = "rhel7_64Guest"    guest_ip_addresses                      = []    hardware_version                        = 14    host_system_id                          = "host-12"    hv_mode                                 = "hvAuto"    id                                      = "4219040f-5842-ba52-b7e4-cd9064c1f36c"    ide_controller_count                    = 2    imported                                = true    latency_sensitivity                     = "normal"    memory                                  = 2048    memory_hot_add_enabled                  = false    memory_limit                            = -1    memory_reservation                      = 0    memory_share_count                      = 20480    memory_share_level                      = "normal"    migrate_wait_timeout                    = 30    moid                                    = "vm-47"    name                                    = "DEV2"    nested_hv_enabled                       = false    num_cores_per_socket                    = 1    num_cpus                                = 1    pci_device_id                           = []    poweron_timeout                         = 300    reboot_required                         = false    resource_pool_id                        = "resgroup-8"    run_tools_scripts_after_power_on        = true    run_tools_scripts_after_resume          = true    run_tools_scripts_before_guest_reboot   = false    run_tools_scripts_before_guest_shutdown = true    run_tools_scripts_before_guest_standby  = true    sata_controller_count                   = 1    scsi_bus_sharing                        = "noSharing"    scsi_controller_count                   = 1    scsi_type                               = "pvscsi"    shutdown_wait_timeout                   = 3    swap_placement_policy                   = "inherit"    sync_time_with_host                     = false    tags                                    = []    uuid                                    = "4219040f-5842-ba52-b7e4-cd9064c1f36c"    vapp_transport                          = []    vmware_tools_status                     = "guestToolsRunning"    vmx_path                                = "DEV2/DEV2.vmx"    wait_for_guest_ip_timeout               = 0    wait_for_guest_net_routable             = true    wait_for_guest_net_timeout              = 5    cdrom {        client_device  = false        datastore_id   = "datastore-13"        device_address = "sata:0:0"        key            = 16000        path           = "ISO/rhel-server-7.7-x86_64-dvd.iso"    }    disk {        attach           = false        controller_type  = "scsi"        datastore_id     = "datastore-13"        device_address   = "scsi:0:0"        disk_mode        = "persistent"        disk_sharing     = "sharingNone"        eagerly_scrub    = false        io_limit         = -1        io_reservation   = 0        io_share_count   = 1000        io_share_level   = "normal"        keep_on_remove   = true        key              = 2000        label            = "disk0"        path             = "DEV2/DEV2.vmdk"        size             = 20        thin_provisioned = false        unit_number      = 0        uuid             = "6000C29b-c4f0-764a-9054-a042931350c4"        write_through    = false    }}

Заключение

Если вы планируете управлять конфигурацией внутри операционной системы виртуальной машины, помните о том, что нужно использовать соответствующиесредства выделения ресурсов (provisioners).

Подробные сведения см. в документации по ресурсу vsphere_virtual_machine.

Полный код приведен на GitHub в репозиторииterraform-vmware-demos.


Узнать подробнее о курсе "Infrastructure as a code in Ansible".

Зарегистрироваться на открытый урок на тему "Управление Kubernetes при помощи Kubespray".

ЗАБРАТЬ СКИДКУ

Подробнее..

VDDK errors с человеческим лицом

18.08.2020 12:17:00 | Автор: admin

Вся прелесть и ужас VDDK ошибок в том, что, с одной стороны, совершенно точно понятно, где сломалось, а с другой совершенно непонятно, почему, и как это теперь чинить. Это примерно как RPC call function failed в мире Windows.
Хотя не всё так ужасно, конечно же. Некоторые ошибки имеют совершенно конкретные причины и методы лечения. А некоторые давно известный список наиболее частых причин и вариантов их исправления.
Наш Veeam Technical Support, конечно же, накапливает в себе подобные знания, и сегодня мы немного подглядим в их записи. Поэтому с превеликим удовольствием представляю вам топ самых частых VDDK errors и методы их устранения.

VDDK errors. Что это и как они получаются?


Как можно догадаться из названия, это какие-то проблемы на уровне VDDK Api (Virtual Disk Development Kit) лучшего способа взаимодействия с vSphere инфраструктурой. Не важно, будет это отдельный ESXi хост или развесистый vCenter, но если нам надо что-то записать или считать из нашей инфраструктуры, лучший способ для этого бесплатно распространяемый VDDK.
Если максимально упростить, то выглядит это взаимодействие примерно так: Veeam сервер хочет, например, что-то прочитать с хоста (или записать) и шлёт ему соответствующий запрос. Создаётся вызов на чтение с указанием, из какого диска, сколько хочется прочитать, с какого оффсета и в какой буфер в памяти. Или записать, аналогично, из указанного буфера. Всё просто.
Но это в идеальном мире.
В реальном же иногда на пути этого простого алгоритма случаются ошибки, из-за которых не получается завершить запрос. И вместо ожидаемого ответа к нам приходит номер ошибки, который тщательно записывается в логи.
Вот о самых частых таких ошибках мы сегодня и поговорим

Важный дисклеймер!


Не уверен не делай! Не нажимай и вообще ничего не трогай!
Позвонить или написать в саппорт Veeamа всегда лучше, чем ставить эксперименты на своём проде. Благо саппорт у нас русскоязычный и технических крайне грамотный.
При малейших сомнениях позвонить и спросить: У меня вот такая проблема, я нашёл в сети вот такой вариант решения, это поможет мне её решить? нормально и правильно.
Что не нормально и не правильно, так это будучи не уверенным в своих действиях наворотить дел, а потом просить восстановить всё из руин за пять минут, и чтобы ничего не потерялось.
Да, мы, конечно же, поможем и в этом случае, но лучшая битва та, которой не было.
Поэтому всегда старайтесь критически оценивать свои действия, и всем большого аптайма.

VDDK error 1: Unknown error


На самом деле по этой ошибке у нас есть целая КВ статья. И, как она гласит, чаще всего эта ошибка возникает, если у вас установлено слишком много счётчиков производительности и скачайте патч от VMware, который вам всё поправит.
С одной стороны, даже и комментировать нечего. Вот проблема, вот описание (пусть даже не очень понятное), и, что самое важное вот вам ещё и ссылка на лекарство.
Однако не всё так просто. По нашим наблюдениям, эта ошибка может возникать не только из-за скучной проблемы со счётчиками, но также из-за:
  1. Повреждения конкретного VMDK файла. То есть машина ваша вот прямо сейчас работает, но возможно, что скоро перестанет. Или классический случай вы её выключите и больше не сможете включить. Словом, приятного вас ожидает мало. Да, есть всякие тулы для проверки целостности и коррекции ошибок, однако это не панацея.
  2. Повреждения всего datastore. Тут даже и комментировать ничего не хочется. Надеемся, у вас есть запасной.
  3. Проблема с HBA контроллером. Да, проблемы идут по нарастающей. Хорошо если это просто плата сгорела и всё ограничится заменой с проверкой рейда. А если рейд был повреждён и его придётся пересчитывать?
  4. И самая безобидная, но тоже причина: ESXi хост периодически теряет связь с vCenter.

Ну хорошо, жути нагнал, скажете вы. А дальше-то что? Как понять, что пора срочно бежать за новыми дисками или достаточно поставить патчик и выдыхать?
А я вам отвечу держите набор простейших тестов, которые в случае чего помогут вам принять правильное решение.
  • Запускаем Storage vMotion или просто клонируем подозрительную машину на другой датастор, а потом пытаемся запустить бекап. Если клонирование не прошло однозначно беда где-то в дисковой подсистеме. Режим паранойи на максимум и проверять всё, от дисков до контроллеров. Если клонировалось и забекапилось успешно, значит, был повреждён VMDK, т. к. во время клонирования VMware пересоздаёт его содержимое, и теперь там точно нет ошибок.
  • Были случаи, когда перезагрузка хоста лечила проблему. Да, это не шутка. Семь бед один ресет всё ещё актуально.
  • Если вы уже и перезагрузились, и патч поставили, и машину клонировали, и всё равно ничего не работает бегом в саппорт VMware.
  • Если клонированная машина успешно забекапилась, попробуйте мигрировать её обратно на продакшн сторадж и продолжайте использовать вместо старой. Можно даже делать это ночью на выключенных машинах, чтобы процесс прошёл быстрее и по пути ничего не потерялось.


VDDK error 2: Value: 0x0000000000000002


Практически всегда идёт рука об руку с VDDK error 1. По нашей статистике, появление ошибки обычно связано с определёнными версиями связки vCenter/ESXi, так что лучший совет здесь это обновиться хотя бы до версии 6.7. А лучше и 7.0
Если же не помогло, то переходим к плану Б.
Сама ошибка появляется, когда у ESXi хоста заканчивается память, выделенная под буфер NFC read. По умолчанию, Veeam работает в асинхронном режиме чтения NBD/NFC, что в нормальных условиях может потребовать расширения этого буфера. Но происходит это не всегда. Поэтому для отключения данного режима есть специальный ключик:
Name: VMwareDisableAsyncIoPath: HKEY_LOCAL_MACHINE\SOFTWARE\Veeam\Veeam Backup and ReplicationType: REG_DWORDValue: 1

После его создания надо перезапустить Veeam Backup Service и быть готовым к производительности, просевшей примерно на 10%.
Другой вариант это зайти со стороны хоста и перезапустить management агентов:
etc/init.d/hostd restart/etc/init.d/vpxa restart

Подробно процедура описана в КВ от VMware, так что не будем её переписывать.
И стандартный набор вариантов, которые не будет лишним перебрать в процессе диагностики:
  • Мигрировать машины с ошибками на другой хост.
  • Попробовать другой Transport mode HotAdd с виртуальным прокси или DirectSAN.


VDDK error 3: One of the parameters is invalid


Ошибка, практически всегда случающаяся при использовании Virtual Appliance режима (он же HotAdd mode).
Тут особенно рассказывать нечего, просто дам ссылки на две наших KB, где расписано много вариантов, и даже если вы сразу придёте в саппорт, вас попросят проделать всё там написанное.
КВ1218 Общее описание возможных проблем и методы их устранения
KB1332 В случае если ваш Veeam сервер работает как прокси для HotAdd режима

VDDK error 13: You do not have access rights to this file


И на этот случай у нас имеется KB2008.
Да, там очень много вариантов устранения этой беды, но такая уж ошибка. Однозначно сказать, что именно случилось именно в вашем случае, практически невозможно, поэтому надо брать и перебирать весь список.
Что хочется сказать дополнительно. Очень внимательно относитесь к секции Additional Troubleshooting. Да, там написаны, возможно, слишком очевидные для многих вещи. Но даже такие банальности ускользают от взгляда самых профессиональных профессионалов. Нередки случаи, когда спустя неделю в попытках решить всё самостоятельно они приходят в саппорт только лишь для того, чтобы узнать, что невнимательно прочитали список технических требований, или нечто такое. И обидно, и жалко потраченного времени.
И два совета на все времена:
  • Если машина с ролью Veeam proxy была хоть раз клонирована или реплицирована, у её клонов мог сохраниться UUID оригинальной машины. Из-за чего диски временно маунтятся хостом к одной машине, а читать мы их пытаемся с другой. Да, звучит странно, но бывает и такое.
  • Если реплицированная машина выключена (а это нормально для реплик быть выключенными), само собой, все VDDK вызовы и попытки присоединиться будут обречены на провал.


VDDK error 18000: Cannot connect to the host


В большинстве случаев вина за эту ошибку лежит на баге в самом VDDK. А конкретно виновата библиотека gvmomi.dll. И проявляет он себя только под большой нагрузкой. Например, когда много машин бекапится в параллельном режиме, одна из функций принимает значение 0, и библиотека может схлопнуться. А следом падает всё остальное.
Такая вот печальная история.
Но самое плохое в этой истории то, что никак не получается точно воспроизвести условия возникновения бага. Это то, что тестировщики называют плавающими багами. Поэтому невозможно точно сказать, сколько именно параллельно обрабатываемых машин вызывает падение.
Однако согласно официальным release notes это баг был полностью исправлен. Так что правильный выход из положения обновить свой хост. Но если по какой-то из причин сделать это невозможно, единственное, чем мы можем помочь это посоветовать уменьшить количество одновременно обрабатываемых машин.
Больше никак.

VDDK error 14008: The specified server could not be contacted


Итак, если вас постигла эта беда, то первым делом надо проверять сеть. Скорее всего, сбоит связь между vCenter и Veeam proxy. Смотрим, все ли порты открыты и доступны, все ли DNS имена правильно резолвятся в ожидаемые IP адреса. Причём проверять надо конкретный прокси, задействованный в неудавшейся джобе, а не стоящий рядом точно такой же (бывают случаи).
95% кейсов с этой ошибкой закрываются с пометкой Проблема с DNS/портами в инфраструктуре клиента.
Поэтому ещё раз призываю вас очень внимательно проверить, везде ли указан верный DNS сервер, нет ли закрытых портов и в какие IP резолвятся FQDN имена.
В старых версиях VDDK была схожая ошибка, возникавшая при использовании недефолтного порта для работы с vCenter, на которую приходились оставшиеся 5%, но сейчас VMware скрыло КВ с её описанием, что, вероятно, означает, что КВ более не релевантна. Но можете поискать её в интернет-архивах по номеру 2108658 (Backup fails when a non-default port is specified for VMware vCenter Server).

VDDK error 14009: The server refused connection


И последняя ошибка в нашем сегодняшнем топе The server refused connection. Тут всё абсолютно банально: что-то мешает установить связь между хостом и прокси. В большинстве случаев оказывается виноват фаервол. Но тонкий момент не из-за закрытых портов, а из-за вносимых задержек. Так что первым делом проверяем открытость порта 443, а потом смотрим на таймауты.
Если оба варианта ничего не дали идём в саппорт. Придётся проверять сам хост. Возможно, он просто слишком загружен и не успевает отвечать вовремя, а, возможно, и что-то другое.

И в завершение немного полезных ссылок:
Портал нашей орденоносной технической поддержки.
Veeam Support Knowledge Base
Подробнее..

Из песочницы Как поменять сертификаты для связки VMware Vcenter Server, Replication Server и Site Recovery Manager

13.11.2020 00:08:03 | Автор: admin
Всем привет!

Все кто используют продукты vmware, знают или не знаю, что проблема с сертификатами может принести много боли и страдания. Поэтому чтобы нам не наступить на эти грабли я покажу как сделать и поменять сертификаты для таких продуктов как:

  • VMware Vcenter Server 6.7
  • VMware Replication Server 8.3
  • VMware Site Recovery Manager 8.3

Для этого нам понадобятся:

  • Сертификаты
  • Putty
  • Немного терпения

Подготовка сертификатов, я буду использовать рядовой windows server 2019 с ролью Служба сертификатов Active Directory и openssl v1.1.1h

Скачать можно тут

1. Создание сертификатов


Я буду использовать локальный сервер выдачи сертификатов, но данный способ подойдет для выпуска сертификатов и на коммерческих площадках.

Подготовим запросы к центру сертификации.

Я дал имена типа FQDN:

  • Vcenter Server имеет имя vc.home.local и ip 192.168.233.11
  • VMware Replication Server я назвал как vr.home.local и ip 192.168.233.12
  • VMware Site Recovery Manage также srm.home.local и ip 192.168.233.13

Для этих имен будем готовить запросы и закрытые ключи в программе openssl. Для этого изготовим небольшой конфигурационный файл vc.cfg с содержимым. Далее для каждого нового сервера я буду менять содержимое этого файла подставляя имена серверов и ip адреса:

[req]default_bits = 2048distinguished_name = req_distinguished_namereq_extensions = v3_reqprompt = no[req_distinguished_name]countryName = RUstateOrProvinceName = ROlocalityName = RnDorganizationName = HOMEcommonName = vc.home.local (меняем)emailAddress = root@home.local[v3_req]basicConstraints = CA:FALSEkeyUsage = digitalSignature, keyEncipherment, keyAgreementsubjectAltName = @alt_names[alt_names]DNS.1 = vc.home.local (меняем)IP.2 = 192.168.233.11 (меняем)

Далее используем openssl

1.1 Делаем vc.home.local

openssl req -batch -new -newkey rsa:2048 -nodes -keyout vc.home.local.key -out vc.home.local.req -config vc.cfg

1.2 Меняем имена и ip сервера в vc.cfg и выпускаем ключ и запрос для vr.home.local

openssl req -batch -new -newkey rsa:2048 -nodes -keyout vr.home.local.key -out vr.home.local.req -config vc.cfg

1.3 Меняем имена и ip сервера в vc.cfg и выпускаем ключ и запрос для srm.home.local

openssl req -batch -new -newkey rsa:2048 -nodes -keyout srm.home.local.key -out srm.home.local.req -config vc.cfg

1.4 Дополнительно понадобятся сертификаты для служб vcenter (vpxd, vsphere-webclient, vpxd-extension)
делаем их командой:

openssl req -new -newkey rsa:2048 -nodes -keyout vpxd.key -out vpxd.req

Мы попадем в небольшой визард, там мы введем информацию о себе или о компании. Обязательно в поле Common Name мы пишем имя службы. Повторяем процедуру для оставшихся служб. На выходе у нас получается закрытый ключ и запрос на сертификат.



Генерация ключа и запроса на сертификат


Теперь все запросы и ключи готовы приступим к выдаче сертификата. Переходим в центр выдачи сертификатов. Запускаем консоль Центр сертификации.



Далее нажимаем правой кнопкой мышки (пкм) на корне сервера и выбираем выдать новый запрос.



Выбираем наш файл запроса, с расширением req.

Переходим в меню Запросы в ожидании. Если у вас там пусто, нажмите F5 и обновиться окно. Далее жмем пкм, и выбираем Выдать:



Далее переходим в меню Выданные сертификаты и открываем наш сертификат.



Далее нам нужно сохранить его на диск. Для этого переходим во вкладку Состав и нажимаем кнопку Копировать в файл. Далее появиться визард для сохранения файлы, нам нужно выбрать Base64 и имя файла в данном случае vpxd.crt:



Сохранение сертификата.

Повторяем процедуру выдачи для всех наших сертификатов/

Нам еще понадобится корневой сертификат. Для этого откроем любой сертификат, перейдем во вкладку Путь сертификации выберем наш корневой сертификат и нажмем кнопку Посмотреть сертификат. Далее также его сохраним как и все предыдущие.



И это еще не все для сервера VMware Replication Server и VMware Site Recovery Manager. Нам понадобиться контейнер сертификата и ключа. pfx файл, сделать его очень легко, нам понадобиться закрытый ключи и файл сертификата:

openssl pkcs12 -export -out vr.home.local.pfx -inkey vr.home.local.key -in vr.home.local.crt

OpenSSL попросить задать пароль, придумываем пароль и на выходе получаем заветный файл.
На этом создание сертификатов закончим перейдем к их установке.

2. Начнем менять с Vcenter


Для этого мы заходим в раздел администрирования, и переходим в раздел сертификаты. Логинимся администратором.



Раздел для управления сертификатами.

Далее попав в панель управления первым делом добавим корневой сертификат или Trusted Root Certificates. Прокручиваем в самый конец и жмем ADD. Выбираем наш сертификат ca.crt



Add Trusted Root Certificates

Далее меняем текущие сертификаты через пункт меню Replace:



Выбираем сертификаты которые мы создали для vcenter:
Для служб мы выбираем сертификаты служб созданных в пункте 1.4

Для сертификатов __MACHINE_CERT и machine сертификат vc.home.local, созданный в пункте 1.1



Мы заменили все сертификаты, которые нам доступны из панели управления. Если у вас
конфигурация, в которой отсутствую компоненты VMware Replication Server и VMware Site Recovery Manager, то на этом можно поставить точку и после перезагрузки сервера наслаждаться работой VCentre. Если вы используете автономный сервер по выдаче сертификатов, советую делать сертификаты на 10 лет и более. Если вы покупаете то тут смотреть по обстоятельствам.

Для корректного опознавания вашими браузерами сертификатов, необходимо корневой сертификат установить в хранилище сертификатов операционной системы.

3. Меняем сертификат на сервере VMware Replication Server


Начнем с того что на сервер vr необходимо установить корневой сертификат, т.к в штатном веб интерфейсе его нет. Для этого нам нужно зайти на сервер по ssh, но по умолчанию он выключен. Давай включим его. Открываем консоль виртуальной машины и логинимся рутом.
Активируем сервер ssh.

/usr/bin/enable-sshd.sh

После этого можно подключиться к серверу через putty.

Все root ca сертификаты лежать в контейнере jks по пути /opt/vmware/hms/security/hms-truststore.jks

Но контейнер имеет пароль, давайте узнаем его командой:

/opt/vmware/hms/bin/hms-configtool -cmd list | grep keystore

Далее на сервер сохраняем наш ca.crt, я обычно это делаю через текстовые редакторы, на локальном компьютере открываю сертификат блокнотом копирую в буфер обмена, на удаленной машине с помощью редактора vi вставляю и сохраняю. После этого мы можем наш сертификат записать в контейнер командой:

/usr/java/default/bin/keytool -import -trustcacerts -alias root -file /root/ca.crt -keystore /opt/vmware/hms/security/hms-truststore.jks -storepass тут пароль который мы узнали

Далее на запрос добавления говорим yes. Все, мы успешно добавили наш корневой сертификат.

Заходим в панель управления сервером по адресу vr.home.local:5480

Переходим во вкладку Configuration, поле Upload PKCS12 (*.pfx) file
выбираем наш pfx файл. жмем upload and install



конфигурация vr сервера.

После рестарта веб сервера и логина, пытаемся сохранить конфигурацию кнопкой Save and Restart Service:



И получаем ошибку:

Unhandled exception com.vmware.vim.vmomi.client.exception.SslException: javax.net.ssl.SSLException: Certificate thumbprint mismatch, expected:

Сервер нам говорит что отпечатки сертификатов служб вцентра не совпадают.

Открываем putty и подключаемся к нашему вцентру vc.home.local

Запускаем bash командой shell:



Переходим в каталог:

cd /usr/lib/vmidentity/tools/scripts/

И смотрим состояние данной службы:

./lstool.py list --url https://localhost/lookupservice/sdk --no-check-cert --ep-type com.vmware.cis.cs.identity.sso 2>/dev/null



Если открыть в текстовом редакторе наш сертификат vc.home.local.crt, и сравнить, то окажется что сертификаты разные. Дело в том что веб интерфейс вцентра меняет не все сертификаты.

Копируем содержимое сертификата в фаил /tmp/old.crt, не забываем что содержимое сертификата должно быть между тегов -----BEGIN CERTIFICATE----- и -----END CERTIFICATE-----

Должно получиться вот так:



Теперь открываем в текстовом редакторе наш новый сертификат вцентра vc.home.local.crt
и копируем его на vc в фаил /tmp/new.crt

Далее выясняем хэш sha1 файла /tmp/old.crt, он там понадобиться чтобы заменить старые сертификаты на новый.

openssl x509 -in /tmp/old.crt -noout -fingerprint -sha1

Далее запускаем скрипт по замене:

./ls_update_certs.py --url https://vc.home.local/lookupservice/sdk --fingerprint 86:0D:BB:---ВАШ ХЭШ----:C7:0E:D1:3E:17:39 --certfile /tmp/new.crt --user administrator@home.local --password ВашПароль

В конце работы скрипта в отчете будет количество замененных сертификатов.

После этого переходим на vr.home.local:5480 и сохраняем конфигурацию. Если вы сделали все правильно сервер должен успешно сохранить конфигурацию и запустить службу vr сервера.



3. Замена сертификата на VMware Site Recovery Manage


На этом сервере все делается из веб интерфейса в меню Certificate.

Заходим в административную панель srm.home.local:5480

  1. Добавляем наш root ca кнопкой ADD
  2. Меняем текущий сертификат кнопкой CHANGE



На этом мы закончили смену всех сертификатов.

Всем спасибо!
Подробнее..

Сравнение производительности систем виртуализации на macOS

24.11.2020 04:23:42 | Автор: admin
Привет, Хабр! Думаю, никто не будет отрицать, что виртуальные машины незаменимая в хозяйстве вещь. Ведь это значительно удобнее, чем ставить множество ОС на свой компьютер. Или я вот, например, был бы и рад debian себе поставить на ноутбук рядом с macOS, да под макбуки с драйверами там большие проблемы. И вот, когда у меня сломался ПК, на котором были винда с линуксом, я собрался настраивать виртуалки у себя на ноутбуке. А так как хочется комфортно работать в виртуальной системе, то в первую очередь я обращал внимание на производительность. Самым простым способом было попробовать всё самим, что я и сделал, и вот делюсь результатами.

Для тестирования взял последние стабильные версии трёх самых популярных решений VMware Fusion Pro 12.1.0 (17195230), Parallels Desktop 16.1.1 (49141) и Oracle VirtualBox 6.1.16 (r140961). VirtualBox бесплатный и open-source (GPL v2), Fusion и Parallels я тестировал в trial версии, потому что я бедный студент, у которого нет денег. У Fusion Pro есть 30 дней пробной версии, а у Fusion Player бесплатная лицензия для персонального использования, для получения которой надо зарегистрироваться и немного подождать (мне выдали license key за где-то за сутки). Parallels только платный (14 дней триала), из-за чего для меня он был вне конкурса, но есть 50% скидка для студентов.

Во всех трёх тестируется один и тот же дистрибутив Debian 10.6.0 amd64, просто потому что у меня был уже скачан iso образ, с практически одинаковыми настройками при установке (немного отличается разбиение диска), в качестве среды рабочего стола везде выбрал Xfce. В качестве бенчмарков взял первые попавшиеся для linux sysbench (cpu, memory и io тесты) и indigo benchmark (cpu тест). Для всех виртуалок во всех системах были выставлены одинаковые настройки: 2GB оперативной памяти, 2 ядра процессора, 64MB видеопамяти. Тесты так же проведены в нативной macOS (для сравнения).

Всё тестировалось на MacBook Pro 13" 2017-го года с Core i5 на 2.3 GHz, ось macOS Big Sur Beta (20A5364e).

Отдельное замечание по поводу VirtualBox. После установки надо в настройках безопасности подтвердить, что мы доверяем расширениям ядра от Oracle, о чём установщик, в отличие от установщиков Fusion и Parallels, не предупреждает, а лишь говорит, что нужно перезагрузиться. После перезагрузки для этого подтверждения уже надо будет переустанавливать заново VirtualBox, потому что запрос на подтверждение пропадёт из настроек macOS (почему Apple не хранит их в отдельном разделе настроек безопасности?), но мне и это не помогло, и VirtualBox заработал лишь после сброса настроек SIP (sudo csrutil clear). В общем, потребовалось немного танцев с бубном.

Итак, вот результаты (полный вывод бенчмарков тут):

VMware Fusion Parallels Desktop Oracle VirtualBox macOS (host)
sysbench CPU (1 поток), events per second 1.2K 1.2K 1.2K 3607.9K
sysbench CPU (2 потока), events per second 2.4K 2.4K 2.4K 6111.5K
sysbench RAM, MiB/sec transferred 5411.45 4287.38 4863.09 2658.28
sysbench I/O, written MiB/sec 948.55 89.13 33.77 429.31
Indigo Bedroom, CPU, M samples/s 0.202 0.202 0.202 0.313
Indigo Supercar, CPU, M samples/s 0.514 0.502 0.496 0.787


Как видно, в синтетических тестах CPU наши виртуалки сильно отстают от оригинальной системы (что логично), но между собой отличаются незначительно. Интересно, что во всех трёх виртуальных машинах тест памяти значительно опережает тесты в macOS. С чем это связано гадать не буду, надеюсь не с разницей в linux и macOS версиях бенчмарка. Если кто-то знает или предполагает причину, объясните мне, пожалуйста, в комментариях. Точно так же любопытно, как Fusion обогнал macOS с тестами диска, но тут я ещё потестирую, так как скорость записи хорошо влияет на производительность, и тесты диска хорошо подвержены случайным факторам.

Что касается субъективного впечатления, parallels и vmware мне показались шустрее. К тому же при установке системы в VirtualBox курсор в один прекрасный момент завис и мне пришлось доустанавливать всё с клавиатуры, после ребута виртуалки пофиксилось. А в VMware система у меня начинает подтормаживать при включённой поддержке 3D ускорения, почему так я, опять же, не знаю.

В заключение скажу, что тесты, конечно, не точные и далеко не полные. Я взял первые попавшиеся бенчмарки и не тестировал, например, GPU. Тесты делал я в первую очередь для себя за один вечер, но решил поделиться с общественностью, думаю есть те, кому пригодится. Если кто-то проведёт более полные и качественные тесты производительности буду рад. Я же лично остановлюсь на Fusion Player, потому что он бесплатный, удобный для меня, к тому же у меня уже был приятный опыт использования VMWare Workstation на windows и не очень приятный с VirtualBox там же.
Подробнее..

VMware Odyssey 2020 изнутри. Интервью с победителем конкурса Александром Никитиным

17.12.2020 16:16:33 | Автор: admin
Компания VMware каждый год в октябреноябре проводит 5-дневную европейскую конференцию VMworld, посвященную виртуализации и всему, что с ней связано. Параллельно для участников конференции проходит конкурс VMware Odissey Hands-On Lab Challenge, на котором ИТ-специалисты со всего мира выполняют лабораторные работы по продуктам и технологиям VMware. В финал выходят несколько участников. Выигрывает тот, кто выполняет все работы быстрее других.

В этом году победителем VMware Odyssey стал Александр Никитин заместитель руководителя группы системного администрирования ITGLOBAL.COM. Финальный раунд турнира был посвящен новому продукту VMware Tanzu Kubernetes Grid. Александр выполнил все задания за 15 с небольшим минут; для сравнения, участник, который занял 2 место, за 41 минуту.



ITGLOBAL.COM ежегодно подтверждает партнерский статус VMWare Advanced Partner. В компании выстроена система обучения технологиям вендора. Инженеры и администраторы в обязательном порядке сдают экзамен на сертификацию VMware Certified Professional у нас 5 таких специалистов. Среди них и Александр Никитин.

Мы попросили Александра рассказать, как проходил конкурс VMware Odyssey, насколько трудными были задания, как он готовился и что в итоге дает эта победа, кроме дополнительного подтверждения высокого профессионального уровня.

Как проходил конкурс?


Во время конференции VMworld любой желающий может выполнить ту или иную лабораторную работу, часть из них относится к конкурсным работам VMware Odyssey. Конкурс проходит поэтапно: отборочный тур, четвертьфинал, полуфинал, финал. В этом году и конференция, и конкурс проходили онлайн. Финальный раунд VMware Odyssey транслировался в Twitch.

На выполнение обычной работы дается 1 час. При этом у тебя есть полчаса для выполнения заданий и получения дополнительных баллов они начисляются за каждую не потраченную на выполнение заданий секунду. Одно правильно выполненное задание 400 баллов. Каждая секунда оставшегося времени плюс 1 балл. То есть ты получаешь фиксированное количество баллов за каждый этап и плюс то, что у тебя осталось до первого получаса времени.

В финале, например, все кто выполнил все задания и при этом превысили время в 30 минут, дополнительных баллов не получили у них вышло суммарно по 1600 баллов. У меня же оставалось 14 неизрасходованных минут, за которые я получил дополнительно 884 балла итого 2484.

В конкурсе в этот раз участвовало около 200 человек. В финал, насколько я помню, вышли 8.

Я участвовал впервые. Это получилось, потому что конкурс проходил онлайн. В 2018 и 2019 годах, когда я бывал на офлайн-мероприятиях VMworld, я успевал сделать только несколько простых лабораторных работ. Тогда мне сложно было выделить время между докладами и сессиями конференции.

Как оценивались работы?


Есть программа, которая контролирует правильность выполнения заданий. При этом тебя ничто не ограничивает: можешь пользоваться документацией, можешь гуглить. Но ты тратишь на это время, а тут результат зависит от скорости решения.

Какие задания были на конкурсе?


Второй раунд был посвящен продукту vSAN это распределенное хранилище данных (кстати, наша компания разработала конкурентоспособную платформу, которая называется vStack). У меня с vSAN знакомство поверхностное, но этих знаний было достаточно, чтобы выполнить лабу.

Полуфинал был посвящён сетевой безопасности и продукту NSX Advanced Load Balancer, который VMware представили в начале года.

Финал также был посвящен новому продукту Tanzu Kubernetes Grid, решению для работы с контейнерами. С ним я вообще не был знаком. Но, благо, организаторы заранее назвали тему каждого этапа, давая возможность подготовиться.

Как готовился?


Тем же NSX Advanced Load Balancer я в принципе интересовался. До этого я выполнял лабу, которая очень сильно перекликалась с тем, что было на конкурсе, поэтому конкурсную работу мне было несложно сделать.

К первому этапу по vSAN я специально не готовился. Не думал, что настолько заинтересуюсь и что вообще пройду дальше полуфинала. Отборочные были ещё задолго до конференции, и я даже сделал несколько работ по vSAN это заняло минут 15. Ближе к началу мероприятия мне сообщили, что я прошел отборочный тур, и предложили участвовать дальше.

К финалу я подготовился: прочитал документацию, посмотрел, какие аналогичные лабы существуют по этой теме, одну из них сделал. В результате только на последнем этапе мне пришлось посмотреть в документацию.

Какие были трудности при решении заданий?


В финале последняя задача была посвящена тому, с чем я вообще не работал, и мне пришлось гуглить. Это меня очень огорчило, я думал, что потерял много времени. Наверное, где-то пару минут я гуглил, нашел, как это сделать, сделал, нажал кнопку Проверить и мне зачли результат.



Как оцениваешь уровень сложности?


Задания несложные. В целом у VMware такие градации: уровень 100 для начинающих, уровень 200 уже для продвинутых специалистов, 300 для экспертов, кто глубоко погружен в продукт и очень хорошо его знает. Уровень сложности лабораторных между 100 и 200. То есть часть задач была очень простой, уровня 100, какая-то часть была посложнее на уровне 200.

Но опять же, я подготовился к финалу, уделил время, чтобы прочитать документацию, сделать тестовую лабораторную работу, перекликающуюся по теме, чтобы хотя бы погрузиться в продукт. Возможно, остальные этого не сделали. Хотя человека, который занял второе место, я помню по полуфиналу мы с ним примерно в одно время сделали предыдущую лабу.

Что получил за победу на конкурсе?


Мне подарили комплект NUC9 Extreme Kit в максимальной конфигурации с процессором Intel Core i9 с индексом 9980HK. По сути, это маленький персональный компьютер, очень мощный и очень компактный. Мы вместе с командой ТехЛаб сделали распаковку и обзор этого девайса.

Но официальной какой-то ачивки за 1 место нет. Можно теперь просто говорить: Вот, ребят, я выиграл VMware Odyssey.

Как долго работаешь с продуктами VMware?


С начала работы в компании, то есть с 2016 года. Тогда она ещё называлась ИТ-ГРАД. Я пришел на должность системного администратора VMware, при том, что у меня практически не было бэкграунда по продуктам VMware. Но на тот момент у меня был уже нормальный опыт работы с виртуализацией в целом, я работал с Microsoft Hyper-V.

Чем, на твой взгляд, хороши решения VMware?


Сложно сказать. Я для этого слишком ангажирован сейчас. То есть я работаю только с VMware и практически не слежу за тем, что происходит у конкурентов. Я не могу сказать, что VMware прям лучше всех. Ну, безусловно, это лидеры рынка, они задают тон всем остальным. VMware делают очень серьезные энтерпрайз-продукты.

Но, опять же, мой кругозор, скажем так, слегка ограничен тем, что я работаю в сервис-провайдере. У нас есть определенный лист продуктов, которые мы используем, и набор практик. В других компаниях, возможно, эти продукты используют чуть шире.

Насколько оцениваешь сложность продуктов VMware? Какая квалификация нужна, чтобы управлять такой инфраструктурой?


Некоторые продукты VMware сделаны очень хорошо. Они сейчас достаточно понятные, но, безусловно, в каждый нужно погружаться. На мой взгляд, просто так без багажа знаний, наверное, это не получится. Конечно, ты можешь начать что-то устанавливать, благо документации и статей очень много. То есть ты можешь что-то установить и даже настроить, но без глубокого понимания можно столкнуться с очень большими проблемами. Если ты потом начнешь это использовать в продуктивной среде, можно наступить на очень большое количество граблей.

Здесь важно знать и архитектуру как сделать правильно, с учетом лучших практик, скажем так. То есть нюансов очень много. Но так, в общем-то, с любым вендором.

P. S.


В следующем посте анбоксинг комплекта NUC9 Extreme Kit, который Александр получил за победу в VMware Odissey Hands-On Lab Challenge. Расскажем, на что способна самая производительная рабочая станция Intel.



Блог ITGLOBAL.COM Managed IT, частные облака, IaaS, услуги ИБ для бизнеса:



Подробнее..

Подготовка шаблона vApp тестовой среды VMware vCenter ESXi

25.02.2021 10:21:06 | Автор: admin

Вложенная виртуализация позволяет запускать гипервизор внутри виртуальной машины. Это необходимо, чтобы не экспериментировать на боевой системе, рискуя уронить всё и сразу, а потом долго и мучительно поднимать её под добрые слова коллег о прямизне конечностей и чьей-то матери. Если вы хотите потестить вложенную виртуализацию, изучите наш туториал.

Перед вами пошаговое руководство по подготовке шаблона vApp для VMware Cloud Director, включающего в себя vCenter Server Appliance и 3 гипервизора ESXi, с целью снижения временных затрат на развертывании тестовой инфраструктуры VMware.

Оглавление
  1. Что мы будем делать

    1.1. Список VM в шаблон

    1.2. Требования

  2. Схема логической топологии

  3. Подготовка Working Environment

    3.1. Установка ESXi

    3.2. Установка ManagementVM

    3.3. Установка vCenter Server Appliance

  4. Создание шаблона vApp

    4.1. Подготовка vApp

    4.2. Создание ESXi VM в vApp

    4.3. Кастомизация ESXi в vApp

    4.4. Установка vCenter Server Appliance в vApp

    4.5. Установка Windows Server 2019 в vApp

    4.6. Установка Ubuntu 18.04 LTS в vApp

    4.7. Удаление ISO приводов и сетевых адаптеров

  5. Выгрузка vApp шаблона из Working Environment

  6. Загрузка vApp в VMware Cloud Director

1. Что мы будем делать

Мы подготовим максимально гибкий шаблон без привязки к адресу подсети, доменному имени, количеству выделяемых ресурсов и т.п. Будем делать так, чтобы при развертывании шаблона администратор мог произвести тонкую настройку. Подготовка шаблона выполняется в сети 10.0.0.0/24, а за стандартные значения при развертывании готового шаблона примем домен Domain.local и сеть 192.168.2.0/24.

Имя домена domain.local и сеть 192.168.2.0/24 выберем как значения по умолчанию, которые можно изменять в процессе развёртывания шаблона.

Мы подготовим шаблон, включающий в себя 6 виртуальных машин.

1.1. Список VM в шаблоне

  1. VMware ESXi 1 Гипервизор;

  2. VMware ESXi 2 Гипервизор;

  3. VMware ESXi 3 Гипервизор;

  4. VMware vCenter Server Appliance with Embedded Platform Services Controller в конфигурации Tiny;

  5. Ubuntu 18.04 LTS в качестве общего NFS хранилища;

  6. Windows Server 2019 в качестве DNS сервера и Management machine. В последствии, с нее будет производится управления vCenter.

1.2. Требования

  1. VDC в VMware Cloud Director:

    a. 28 vCPU;

    b. 50GB RAM;

    c. 2TB Storage.

  2. Дистрибутивы ПО:

    a. ISO с дистрибутивом VMware ESXi 6.7U3b;

    b. ISO (или OVA) с дистрибутивом VMware vCenter Server Appliance 6.7U3b;

    c. ISO (или OVA) с Windows Server 2019;

    d. ISO (или OVA) с Ubuntu1804.

  3. Дополнительное ПО (опционально):

    a. Браузер Google Chrome;

    b. Текстовый редактор Notepad++;

    c. SFTP клиент WinSCP.

    d. 7-Zip

  4. Убедитесь, что в нашей локальной сети на уровне vCenter облачного провайдера переключены в состоянии Accept политики Promiscuous mode и Forged transmits. Иначе не будет связи между сетью виртуального дата-центра и сетью внутри подготавливаемого шаблона. Здесь об этом рассказывается подробнее.

Дистрибутивы продуктов VMware можно скачать с официального сайта, зарегистрировавшись в программе обучения и получив VMware Evaluation License на 60 дней.

Возможностей VMware Cloud Director для подготовки данного шаблона будет недостаточно, поэтому сначала развернём нашу рабочую среду Working Environment в виртуальном дата-центре VMware Cloud Director.

В рабочую среду мы установим ESXi гипервизор, vCenter Server Appliance и Windows Server 2019 в качестве ManagementVM. Подготовку шаблона будем выполнять, используя интерфейс vSphere Client в рабочей среде.

2. Схема логической топологии

3. Подготовка Working Environment

3.1. Установка ESXi

В VDC создаём каталог (Libraries -> Catalogs -> New) и загружаем в него ISO с установщиком ESXi.

Создаём VM temp-ESXi1 ESXi 6.7.

Выбираем загрузку с ISO.

Назначаем VM 24 vCPU, 24 Cores per socket, 32GB RAM и 5GB Storage. Подключаем сеть к виртуальной машине.

ESXi требует для развёртывания минимум двухъядерные процессоры. Установка на 24 одноядерных vCPU завершится ошибкой, поэтому необходимо задать отличный от единицы параметр Cores per socket.

Запускаем VM.

Выполняем установку, нажимая Enter или F11

В процессе установки задаём пароль root

Нажимаем F11 и дожидаемся завершения установки

По завершению установки нажимаем Enter и перезагружаемся

Дожидаемся окончания загрузки, нажимаем F2, вводим пароль root

Переходим в настройки сети Configure Management Network.

Задаём статический IP.

Отключаем IPv6.

Перезагружаем VM для применения отключения IPv6. Для применения остальных настроек достаточно перезапуска сетевого адаптера.

В VMware Cloud Director подключаем к temp-ESXi1 ещё один диск на 1ТБ. Это будет наш Datastore. Перезагружаем VM temp-esxi1.

3.2. Установка ManagementVM

Разворачиваем VM с Windows Server 2019. Настраиваем доступ по RDP.

Подключаемся по RDP к VM c Windows Server. Устанавливаем роль DNS сервера.

Создаём Forward Lookup Zone template.local

Создаём Reverse Lookup Zone для 0.0.10.in-addr.arpa

Создаём A и PTR записи в созданных зонах для temp-esxi01 и vcentersa1.

Важно! PTR запись для vCenter должна быть обязательно. Без неё установка vCenter завершится ошибкой.

Настраиваем DNS Forwarders.

Настраиваем DNS сервер 127.0.0.1 на сетевом интерфейсе.

3.3. Установка vCenter Server Appliance

Монтируем образ VMware-VCSA-all-6.7.0-14367737.iso на ManagementVM и извлекаем из ISO E:\vcsa\VMware-vCenter-Server-Appliance-6.7.0.40000-14367737_OVF10.ova

Переходим в vcd.cloud4y.ru в свой VDC. Загружаем в каталог OVA шаблон с vCenter. Для загрузки понадобится 300 ГБ свободного места в VDC.

Получаем ошибку

В логе видим текст ошибки Validation failed for the OVF file you provided: Fatal: Line/char 867/92: cvc-minInclusive-valid: Value '-100' is not facet-valid with respect to minInclusive '0' for type 'unsignedShort'. Fatal: Line/char 867/92: cvc-attribute.3: The value '-100' of attribute 'ovf:id' on element 'OperatingSystemSection' is not valid with respect to its type, 'unsignedShort'..

VMware Cloud Director не принимает значение -100 на строке 867 *.ovf файла.

Возвращаемся на ManagementVM и с помощью архиватора 7-zip извлекаем *.ovf и *.mf файлы. OVA представляет из себя архив tar, и, как правило, содержит файлы виртуальных дисков *.vmdk, файл конфигурации VM/vApp *.ovf, список файлов в архиве и их контрольные суммы *.mf

Открываем *.ovf через текстовый редактор и ищем -100 на 867 строке и заменяем на 1

Теперь нам нужно пересчитать SHA1 для *.ovf файла и изменить это значение в *.mf файле

Для расчета хеша используем PowerShell

(Get-FileHash C:\Users\Administrator\Desktop\VMware-vCenter-Server-Appliance-6.7.0.40000-14367737_OVF10.ovf -Algorithm SHA1).Hash.ToLower()

Заменяем значение в *.mf файле

Запаковываем *.ovf и *.mf обратно в OVA шаблон

Пробуем загрузить OVA в VDC ещё раз.

По завершению загрузки разворачиваем vApp с vCenter в нашем VDC

Выделяемые ресурсы vCPU, RAM, Storage не меняем. Больше ресурсов не требуется, а при меньшем значении могут возникнуть проблемы с производительностью.

Конфигурируем сеть.

На шаге 8 ничего не меняем. Мы изменим эти параметры позже. Нажимайте Next. Если при развёртывании шаблона что-то пойдёт не так, придётся заполнять эти поля ещё раз при повторном развёртывании.

Дожидаемся окончания развёртывания и перемещаем VM в vApp vcsa + esxi для наглядности. С технической точки зрения разницы нет.

По окончанию перемещения наш vApp vcsa + esxi выглядит следующим образом.

Переходим в Guest Properties temp-vcentersa1 и нажимаем Edit

Заполняем поля, указанные в таблице ниже. Остальные поля заполнять не обязательно

Наименование параметра

Описание параметра

Значение параметра

Domain Name

Имя домена (DNS суффикс)

template.local

Host Network IP Address Family

Семейство IP

ipv4

Host Network Mode

IP Mode

static

Host Network IP Address

IP адрес vCenter

10.0.0.110

Host Network Prefix

Префикс подсети

24

Host Network Default Gateway

IP шлюза по умолчанию

10.0.0.1

Host Network DNS Servers

Адреса DNS серверов

10.0.0.102

Host Network Identity

FQDN vCenter

temp-vcentersa1.template.local

Directory Username

Логин учетной записи администратора в SSO домене. Используется для аутентификации в веб интерфейсе vCenter

administrator@vsphere.local

Directory Password

Пароль учетной записи администратора в SSO домене. Используется для аутентификации в веб интерфейсе vCenter

*пароль*

Directory Domain Name

Имя домена SSO. Должно соответствовать домену, указанному в логине учетной записи администратора

vsphere.local

Root Password

Пароль root от консоли vCenter

*пароль*

Tools-based Time Synchronization Enabled

Использовать VM Tools для синхронизации времени с гипервизором.

+

На случай, если мы где-то ошиблись в заполнении параметров, можно создать Snapshot перед первым запуском.

Запускаем VM и ждём 5-10 минут.

Через браузер с ManagementVM переходим на https://temp-vcentersa1.template.local:5480/ и дожидаемся окончания установки.

Нажимаем Set Up

Вводим пароль root, указанный ранее в Guest Properties

На шаге 2 проверяем корректность настроек. Редактируем при необходимости.

На шаге 3 создаём новый SSO домен.

Проверяем корректность параметров и нажимаем Finish.

Если установка завершится ошибкой на 2%, то проблема почти наверняка кроется в некорректно созданной PTR записи для vCenter.

Дожидаемся окончания установки

Переходим по адресу https://temp-vcentersa1.template.local:443, выбираем LAUNCH VSPHERE CLIENT (HTML5)

Вводим учётные данные Администратора SSO домена

Скачиваем сертификат CA и устанавливаем в систему https://temp-vcentersa1.template.local/certs/download.zip .

Необходимо установить сертификат download.zip\certs\win\*.crt в доверенные корневые центры сертификации ManagementVM и перезапустить браузер.

В vCenter создаём дата-центр.

В дата-центре создаём кластер.

Включаем vSphere DRS.

vSphere HA и VSAN оставляем выключёнными. C 1 ESXi гипервизором DRS работать не будет, но он должен быть включён для работы с vApp.

Переходим в Configure - > Configuration > Quickstart кластера temp-Cluster и добавляем temp-ESXi1, нажав ADD.

Выбираем наш хост temp-esxi1.template.local и вводим учётные данные root.

Принимаем его сертификат и завершаем работу с Quickstart. Нужно добавить temp-esxi1 в кластер. Продолжать настройку кластера необходимости нет.

Добавляем Datastore в наш кластер. Кликаем правой кнопкой мыши по кластеру и выбираем Storage -> New Datastore.

Выбираем тип VMFS

Задаём имя Datastore и выбираем подключенный ранее диск на 1 ТБ на temp-ESXi1.

На шаге 4 указываем использование всего раздела на 1 ТБ и завершаем работу мастера.

Выводим temp-esxi1 из Maintenance Mode

Подготовка инфраструктуры для создания шаблона завершена.

4. Создание шаблона vApp

4.1. Подготовка vApp

Кликаем на кластер правой кнопкой мыши и создаём новый vApp: vApp_vCenter6.7_3ESXi6.7_UbuntuNFS_WindowsDNS

В vApp будут следующие VM:

  1. ESXi01

  2. ESXi02

  3. ESXi03

  4. vCenterSA01

  5. WindowsDNS

  6. UbuntuNFS01

UbuntuNFS это имитация внешней СХД. На ней будет Datastore, доступный всем ESXi хостам.

ESXi0x устанавливаем из ISO. vCenterSA01, WindowsDNS, UbuntuNFS можно развернуть из OVA шаблонов.

Добавим ISO с установщиком ESXi в temp-Datastore. Переходим в Datastores -> temp-Datastore -> Files, создаём папку ISO и загружаем в неё ISO образ установщика ESXi

4.2. Создание ESXi VM в vApp

На шаге 2 задаём имя VM.

На шаге 3 выбираем vApp, в котором будут размещены VM.

На шаге 6 выбираем тип гостевой ОС.

На шаге 7 выбираем 2 vCPU, 4GB RAM, 5GB Storage и подключаем ISO. Разверните подраздел CPU и отметьте пункт Hardware virtualization.

Перейдите на вкладку VM Options и снимите отметку с пункта Secure Boot.

Клонируем VM ESXi01 в VM ESXi02 и в VM ESXI03.

Запускаем vApp и выполняем установку ESXi01, ESXi02, ESXi03.

Настраиваем на ESXi IP адреса:

ESXi01 - 10.0.0.11

ESXi02 - 10.0.0.12

ESXi03 - 10.0.0.13

На каждом ESXi хосте включаем доступ по SSH (F2 -> Troubleshooting Options - > Enable SSH)

4.3. Кастомизация ESXi в vApp

Добавим ESXi хостам возможность кастомизации сетевых параметров из интерфейса VMware Cloud Director (и vSphere Client). Для этого подключимся с помощью WinSCP к хосту, перейдём в каталог /etc/rc.local.d и откроем текстовым редактором файл local.sh

Заменим содержимое local.sh следующим скриптом:

#!/bin/sh#Customization script for ESXi01getprops_from_ovfxml() {/bin/python - <<EOSfrom xml.dom.minidom import parseStringovfEnv = open("$1", "r").read()dom = parseString(ovfEnv)section = dom.getElementsByTagName("PropertySection")[0]for property in section.getElementsByTagName("Property"):key = property.getAttribute("oe:key").replace('.','_')value = property.getAttribute("oe:value")print ("{0}={1}".format(key,value))dom.unlink()EOS}#С помощью VMware Tools получаем ovf.xml с параметрами, переданными через Guest Properties/sbin/vmtoolsd --cmd='info-get guestinfo.ovfEnv' >/tmp/ovf.xml 2>/dev/nulleval `getprops_from_ovfxml /tmp/ovf.xml`#Проверяем, что в Guest Properties включена кастомизацияif [ $enablecustomization1 = "enabled" ] ;thenesxcfg-init --set-boot-progress-text "Applying OVF customization..."#Изменяем пароль rootecho $rootpassword1 | passwd --stdin root#Задаем FQDN ESXi хостаesxcli system hostname set --fqdn=$fqdn1#Задаем настройки IPesxcli network ip interface ipv4 set -i vmk0 -I $ipaddr1 -N $netmask1 -g $defaultgateway1 -t static#Очищаем список DNS серверовesxcli network ip dns server remove -a#Добавляем DNS серверesxcli network ip dns server add --server=$dnsserver1#Перезапускаем сетевой интерфейс для применяния настроекesxcli network ip interface set -e false -i vmk0esxcli network ip interface set -e true -i vmk0esxcfg-init --set-boot-progress-text "OVF customization applied"elseesxcfg-init --set-boot-progress-text "OVF customization disabled."firm -f /tmp/ovf.xmlexit 0

Сохраним файл и выключим хост ESXi из меню выключения.

Важно: для каждого ESXi хоста применятся своя версия скрипта.

Это связано с тем, что в ovf.xml передаются все параметры Guest Properties каждой VM в vApp.

Для ESXi02 в скрипте нужно у всех переменных заменить число в конце переменной на 2.

$rootpassword1 заменить на $rootpassword2

$ipaddr1 заменить на $ipaddr2

и т.д.

Скрипт для ESXi02
#!/bin/sh#Customization script for ESXi02getprops_from_ovfxml() {/bin/python - <<EOSfrom xml.dom.minidom import parseStringovfEnv = open("$1", "r").read()dom = parseString(ovfEnv)section = dom.getElementsByTagName("PropertySection")[0]for property in section.getElementsByTagName("Property"):key = property.getAttribute("oe:key").replace('.','_')value = property.getAttribute("oe:value")print ("{0}={1}".format(key,value))dom.unlink()EOS}#С помощью VMware Tools получаем ovf.xml с параметрами, переданными через Guest Properties/sbin/vmtoolsd --cmd='info-get guestinfo.ovfEnv' >/tmp/ovf.xml 2>/dev/nulleval `getprops_from_ovfxml /tmp/ovf.xml`#Проверяем, что в Guest Properties включена кастомизацияif [ $enablecustomization2 = "enabled" ] ;thenesxcfg-init --set-boot-progress-text "Applying OVF customization..."#Изменяем пароль rootecho $rootpassword2 | passwd --stdin root#Задаем FQDN ESXi хостаesxcli system hostname set --fqdn=$fqdn2#Задаем настройки IPesxcli network ip interface ipv4 set -i vmk0 -I $ipaddr2 -N $netmask2 -g $defaultgateway2 -t static#Очищаем список DNS серверовesxcli network ip dns server remove -a#Добавляем DNS серверesxcli network ip dns server add --server=$dnsserver2#Перезапускаем сетевой интерфейс для применяния настроекesxcli network ip interface set -e false -i vmk0esxcli network ip interface set -e true -i vmk0esxcfg-init --set-boot-progress-text "OVF customization applied"elseesxcfg-init --set-boot-progress-text "OVF customization disabled."firm -f /tmp/ovf.xmlexit 0
Скрипт для ESXi03
#!/bin/sh#Customization script for ESXi03getprops_from_ovfxml() {/bin/python - <<EOSfrom xml.dom.minidom import parseStringovfEnv = open("$1", "r").read()dom = parseString(ovfEnv)section = dom.getElementsByTagName("PropertySection")[0]for property in section.getElementsByTagName("Property"):key = property.getAttribute("oe:key").replace('.','_')value = property.getAttribute("oe:value")print ("{0}={1}".format(key,value))dom.unlink()EOS}#С помощью VMware Tools получаем ovf.xml с параметрами, переданными через Guest Properties/sbin/vmtoolsd --cmd='info-get guestinfo.ovfEnv' >/tmp/ovf.xml 2>/dev/nulleval `getprops_from_ovfxml /tmp/ovf.xml`#Проверяем, что в Guest Properties включена кастомизацияif [ $enablecustomization3 = "enabled" ] ;thenesxcfg-init --set-boot-progress-text "Applying OVF customization..."#Изменяем пароль rootecho $rootpassword3 | passwd --stdin root#Задаем FQDN ESXi хостаesxcli system hostname set --fqdn=$fqdn3#Задаем настройки IPesxcli network ip interface ipv4 set -i vmk0 -I $ipaddr3 -N $netmask3 -g $defaultgateway3 -t static#Очищаем список DNS серверовesxcli network ip dns server remove -a#Добавляем DNS серверesxcli network ip dns server add --server=$dnsserver3#Перезапускаем сетевой интерфейс для применяния настроекesxcli network ip interface set -e false -i vmk0esxcli network ip interface set -e true -i vmk0esxcfg-init --set-boot-progress-text "OVF customization applied"elseesxcfg-init --set-boot-progress-text "OVF customization disabled."firm -f /tmp/ovf.xmlexit 0

После того, как мы добавили скрипты на каждый ESXi хост, через vCenter кликаем на VM -> Configure -> vApp Options -> Edit

Отмечаем пункт Enable vApp options, а на вкладке OVF Details отмечаем пункт VMware Tools. Это нужно для того, чтобы VMware Tools передали ovf.xml внутрь гостевой ОС ESXi

Переходим VM -> Configure -> vApp Options, пролистываем вниз и нажимаем ADD.

Для ESXi01 нужно добавить следующие Properties:

  1. enablecustomization1;

  2. rootpassword1;

  3. fqdn1;

  4. ipaddr1;

  5. netmask1;

  6. defaultgateway1;

  7. dnsserver1.

В поле Category указываем название подраздела, в поле Label отображамое имя параметра, а в поле Key ID имя переменной, которую обрабатывает скрипт кастомизации.

Эти параметры можно будет задать в интерфейсе VMware Cloud Director в процессе развёртывания шаблона. Скриншот для наглядности ниже.

Нажимаем ADD и добавляем Properties.

На вкладке Type мы можем выбрать тип параметра, в нашем случае все параметры строковые (String), и выбрать значение по умолчанию (Default value). Это значение будет автоматически подставлено при развёртывании шаблона.

Создаём property для каждого параметра на каждом ESXi хосте.

Корректно заполненные Properties должны выглядеть, как на скриншотах ниже.

4.4. Установка vCenter Server Appliance в vApp

Добавим OVA с vCenter Server Appliance vApp. Конфигурировать и запускать не будем.

Выбираем OVA шаблон vCenter

В процессе развёртывания оставляем все значения По умолчанию. Просто нажимаем Next на каждом этапе и дожидаемся окончания развёртывания.

Затем необходимо установить Windows Server 2019 и Ubuntu 18.04 LTS. Это можно сделать, используя ISO-образы, но я пойду более простым путём и разверну их из OVA шаблонов, предварительно скачанных из публичных каталогов VMware Cloud Director (vcd.cloud4y.ru).

4.5. Установка Windows Server 2019 в vApp

Разворачиваем Windows Server из OVA шаблона. Запускаем VM.

Включаем удалённое управление по RDP.

Устанавливаем роль DNS сервера.

Создаём Forward Lookup Zone для domain.local.

Создаём Reverse Lookup Zone для 2.168.192.in-addr.arpa.

Выключаем VM.

4.6. Установка Ubuntu 18.04 LTS в vApp

Концепция следующая:

При развёртывании шаблона в VMware Cloud Director подключаем к VM с Ubuntu 18.04 LTS дополнительный диск, форматируем его в ext4 и расшариваем в нашей подсети средствами NFS.

Настраиваем сеть. Устанавливаем обновления: apt install update && apt install upgrade -y

Устанавливаем NFS сервер: apt install nfs-kernel-server nfs-common -y

Внесём закомментированные строки, которые будет достаточно раскомментировать в случае развёртывания в стандартной конфигурации.

Редактируем /etc/fstab

Редактируем /etc/exports

Выключаем все запущенные VM в vApp.

4.7. Удаление ISO приводов и сетевых адаптеров

Переходим в настройки каждой VM и удаляем все CD-приводы и сетевые адаптеры каждой VM в vApp. CD-приводы нам более не требуются. Сетевые адаптеры удаляем во избежание конфликтов при развёртывании шаблона.

5. Выгрузка vApp шаблона из Working Environment

Выгрузка шаблона из vCenter.

Теперь мы можем выгрузить шаблон.

В случае возникновения подобного предупреждения разрешаем открытие всплывающих окон в браузере.В случае возникновения подобного предупреждения разрешаем открытие всплывающих окон в браузере.

По окончанию скачивания получаем набор файлов, готовых к загрузке в VMware Cloud Director. Общий размер 11,5 ГБ, но в VMware Cloud Director потребуется около 350ГБ, т.к. у нас используются Thin (тонкие) диски, а VMware Cloud Director рассчитывает размер не по текущему размеру диска, а по максимальному (до которого диски могут быть расширены).

6. Загрузка vApp в VMware Cloud Director

Переходим в vcd.cloud4y.ru и загружаем vApp из OVF.

Нажимаем Browse и выбираем все файлы, которые мы экспортировали из vCenter.

На последующих шагах принимаем EULA и не вносим изменений в параметры развёртывания. Нажимаем Next-> Next -> -> Finish.

Дожидаемся окончания загрузки. Теперь мы можем сохранить готовый vApp в каталог.

Надеемся, что наш туториал по подготовке шаблона vApp тестовой среды VMware vCenter + ESXi в VMware Cloud Director будет вам полезен при работе с вложенной виртуализацией и подготовке среды для неё. Да, в первую очередь информация будет полезна инженерам облачного провайдера. Но для понимания принципов работы облачной инфраструктуры статью можно прочитать и другим техническим специалистам.

Спасибо за внимание!


Что ещё интересного есть в блогеCloud4Y

Пароль как крестраж: ещё один способ защитить свои учётные данные

Тим Бернерс-Ли предлагает хранить персональные данные в подах

Виртуальные машины и тест Гилева

Создание группы доступности AlwaysON на основе кластера Failover

Как настроить SSH-Jump Server

Подписывайтесь на нашTelegram-канал, чтобы не пропустить очередную статью. Пишем не чаще двух раз в неделю и только по делу.

Подробнее..

Way to Geneve

10.04.2021 22:12:11 | Автор: admin

Хабр, привет.

Меня зовут Аркадий и я сетевой инженер в одном из сервис провайдеров. Кому интересны основные отличия VXLAN от Geneve добро пожаловать под кат. Избегая выстрела в ногу, хочу отметить, что основа статьи это выжимки из RFC и открытой информации WMware.

В NSX-T VMware уходит от Overlay на базе VXLAN в пользу Geneve. Внедрение Geneve лоббируется помимо VMWare такими компаниями как : Intel, Microsoft, Red Hat. Маркетинг называет следующую причину к Geneve : "Geneve сочетает в себе лучшее от протоколов VXLAN (Virtual Extensible LAN), NVGRE(Network Virtualization using Generic Routing Encapsulation), and STT(Stateless Transport Tunneling)." Разберем отличия нового Overlay протокола и почему ему отдано предпочтение ведущими вендорами виртуализации.

Теперь по порядку:

Geneve - туннельный протокол работающий поверх UDP (port number) для построения туннелей между NVEs (Network Virtualization Edge) через IP underlay. Описан в RFC8926, который в свою очередь заменил предшествующий драфт draft-gross-geneve 2020-11-06.

Протокол разрабатывался рабочей группой IETF с целью унификации и агрегации преимуществ протоколов VXLAN, NVGRE и STT. Недостатками которых являлись гибкость и ограниченность масштабирования в условиях стремительного развития виртуализации и сервисов на базе глобальных облачных провайдеров.

Основной задачей технологии (протокола) является виртуализация L2 домена работающего поверх базовой IP сети. Широко применяется в облачных средах, в связи с ограничениями по размеру поля VLAN Tag 802.1q в 2 ^ 12 = 4094.

Geneve

Минимальный размер заголовка Geneve составляет 8 байт.

Geneve headerGeneve header

Ver (2 bits) Версия протокола. Текущее значение 0.

Opt Len (6 bits) указание размера поля Variable Length Options. Минимальный размер заголовка + значение Opt Len = полный размер заголовка.

O (1bit) Control packet. Интерпретируется TEPs (tunnel end points). Может использоваться для передачи пакета на обработку выше по стеку.

C (1bit) Critical options present. Установленный бит указывает на необходимость парсинга опций на TEPах. На TEPах поддерживающих парсинг опций пакет должен быть отброшен.

Rsvd.(6 bits) Reserved. Значение поля должно быть = 0 при передаче пакета и игнорируемо на конечных хостах.

Protocol type (16 bits) - 0x6558 Transparent Ethernet Bridging.

VNI (24 bits) Virtual Network Identifier уникальный идентификатор сегмента виртуальной сети. Идентифицирует L2 домен которому принадлежит оригинальный Ethernet фрейм. NSX-T использует диапазон VNI от 5000 до 16777216.

Reserved (8 bits). Значение поля должно быть = 0 при передаче пакета и игнорируемо на конечных хостах.

За базовым заголовком Geneve следует поле опций в TLV формате. Каждая опция состоит из заголовка в 4 байта и данных интерпретируемых в соответствии с полем Type опции. В базовом заголовке предусмотрено поле для идентификации типа опции по организации, технологии, или вендору. Определенный блок IANA зарегистрировала для тестов и оптимизации протокола. Поле опций в заголовке Geneve по тексту RFC в большей степени предусмотрено для масштабирования протокола и возможностей оптимизации протокола разработчиками. В поле тип определено место контрольного бита (C) Critical являющегося глобальным по отношению ко всем TEPs. При обработке TEP пакета при выставленном бите C и не определенным типом опции пакет должен быть отброшен.

Хотя опции предназначены для обработки на конечных TEP, они также могут быть интерпретированы транзитными устройствами. Если обработка опций на транзитных устройствах не предусмотрена, то транзитные устройства выполняют обработку по аналогии с обычным UDP пакетом.

В сравнении с VXLAN (RFC7348)

VXLAN Header (8 bytes)VXLAN Header (8 bytes)

VXLAN Flags (8 bits) Набор флагов, в котором I должен быть выставлен в 1 для валидного VNI, R зарезервированные флаги выставленные в 0 при передаче и игнорируемы на приеме

Reserved (24 bits) - Зарезервированные флаги выставленные в 0 при передаче и игнорируемы на приеме

VNI (24 bits) - уникальный идентификатор сегмента виртуальной сети. Идентифицирует L2 домен. Размер поля такой же как у Geneve (порядка 16М номеров).

Reserved (8 bits) - Зарезервированные флаги выставленные в 0 при передаче и игнорируемы на приеме.

Ссылка на vxlan.pcap

Summary по заголовкам пакетов VXLAN и GENEVE:

Одинаковый минимальный размер заголовка 8 байт с возможность расширения Geneve за счет поля опций разной длины. Geneve обладает следующими преимуществами:

  • Поддерживает проприетарные* значения полей type, length, value;

  • Обладает гибкостью в отношении включения дополнительных метаданных в заголовок;

* ИМХО это кажется основной причиной описания нового стандарта и активного его внедения ведущими вендорами, а не маркетинговый булщит на тему сочетания в себе преимуществ предшественников.

Целиком пакет Geneve over IPv4 выглядит так:

Ссылка на Geneve.pcap

Требования к IP Underlay сетевой инфраструктуры следующие:

  • IP связность между TEP

  • Отсутствие на пути трафика блокировок UDP6081 Geneve или UDP4789 VXLAN

  • Минимальный MTU 1600 байт

Итого

Существенных различий между VXLAN и Geneve на уровне заголовков нет, равно как и на этапе инкапсуляции пакета.

Получилось достаточно кратко. В будущем планирую рассмотреть процесс построения таблиц соответствия (которых три) и этапы передачи Geneve пакета между TEP примере NSX-T.

Подробнее..

Физическая среда или виртуализация? Продолжение тестов Intel Xeon 6242R

16.12.2020 12:18:50 | Автор: admin


В предыдущей статье мы рассказывали о базовой оценке производительности новых серверов в нашем облачном проекте на примере теста Гилёва для 1С и 7zip в физической нативной среде.
Теперь же, когда мы подготовили серверы для работы в нашем виртуализованном кластере, можем поделиться результатами тестов в сравнении с результатами аналогичных тестов при установке ОС на физический сервер без использования виртуализации. Таким образом, постараемся увидеть есть ли снижение производительности и насколько оно критично (если есть). Итак, давайте начинать!

Сначала опишем что с чем сравнивали в рамках нашего небольшого эксперимента.
Физический сервер использовался один и тот же Dell PowerEdge R640 (2x Intel Xeon Gold 6242R, 12x64GB DDR4 3200MHz, 2x240GB SSD) в заводской сборке. ОС, в которой проводились тесты, была одинаковой на физическом сервере и на виртуальной машине далее это CentOS 8 (4.18.0-240.1.1.el8_3.x86_64). Для тестов в виртуальной среде использовали VMware ESXi 6.7.0, build 15160138.

Что касается характеристик сравниваемых конфигураций, получаем следующее:
1. Физический сервер:
  • 2 процессора по 20 физических / 40 виртуальных ядер (Hyper-Threading)
  • 768 ГБ оперативной памяти (на самом деле объём критической роли не играет)
  • Около 240ГБ полезного пространства на диске С

2. Виртуальная машина:
  • 2 виртуальных процессора по 40 виртуальных ядер
  • 64 ГБ оперативной памяти (достаточный объём для тестов)
  • Около 200ГБ полезного пространства на диске С

Какими тестами будем проверять?
Ограничимся здесь следующим набором тестов:
  1. Sysbench
  2. 7zip
  3. Geekbench

Важный момент: все тесты проводились с включенным Turbo Boost и параметрами максимальной производительности в BIOS. Режим энергопотребления для ESXi Balanced (по умолчанию).

Итак, какие же получились результаты:
1. sysbench --test=cpu --num-threads=40 run
На физическом сервере...
sysbench 1.0.20 (using bundled LuaJIT 2.1.0-beta2)

Running the test with following options:
Number of threads: 40
Initializing random number generator from current time

Prime numbers limit: 10000

Initializing worker threads...

Threads started!

CPU speed:
events per second: 47238.17

General statistics:
total time: 10.0009s
total number of events: 472487

Latency (ms):
min: 0.68
avg: 0.85
max: 1.46
95th percentile: 0.99
sum: 399892.63

Threads fairness:
events (avg/stddev): 11812.1750/824.36
execution time (avg/stddev): 9.9973/0.00


На виртуальной машине...
sysbench 1.0.20 (using bundled LuaJIT 2.1.0-beta2)

Running the test with following options:
Number of threads: 40
Initializing random number generator from current time

Prime numbers limit: 10000

Initializing worker threads...

Threads started!

CPU speed:
events per second: 46474.85

General statistics:
total time: 10.0009s
total number of events: 464850

Latency (ms):
min: 0.74
avg: 0.86
max: 53.87
95th percentile: 1.01
sum: 398802.05

Threads fairness:
events (avg/stddev): 11621.2500/1156.95
execution time (avg/stddev): 9.9701/0.02

Если коротко, результаты можно оформить в следующую таблицу:
Параметр Сервер ВМ Разница
Events per second 47238.17 46474.85 -1.62%
Latency (avg) 0.85 ms 0.86 ms +1.2%

Не такая уж большая разница Посмотрим, что дальше.

2. 7zip
На физическом сервере...
7-Zip (a) [64] 16.02 : Copyright (c) 1999-2016 Igor Pavlov : 2016-05-21
p7zip Version 16.02 (locale=en_US.UTF-8,Utf16=on,HugeFiles=on,64 bits,80 CPUs Intel(R) Xeon(R) Gold 6242R CPU @ 3.10GHz (50657),ASM,AES-NI)

Intel(R) Xeon(R) Gold 6242R CPU @ 3.10GHz (50657)
CPU Freq: - - - - - - - - -

RAM size: 772271 MB, # CPU hardware threads: 80
RAM usage: 17650 MB, # Benchmark threads: 80

Compressing | Decompressing
Dict Speed Usage R/U Rating | Speed Usage R/U Rating
KiB/s % MIPS MIPS | KiB/s % MIPS MIPS

22: 219383 7214 2959 213417 | 2433655 7750 2678 207532
23: 207598 7028 3010 211518 | 2418901 7873 2660 209301
24: 204763 7174 3069 220162 | 2364952 7826 2652 207568
25: 198526 7168 3162 226669 | 2384016 7909 2682 212138
---------------------------------- | ------------------------------
Avr: 7146 3050 217941 | 7839 2668 209135
Tot: 7493 2859 213538


На виртуальной машине...
7-Zip (a) [64] 16.02 : Copyright (c) 1999-2016 Igor Pavlov : 2016-05-21
p7zip Version 16.02 (locale=en_US.UTF-8,Utf16=on,HugeFiles=on,64 bits,80 CPUs Intel(R) Xeon(R) Gold 6242R CPU @ 3.10GHz (50657),ASM,AES-NI)

Intel(R) Xeon(R) Gold 6242R CPU @ 3.10GHz (50657)
CPU Freq: 3769 3775 3772 3772 3773 3771 3772 3772 3772

RAM size: 64134 MB, # CPU hardware threads: 80
RAM usage: 17650 MB, # Benchmark threads: 80

Compressing | Decompressing
Dict Speed Usage R/U Rating | Speed Usage R/U Rating
KiB/s % MIPS MIPS | KiB/s % MIPS MIPS

22: 190208 6089 3039 185035 | 2001333 6449 2646 170665
23: 179252 5785 3157 182637 | 2077835 6995 2570 179789
24: 184889 6251 3181 198793 | 2069792 7037 2582 181662
25: 192625 6794 3237 219932 | 2157590 7441 2580 191990
---------------------------------- | ------------------------------
Avr: 6230 3154 196599 | 6981 2595 181027
Tot: 6605 2874 188813


Результаты кратко:
Параметр Сервер ВМ Разница
Total CPU usage % 7493 6605 -11.8%
Total R/U MIPS (normalized 100% CPU usage) 2859 2874 +0.5%
Total MIPS 213538 188813 -11.6%

Здесь результаты уже интереснее. Видим, что MIPS напрямую коррелирует с показателем Usage. Возможно, 7zip как-то учитывает частоту процессора, которую определяет гостевая ОС. Так как Turbo Boost аппаратная технология, она не транслируется на уровень ОС виртуальных машин, а доступна лишь гипервизору. Однако, фактическая используемая частота каждого ядра ВМ может легко достигать значений частот в режиме Turbo Boost. Это видно в esxtop.

3. Последний у нас на очереди сегодня Geekbench 5. Смотрим, что получилось.
Физический сервер: browser.geekbench.com/v5/cpu/5147653
Виртуальная машина: browser.geekbench.com/v5/cpu/5261298
Параметр Сервер ВМ Разница
Single-Core Score 1186 1052 -11.3%
Multi-Core Score 31093 28872 -7.1%

Вот такие получились результаты. Какие-то конкретные выводы отсюда сделать сложно. Можно лишь заметить, что итоговая производительность конкретного приложения зависит от многих факторов и не всегда правильно настроенная виртуальная среда и гостевая ОС дадут просадку в производительности, как мы видим на примере результатов Sysbench.
Ну и, конечно же, не стоит забывать о преимуществах виртуализации в целом (более высокая плотность размещения сервисов, снижение капитальных и операционных затрат, оптимизация энергопотребления, скорость развёртывания и восстановления сервисов).

Надеюсь, статья была для вас интересной и полезной. Ну а мы пошли добавлять этот хост в наш кластер!
Подробнее..

Lenovo ThinkAgile VX VMware vSAN ЦОД в коробке

20.11.2020 16:08:20 | Автор: admin
Еще один тяжеловес сервер VX3520-G, основной задачей которого является графический VDI.

Этот сервер выполнен в 2U корпусе, поддерживает до 2-х процессоров Intel Xeon Scalable 2-го поколения и 3ТБ RAM. На передней панели предусмотрено 16 отсеков для дисков SAS/SATA 2,5 дюйма, 2 БП сзади, 2 или 4 встроенных порта 10 GbE и 6 PCIe слотов, но это все не главное.

Главное в этом сервере это наличие графических адаптеров NVIDIA. Графическая подсистема поддерживает следующие конфигурации:

  • До 2-х адаптеров NVIDIA Tesla M10, M60, MI25, или V340;
  • До 3-х адаптеров NVIDIA Quadro P620 или Tesla P4000, V100;
  • До 4-х адаптеров NVIDIA Tesla T4.

Сервер позволяет запускать в гиперконвергентной инфраструктуре виртуальные рабочие станции, которые требуют графических вычислений, что идеально подходит для конструкторских бюро или производственных компаний.

Следующий сервер в модельном ряду VX5520. Это сервер в корпусе 2U, который предназначен для работы с большим объемом данных. По начинке он очень похож на предыдущий сервер из модельного ряда, но основное отличие от VX3520-G это то, что сервер VX5520 заточен под объем, а не под графику.




Естественным продолжением модельного ряда являются два сервера, которые также нацелены на высокую производительность это VX7320-N и VX7520.

VX7320-N это одноюнитовый сервер высокой производительности. Так же, как и в предыдущих моделях, поддерживается работа одного или двух процессоров Intel Xeon Scalable 2-го поколения и до 3 ТБ оперативной памяти. В передней панели поддерживается установка 10 NVMe U2 дисков для обеспечения ультравысоких нагрузок. На задней панели, как и в других моделях, предусмотрены отказоустойчивые блоки питания, опциональная LOM-карта для 10-гигабитных портов и 3 PCI-e разъема.




Финальная модель VX-серии VX7520, которая является улучшенной версией VX7320-N с точки зрения дисковой подсистемы.




Этот сервер 2U, выполненный на аналогичной предыдущим серверам платформе, позволяет установить 24 SAS SSD или NVMe диска 2.5 дюйма, тем самым получив максимальную производительность дисковой подсистемы. Как и в других двухюнитовых моделях, в нём предусмотрена LOM-карта для 10-гигабитного Ethernet + 6 PCI-e слотов для дополнительных карт.

С детальными техническими характеристиками всех моделей серверов VX можно ознакомиться по ссылке: https://lenovopress.com/ds0023_RU.pdf

Теперь давайте смотреть, что входит в каждую из представленных моделей:

  1. Непосредственно сам сервер VX-серии;
  2. Установленные и преднастроенные VMware ESXi и VMware vSAN;
  3. Специализированная поддержка Lenovo ThinkAgile Advantage;
  4. Стандартная гарантийная поддержка Lenovo 3 года с заменой оборудования в рабочее время на следующий рабочий день.

Таким образом компания Lenovo совместно с компанией VMware существенно упрощает решение задач по внедрению гиперконвергентных систем. Серия серверов ThinkAgile VX позволяет решать все известные задачи от небольших инфраструктур для корпоративных сервисов до высокопроизводительных VDI-кластеров с поддержкой графических виртуальных рабочих станций и высококритичных бизнес-приложений.

В данный компания Lenovo готова предоставить серверы VX-серии в демо-доступ, чтобы заказчики смогли по достоинству оценить все возможности современных гиперконвергентных систем. Записаться на демо можно по ССЛКЕ.

А если вы хотите узнать еще больше о гиперконвергентной платформе Lenovo на базе VMware vSAN, то записывайтесь на наш вебинар 26 ноября 2020 года ЗДЕСЬ.
Подробнее..

Организация удалённой работы BIM-команды посредством HPE Edgeline, NVIDIA, VMware

11.04.2021 12:12:58 | Автор: admin

В РФ ведётся широкое внедрение цифрового строительства и использование цифровых моделей здания (BIM building information modelling) на законодательном уровне. Например, с 18 марта 2021г. вступило в действие Постановление Правительства РФ от 05.03.2021 331 "Об установлении случая, при котором застройщиком, техническим заказчиком, лицом, обеспечивающим или осуществляющим подготовку обоснования инвестиций, и (или) лицом, ответственным за эксплуатацию объекта капитального строительства, обеспечиваются формирование и ведение информационной модели объекта капитального строительства". Выбор технической базы для внедрения новой технологии должен быть оправдан технико-экономическим обоснованием. Подобными исследованиями занимаются зарубежные интеграторы. Данная заметка является вольным переводом исследования от независимого системного архитектора Томаса Поппельгаарда.

В настоящее время BIM-инженеры прикованы к столу. В теории, преимущества замены физических рабочих станций на удаленные налицо. Во-первых, инженеры перестают быть привязанными к физическому рабочему месту. Во-вторых, можно присоединить больше устройств к центральной сети. В-третьих, со стороны локальной сети компании обеспечивается большая централизация вычислений; большие возможности масштабировать телекоммуникационную сеть для графических задач; и проще обеспечить защиту информации. В-четвёртых, решается вопрос организации общего доступа к файлам для рабочей группы. Организация удалённой работы осложняется тем, что со стороны системных администраторов затруднительно масштабировать серверную платформу. Объём данных растёт; они постоянно меняются; и много ресурсов сети занимает синхронизация между сервером и пользователями.

Новые предложения от компании HPE имеют расширенные возможности графического процессора с HPE Proliant m750 и предоставляют выделенный графический процессор от NVIDIA, адаптированный для видеокарт NVIDIA P1000 или NVIDIA T4. Это решение разработано для удовлетворения требований опытных дизайнеров, архитекторов и 3D-дженералистов.

Для организации удалённой работы с высокопроизводительными графическими приложениями HPE имеет 3 аппаратных решения в различных исполнениях по форм-фактору:

  • HP Moonshot 1500;

  • HPE Edgeline EL4000;

  • HPE Edgeline EL8000 / EL8000t.

VMware уже поддерживает установку на серверах без предустановленной операционной системы (bare-metal). Применительно к BIM, данный функционал требует внимательного рассмотрения. 4 недели назад HPEобъявило об официальной поддержке выпускаемого ПО VMware Horizon на bare-metal в HPE Moonshot.

Архитектура HPE Edgeline и VMware Horizon 8

HPE Edgeline и VMware Horizon показывают на рисунке ниже, что вы можете использовать VMware Horizon cloud, но он также полностью поддерживается инфраструктурой On-Premise VMware Horizon, если у вас есть для этого требования. Вы можете использовать тонкий клиент от HP 740, который является лучшим аппаратным тонким клиентом на рынке, который также может декодировать несколько мониторов 4K без каких-либо неудобств для пользователя. Самое замечательное в нижеприведенной архитектуре заключается в том, что вы можете иметь 4 физических рабочих станции в 1U, установленных в вашем центре обработки данных или ином расположении, без ущерба для пользовательской виртуализации. Сила bare-metal в том, что вы выжать максимум от возможностей оборудования. Функциональная схема такой системы показана ниже.

В зависимости от ваших требований HP предлагает очень гибкое решение на новых платформах. Рассмотрим каждую новинку по отдельности.

Коротко о HPE Proliant m750

В модели HPE m750 установлен 8-ядерный процессор AMD16-core с технологией Hyper-threading, что вдвое больше по сравнению с оборудованием, выпущенными за последние 7 лет. Это пригодится пользователям, которым требуется многопоточность, и тем, кто работает с HCI или виртуализацией. Платы также могут быть сконфигурированы с NVMe емкостью до 16 ТБ, что наводит на мысли о невероятно малом форм-факторе и о том, как мало энергии он потребляет (максимум 90 Вт). HP m750 также работает под управлением любой операционной системы и гипервизора. Также он использует iLO 5, используя который системный администратор имеет большее удобство в управлении сервером.

Коротко о NVIDIA T4

NVIDIA T4 - это однослотовый графический процессор от NVIDIA, использующий архитектуру Тьюринга от NVIDIA и являющийся частью серии Quadra. Этот графический процессор обладает возможностями RTX и адаптирован для трассировки лучей в реальном времени. Графический процессор имеет 16 ГБ выделенного кадрового буфера GDDR6, который требуется для высокопроизводительных САПР-приложений. Драйвера Nvidia Т4 могут быть использованы и в bare-metal, и на виртуальных машинах. В сочетании с NVIDIA vGPU буфер кадров может быть разделён на сегменты от 2 ГБ до 16 ГБ. Это означает, что вы можете запустить до 8 виртуальных пользователей. Идея в том, чтобы дать пользователю выделенную мощность m750 (5 ГГц CPU 8c/16c, до 16 ТБ NVMe, объём памяти 64 ГБ) и заставить его перейти в удалённый центр обработки данных. NVIDIA T4 требует лицензий vGPU как в установке bare-metal, так и в виртуализированной среде.

Тестирование HPE Edgeline m750 + GPU от Nvidia с VMware

Для тестирования были выбраны следующее оборудование: HPE m750 с процессором Intel Xeon и встроенным графическим процессором Intel P630, NVIDIA P1000. В качестве программного обеспечения, устанавливаемого на серверную платформу, использовались Windows 10 1909 и VMware Horizon 8.

Суммарный перечень программ, используемых в тестировании на быстродействие удалённого рабочего места:

  • Adobe Photoshop CC 2020 с дополнением Puget System;

  • Autodesk Inventor Professional 2020 с дополнением Inventor;

  • Furmark (OpenGL);

  • SPECworkstation 3;

  • SPECviewPerf3;

  • Basemark GPU;

  • Unigine Superposition.

Итог тестирования

Гибкость развертывания bare-metal (m750/P1000) или сборки с виртуализацией (m750/T4) измерялась в зависимости от требований приложения и по показателю изменения соотношения вычислений к загрузке графического процессора. Виртуализация на EL4000/m750/T4 оказалась экономически эффективным методом централизации и предоставления удаленного доступа для пользователей САПР малого и среднего бизнеса. Вы можете использовать либо 1-2 блока EL4000 настенного монтажа для небольшого числа пользователей (до 32), либо укладывать до 20 блоков в стойку для смешанного развертывания до 300 пользователей. Как оборудование будет располагаться в 19" стойке отражено на картинке ниже.

Для программ Autodesk Revit 2020, Autodesk Navisworks 2020, Autodesk Inventor 2020, Autodesk 3DSMax 2020 HP T740 обеспечивает лучшее отображение на 2-х 4K-мониторах при работе пользователя VMware Blast Extreme для m750 с NVIDIA P1000. У пользователя есть возможность работать с HP Thinpro с помощью клиента VMware Horizon. NVIDIA P1000 обеспечивает отличную работу с BIM-образцами средней детализации. Если клиентам требуются более крупные наборы данных, то NVIDIA T4 является предпочтительным выбором для использования с HPE m750. NVIDIA vGPU является предпочтительным выбором, если клиенты хотят масштабировать свой центр обработки данных и достичь высокой плотности пользователей виртуальных машин с максимальной производительностью.

В процессе тестирования наблюдалось изменение полосы пропускания с пиками до 30 Мбит/с на пользователя при изменении масштаба или вращении больших визуальных объектов в САПР-приложениях. Протокол VMware blast адаптируется и оптимизируется из коробки в последней версии с 2D/3D приложениями и не требует настройки оптимизации. При переходе от dual HD к dual 4K следует учитывать, что пропускная способность будет использоваться в 4 раза больше.

Рекомендации

Решение 1 предназначено для клиентов, которые хотели бы использовать процессор 5 ГГц для приложений с высокими требованиями производительности и для работы с 2D-графикой на отдельном процессоре. Например, AutoCAD, 4K video, Office365. Предлагаемый сервер вместе с VMware Horizon обеспечивает отличную производительность даже на мониторах 4K, где VMware обеспечивает аппаратную возможность декодирования как с процессором, так и с графическим процессором.

Решение 2 предназначено для клиентов, использующих базовые возможности САПР таких как AutoCAD, Revit, Navisworks, Inventor. Видеокарта NVIDIA P1000 обеспечивает отличную производительность с VMware Horizon и декодированием GPU из коробки на мониторах 4K.

Решение 3 предназначено для клиентов, которые использующих расширенные возможности работы с AutoCAD, Revit, Navisworks, Inventor. Виртуализация m750, сочетание технологии NVIDIA T4 с технологией vGPU, работающей на VMware vSphere - отличное решение, масштабируемое от 4 до 32 пользователей. Клиенты получают лучшую производительность за эти деньги, так как они могут эффективно использовать аппаратное обеспечение. Трассировка лучей в реальном времени также поддерживается NVIDIA vGPU но для более высоких рабочих нагрузок рекомендуется использовать большие фреймбуферы.

Решение 4 предназначено для клиентов, использующих высокопроизводительные приложения, такие как Autodesk VRED, Maya, Arnold, 3DSMax или Dassault Catia. Решение полностью поддерживает трассировку лучей в реальном времени, поскольку графический процессор NVIDIA T4 способен обеспечить эти возможности. Это решение также предпочтительно, если клиенты хотят использовать VR-решения, такие как NVIDIA CloudXR, где они могут объединить его с VMware Horizon.

Подробнее..

Перевод Истоки виртуализации

03.11.2020 20:15:07 | Автор: admin

Внимание, вопрос: кто стоял у истоков виртуализации? При всей любви к продуктам этой компании, ответ VMware будет неверен. Пионерами на этом рынке были General Electric, Bell Labs и IBM.

Сотворение виртуальной машины

Уже в начале шестидесятых портфолио IBM насчитывало десятки различных систем. Каждое новое поколение разительно отличалось от предыдущего. Покупатели рвали на себе волосы в тщетных попытках поспеть за всеми инновациями и требованиями нового железа. Кроме того, в те годы еще была актуальна парадигма один компьютер за один присест выполняет только одну задачу. Вам нужно больше? Будьте добры прибегнуть к пакетной обработке (batch processing), когда одно задание выполняется на ЭВМ вслед за другим без вмешательства оператора. Неудобно, правда? Но специалисты IBM не считали это проблемой. Большая часть пользователей их машин принадлежала к научному сообществу. Им вполне хватало.

Но разнообразие систем понемногу начало досаждать IBM. Компания приняла решение заместить свой технологический зоопарк новым мейнфреймом S/360, который ко всему прочему обладал бы обратной совместимостью. Предполагалось, что компьютер будет однопользовательским и сможет работать с пакетами задач.

К первому июля 1963 года эта концепция развалилась. MIT анонсировал Project MAC Mathematics and Computation, а не то, о чем вы могли бы подумать. Более поздняя расшифровка этого названия звучит как Multiple Access Computer. Финансировался проект щедрым грантом DARPA объемом в $2 млн средства были выделены в том числе на изучение особенностей и перспектив компьютеростроения в основном, в области разработки операционных систем, искусственного интеллекта и теории вычислений. А новый грант это новые задачи. И, соответственно, новый компьютер, который сможет с ними справиться. MIT требовалась не простая, а многопользовательская машина. Первое, о чем подумали инженеры почему бы не заказать готовый компьютер у GE или IBM?. Однако IBM на тот момент пребывала в уверенности, что спроса на машины с разделением времени практически нет. А модифицированную под все хотелки версию стокового IBM-компьютера в MIT покупать не хотели. GE, напротив, с удовольствием приняла предложение MIT и решилась взяться за разработку многопользовательской машины.

И тут оказалось, что спрос на такие машины на рынке есть. Притом весьма солидный даже в Bell Labs заинтересовались в их приобретении. Тревожный звоночек.

В ответ на предложения от MIT и Bell Labs в IBM была срочно разработана и выпущена CP-40. Это первая операционная система, которая реализовывала полную виртуализацию. CP-40 была предназначена специально для IBM S/360 model 40 и поддерживала до 14 виртуальных машин c 256 Кб виртуальной памяти одновременно.

Параллельно с CP-40 была разработана программа CMS. Она обеспечивала среду для запуска приложений и взаимодействия с пользователями. CMS была крохотной интерактивной ОС для одного пользователя. Вся магия виртуализации обеспечивалась именно CP. Суть в том, что CP запускалась на мейнфрейме и создавала N-ное количество виртуальных машин под управлением CMS. Первый релиз CP/CMS состоялся в 1968-ом году, а к 1972-му на рынок была выпущена ее стабильная версия.

Традиционно компьютеры с таймшерингом поровну делили между несколькими пользователями процессорное время, память и прочие ресурсы. Характерный пример ОС MultiCS, разработанная в MIT для Project MAC. Позднее она была передана в Bell Labs, где впоследствии эволюционировала в Unix.

Подход CP был существенно проще и удобнее для пользователя: каждый, кто садился за компьютер, получал свою собственную машину. Выгода заключалась в том, что виртуальные машины имели доступ сразу ко всем ресурсам мейнфрейма, а не запирались в урезанном выделенном сегменте. Кроме того, это было более безопасно и надежно: никто не мог залезть в чужую ОС или уронить сразу весь мейнфрейм.

Вслед за CP-40 была разработана ОС CP-67. Именно ее можно назвать первым промышленным гипервизором. Позднее CP-67 эволюционировала в VM/370 для мейнфрейма S/370.

Переносимость программного обеспечения

Чуть выше мы упомянули Unix. Несмотря на то, что эта ОС не умеет запускать гостевые операционные системы, она подойдет для иллюстрации другого свойства ПО.

Unix умеет в виртуализацию на уровне пользователя или рабочего пространства. Несколько человек делят между собой процессор, память, жесткий диск и прочие ресурсы, но каждый из них имеет собственный профиль, независимый от всех прочих.

В зависимости от конфигурации системы пользователь может установить собственный набор дополнительного ПО и управлять политиками безопасности. Но не только этим славна Unix де-факто, это первая операционная система, открывшая дорогу к виртуализации приложений.

Все ее предшественники писались на голом языке ассемблера, что намертво привязывало их к конкретному компьютерному железу. В то же время C, на котором была написана Unix, позволял портировать ее на любой компьютер с куда меньшими усилиями. Достаточно было переписать специфичные участки кода и перекомпилировать ОС для новой платформы. Переносимость сделала Unix самой популярной системой своего времени.

Виртуализация приложений

Любой искушенный пользователь Unix, владеющий компиляторами C, мог без труда запустить любую программу на любом компьютере. Удобно? Почти. Осталось найти способ переносить приложения между компьютерами, минуя процесс компиляции. То есть виртуализировать их.

В 1990 году Sun Microsystems запустила проект Stealth. Он был инициирован инженерами компании, которым не нравился подход Sun к использованию API C и C++. Они были уверены в том, что есть лучший способ писать и запускать приложения. Проект несколько раз переименовывали среди версий были даже экзотичные Oak и Web Runner. Как вы уже наверняка догадались, в 1995 году проект достиг релиза под окончательным именем Java.

Планировалось, что наибольшее применение Java найдет во всемирной паутине. Интернет это колоссальная сеть, состоящая из компьютеров, работающих под разными операционными системами. Платформа, которая позволит запускать одни и те же приложения на всех этих машинах без необходимости переписывать и перекомпилировать их, была обречена на успех. В 1996 году в свет вышел Java Development Kit (JDK).

Java был уникален в своем роде. Можно было запустить написанную на нем программу на любом компьютере с установленной бесплатной Java Run-Time Environment (JRE).

Говоря упрощенно, Java работает так: сначала написанная программа компилируется в байт-код Java. Это своеобразный язык-посредник, с которым умеет работать JRE. Непосредственно в момент запуска программы JRE компилирует программу из байт-кода для целевого железа. Программисту не надо заботиться о том, для какого железа и какой ОС он пишет код, а пользователю не приходится заниматься компиляцией.

JRE включает в себя массу компонентов, наиболее интересным из которых является Java Virtual Machine. Любое приложение запускается именно в ней. Можно представить себе JVM как очень маленькую ОС, созданную для того, чтобы запускать Java-приложения. Заботы о портировании JVM для всех мыслимых устройств Sun/Oracle берет на себя. Тем не менее, этот подход имеет известные ограничения.

Широкое распространение аппаратной виртуализации

Как было сказано выше, IBM первой применила концепцию виртуальных машин в коммерческой среде. Виртуальные машины, подобные тем, что запускались на мейнфреймах IBM, до сих пор используются, хотя большинство компаний отказались от мейнфреймов.

Еще в январе 1987 года Insignia Solutions продемонстрировала программный эмулятор под названием SoftPC. Он позволял запускать приложения DOS на рабочих станциях под управлением Unix. Это был невероятный цифровой подвиг. В то время ПК, способный запустить MS-DOS, стоил порядка $1500, а использование SoftPC обходилось всего в $500.

К 1989 году Insignia Solutions выпустила версию SoftPC для Mac. В этой версии была добавлена возможность запускать приложения Windows. К 1994 году Insignia Solutions начала продавать свое программное обеспечение с разными предустановленными операционными системами в том числе с SoftWindows и SoftOS/2.

Успех SoftPC вдохновил и других игроков. В 1997 году Apple создала программу под названием Virtual PC и начала распространять ее через компанию Connectix. Virtual PC, как и SoftPC, позволял пользователям запускать копию Windows на Mac, это позволило обойти проблему несовместимости программного обеспечения. А в 1998 году была основана всемирно известная компания VMware. Год спустя на рынок вышла первая версия VMware Workstation. Сначала она была доступна только в Windows, но позже добавилась поддержка других операционных систем.

VMware достойна упоминания хотя бы потому, что на данный момент это безусловный лидер рынка виртуализации. В 2001 году VMware выпустила два новых продукта для корпоративного сегмента: ESX Server и GSX Server. GSX Server позволял пользователям запускать виртуальные машины поверх существующей операционной системы, например Microsoft Windows. Это так называемый гипервизор 2-го типа. ESX Server, гипервизор 1-го типа, не требует наличия ОС-хоста.

Гипервизоры 1-го типа намного более эффективны, поскольку для их работы не требуется выделять ресурсы на запуск основной системы. Кроме того, они традиционно более гибки в настройке.

После выпуска ESX Server в 2001 году в корпоративном сегменте наметился экспоненциальный рост интереса к виртуализации. VMware добавила много дополнительных продуктов для улучшения функционала ESX Server.

Появились и другие поставщики ПО для виртуализации. В 2003 году Microsoft приобрела Connectix, и Virtual PC была переиздана. Сначала под брендом Microsoft Virtual PC 2004, затем Microsoft Virtual Server 2005.

В 2007 на рынке виртуализации появился еще один игрок Citrix Inc. Компания приобрела XenSource, платформу виртуализации с открытым исходным кодом, созданную в 2003 году, и вскоре после этого переименовала продукт в XenServer.

Публикация приложений

Во времена UNIX доступ к опубликованным приложениям можно было получить через Telnet, а затем SSH.

Windows и OS/2 не давали удаленного доступа к приложениям без использования сторонних инструментов. А существовавшее специализированное ПО было доступно только одному пользователю за раз.

Кому-то в IBM пришла в голову идея создать многопользовательский интерфейс для OS/2, однако боссам компании идея не пришлась по вкусу. В 1989 году Эд Якобуччи ушел из IBM и основал собственную компанию под названием Citrus. Вскоре компания была переименована в Citrix, комбинацию Citrus и Unix.

Citrix получила лицензию на исходный код OS/2 и приступила к созданию программного расширения для нее. Два года спустя OS/2 таки получила многопользовательский интерфейс MULTIUSER.

В 1991 году Microsoft объявила об окончании поддержки OS/2, и Citrix пришлось свернуть проект. Однако полученный опыт позволил переориентироваться на создание подобного ПО, но уже для Windows.

В 1993 году Citrix приобрела Netware Access Server у Novell. В 1995 году этот продукт начал продаваться под именем WinFrame. WinFrame представляла из себя Windows NT 3.5 с возможностями удаленного доступа. Сразу несколько пользователей могли одновременно подключиться к ней для удаленного запуска приложений.

Во время разработки WinFrame для Windows NT 4.0 Microsoft отказала Citrix в лицензии, и продукт по соглашению сторон был интегрирован в Windows NT 4.0 в качестве набора служб терминалов. Citrix согласилась не создавать конкурирующий продукт, но получила возможность расширить функциональные возможности служб терминалов.

Виртуальные рабочие столы

Виртуальные рабочие столы в их современном понимании это весьма молодая тема. В чем-то их концепция похожа на то, что IBM предложила в далеких 1960-х. Каждый пользователь получает собственную выделенную ОС и может делать в ней всё, что ему заблагорассудится, не подвергая опасности других пользователей в системе.

Переход от виртуальных рабочих столов на мэйнфреймах к виртуальным рабочим столам в том виде, в каком мы их знаем сегодня, на самом деле произошел только в 2007 году, когда VMware представила свой продукт для VDI. В принципе, сотрудники компаний и ранее могли пользоваться виртуальными рабочими столами в качестве основного ПК, но это было сопряжено с массой административных сложностей. А появление Virtual Machine Manager и аналогичных продуктов дало мощный старт целому направлению в области виртуализации.

В будущих статьях мы подробно рассмотрим самые интересные аспекты истории виртуализации поговорим и о железе, и о знаковых программных решениях.

Подробнее..

Первые шаги VMware GSX Server и ESX Server

11.12.2020 20:11:43 | Автор: admin

Этой небольшой статьей-заметкой мы хотели бы завершить серию публикаций, посвященных истории виртуализации в Enterprise-сегменте рынка. Сегодня поговорим о VMware, компании, которая на сегодняшний день является фактическим законодателем в мире виртуализации. Давайте посмотрим, как выглядели одни из самых ранних продуктов VMware: GSX и ESX.

VMware была основана в 1998 году. Её первым коммерчески успешным продуктом считается VMware Workstation, выпущенный в 1999 году и предназначенный для работы на клиентском железе.

Для серверных рабочих нагрузок в следующие 2 года был с нуля разработан продукт VMware GSX Server. Его название это сокращение от более длинного рабочего имени Ground Storm X. Первая коммерческая версия 1.0 датируется 2001-м годом. Устанавливалась она поверх Windows Server или SUSE Linux, что характеризует ее как гипервизор 2-го типа.

Усовершенствованная версия GSX Server 2.0 увидела свет через год, летом 2002-го. Под своим оригинальным именем продукт просуществовал вплоть до декабря 2005-го, когда была выпущена последняя коммерческая версия 3.2.1.

Гипервизор завоевал популярность благодаря широкому списку поддерживаемого оборудования (от сервера до обыкновенного десктопа) и простоте установки и первичной настройки. Кроме того в GSX наличествовали встроенные NAT и DHCP-сервер, что существенно облегчало процесс настройки сети.

Затем GSX Server был переименован в VMware Server и стал распространяться совершенно бесплатно. В списке поддерживаемых гостевых систем появились и 64-битные ОС, а гипервизор получил возможность выделять машинам несколько vCPU. VMware Server появилась 12 июля 2006-го и официально поддерживалась вплоть до 2011-го.

Сладкий плод виртуализации понравился инженерами VMware. Гипервизоры 2-го типа это хорошо, но 1-й тип способен дать гораздо больше возможностей!

Параллельно с GSX Server шла разработка нового гипервизора типа 1. В отличие от предшественника, его уже можно было установить на голое серверное железо без ОС-посредника.

Продукт получил рабочее название VMware Scalable Server. В настоящее время он известен уже под именем ESXi. Ниже приводим скриншот, приблизительно датированный 1999-2000 годом.

Уже совсем скоро, к 2000-му, проект получил новое название: VMware Workgroup Server. А в марте 2001-го компания официально выпустила VMware ESX 1.0 Server. ESX это аббревиатура от Elastic Sky X. Забавно, но придумали его вне стен VMware. Сотрудники компании прекрасно разбирались в компьютерах, но ничего не смыслили в рекламе и маркетинге. Специально нанятое агентство предложила лаконичный вариант Elastic Sky. Инженеры взбунтовались: как это, новый коммерческий продукт, в названии которого нет ни малейшей технарской изюминки?!

И добавили в конце загадочный X. Почему? Вероятно, чтоб никто не догадался!. Да и звучит более круто. Забавно, как точно это имя попало в цель: вряд ли в далеком 2001-м кто-то придумывал его с оглядкой на облачные вычисления.

Впоследствии вокруг нового продукта сформировался целый отдел, самым известным сотрудником которого был Джон Аррасджид, один из авторов и ведущий архитектор vCloud Architecture Toolkit (vCAT).

VMware ESX Server стал первым на рынке гипервизором 1-го типа для Intel x86. В нем были впервые реализованы многие функции, ставшие едва ли не стандартом: живая миграция виртуальных машин, High Availability, автоматический балансировщик нагрузки, инструменты управление питанием и т.п.

В течение нескольких лет ESX и GSX были одновременно доступны широкой аудитории. GSX целился в более приземленную аудиторию: малый бизнес, небольшие государственные учреждения, в то время как ESX стал флагманским продуктом для Enterprise-сектора. Однако по-настоящему серьезно ESX начал использоваться лишь к 2006 году.

Среди прочего ESX имел сервисную консоль. Ее роль выполняла виртуальная машина на Linux, через которую можно было управлять хостом и другими ВМ. Для установки дополнительно программного обеспечения сторонних производителей (например, сервисов резервного копирования) предполагалось использовать программы-агенты.

Еще до того, как ESX начал серьезное распространение в бизнес-среде, началась разработка его преемника, уже без сервисной консоли. К сентябрю 2004-го внутри компании состоялась презентация первой полнофункциональной версии продукта под названием VMvisor (VMware Hypervisor). Через 3 года этот продукт появится на рынке под общеизвестным именем ESXi.

На выставке VMworld 2007 компания представила VMware ESXi версии 3.5. Прошлые версии программы существовали только в недрах VMware и не демонстрировались широкой публике.

ESXi занимает гораздо меньше места, чем ESX, и может быть установлен во флэш-память. Фактически, его уже можно рассматривать как часть сервера на это намекает буква i в его названии. Она означает Integrated, интегрированный.

Вплоть до выхода vSphere 4.1 VMware предлагала клиентам два варианта: VMware ESX с Linux-консолью и ESXi с меню настройки сервера. Поддержка ESX официально завершилась с выпуском vSphere 5.

Программное обеспечение, как и гипервизор, несколько раз меняло названия. Например, VMware VMcenter настолько редко и давно использовалось, что по нему даже толком ничего не гуглится. Разумно предположить, что это одно из внутренних наименований продукта. Оно фигурирует, например, на этом скриншоте:

Весь дальнейший путь VMware хорошо известен всякому пользователю или системному администратору, который хотя бы раз сталкивался с виртуализацией. Пул решений компании велик и разнообразен, а перспективные разработки, такие как Tanzu, не так давно начали появляться вне тестовых стендов.

Подробнее..

Из песочницы Сброс блокировки с устройств Teradici PCoIP Zero Client

08.09.2020 14:23:50 | Автор: admin

Нулевые клиенты на базе чипа Tera2321, это аппаратные устройства, позволяющие получить доступ к виртуальной инфраструктуре рабочих столов (VDI) через протокол PCoIP. Протокол PCoIP, разработанный компанией Teradici, до не давнего времени использовался VMWare как основной способ доступа к виртуальным рабочим местам (VMWare Horizon), сейчас вытесняется новым протоколом Blast Extreme.


Очень часто при покупке нулевых клиентов на вторичном рынке, оказывается что устройство заблокировано паролем, который можно сбросить только отправив специальный код запроса в техподдержку teradici, которые в свою очередь запросят документы подтверждающие легитимность покупки устройства.




Хорошо еще если предыдущий владелец подключался напрямую к View Connection Server и получал ip-адресс по DHCP, в этом случае можно просто написать адрес своего сервера и подключится. Но не обновится, не поменять какие-либо настройки не получится. А если в настройках выбрано View Connection Server + Imprivata OneSign, то ничего кроме бесконечного поиска сервера Imprivata устройство больше делать не будет. Может еще быть устройство с полностью заблокированным интерфейсом (нет даже кнопки Options) и не открывающимся веб-интерфейсом.


Еще обычно на устройствах со вторичного рынка, предыдущие владельцы устанавливали логотип своей фирмы вместо логотипа VMWare, который тоже нельзя поменять на заблокированном устройстве.



Перерыв пол интернета, я так и не смог найти способ снять блокировку. Как выяснилось, подобный вопрос интересует очень многих, но любые обсуждения на форумах заканчивались ссылкой на сайт teradici.


Помучившись, какое-то время, я все-таки нашел способ. Может не самый простой, но зато рабочий.


Нам понадобятся незаблокированное устройство на базе TERA2321, программатор чипов памяти, HEX-редактор, умение снять и припаять обратно микросхему.


В качестве незаблокированного устройства будет Dell P25 5030. Устройство, заблокированное паролем это HP t310. Программатор китайский EZP2010.


Итак, приступим.


Первым делом нужно разобрать незаблокированный нулевой клиент и найти на плате чип памяти, (у P25 он под радиатором).




С помощью фена или паяльника снимаем чип с платы и припаиваем на площадку программатора (бывает специальный щуп, который позволит считать дамп чипа без снятия с платы, но у меня такого не было).




С помощью программы снимаем дамп чипа. У меня программа ругалась, что не понимает эти микросхему, но образ считала без проблем. Как выяснилось мой программатор, позволяет считать только 16Mb, а чип 32Mb. Но посмотрев в конец дампа заметил, что там одни FF, сделал предположение, что ничего там дальше нету. К тому же файл прошивки c сайта Dell тоже имеет размер 16Mb.



После того как дамп сохранен в файл, можно отпаивать чип от программатора, ставить обратно на плату и собирать устройство, оно нам больше не нужно.


Следующим шагом смотрим на заблокированном устройстве MAC-адрес сетевой платы и серийный номер:



Теперь открываем снятый дамп любым HEX-редактором и находим строку 00020000 это и есть MAC и меняем его на тот который мы посмотрели на заблокированном нулевом клиенте (на самом деле можно заменить на любой). На строке 00020100 начинается уникальный идентификатор устройства, его тоже лучше поменять (если там 00, то идентификатором будет просто MAC). Если этого не сделать, то у всех устройств, на которые мы зальем этот дамп, получится одинаковый MAC-адрес и идентификатор.



Далее разбираем заблокированный нулевой клиент, точно также снимаем чип памяти и скармливаем его программатору.




На всякий случай делаем дамп заблокированной прошивки, и заливаем на микросхему тот дамп, в котором мы заменили MAC.


Ставим чип обратно на плату и пробуем включить. Если все сделано правильно, то мы увидим процесс загрузки и сообщение Warring: Multilanguage font pack not found! с просьбой обновится.



Вот собственно и все, теперь осталось проверить, изменился ли MAC-адрес сетевой и зайти через веб-интерфейс для обновления прошивки.


Иногда бывает, что после прошивки устройство грузится в recovery mode, тогда нужно еще раз зайти через браузер, и загрузить прошивку заново.



Скорее всего, данный способ также подойдет для разблокировки устройств на базе процессора teradici TERA1.


P.S.: Мне не удалось скачать последнюю прошивку с сайта Teradici, поэтому обновлял на ту, что была на сайте Dell к устройству P25 (ver 5.5.1). Но после написания статьи обнаружил более новую на сайте LeadTek (ver 17.05.1), эта прошивка тоже прекрасно ставиться на эти устройства.

Подробнее..

Как победить фиолетовый экран смерти VMware?

29.09.2020 14:15:47 | Автор: admin

Многие администраторы VMware ESXi сталкивались с такой проблемой, как фиолетовый экран смерти. Самое неприятное в этой проблеме, что у вас возникает недоверие к своей собственной инфраструктуре. В голове постоянно крутятся мысли о том, что такая же проблема может повториться и на другом сервере.

Что такое PSOD?

PSOD расшифровывается, как Purple Screen of Diagnostics, часто называемый Purple Screen of Death от более известного Blue Screen of Death, встречающегося в Microsoft Windows.

Это диагностический экран, отображаемый VMware ESXi, когда ядро обнаруживает фатальную ошибку, при которой оно либо не может безопасно восстановиться, либо не может продолжать работу.

Он показывает состояние памяти во время сбоя, а также дополнительные сведения, которые важны для устранения причины сбоя: версия и сборка ESXi, тип исключения, дамп регистра, обратную трассировку, время безотказной работы сервера, сообщения об ошибках и информацию о дампе ядра. (файл, созданный после ошибки, содержащий дополнительную диагностическую информацию).

Данный экран отображается в консоли сервера. Чтобы увидеть его, вам нужно будет либо находиться в центре обработки данных и подключить монитор, либо подключиться удаленно с помощью внеполосного управления сервером (iLO, iDRAC, IMM и т.д. в зависимости от вашего вендора).

Рисунок 1 Рисунок 1

Почему появляется PSOD?

PSOD- этосбой в ядре. Все мы знаем, что ESXi не основан на UNIX, но механика сбоя соответствует определению UNIX. Ядро ESXi (vmkernel) запускает эту меру безопасности в ответ на события или ошибки, которые невозможно исправить, это будет означать, что продолжение работы может создать высокий риск для служб и виртуальных машин. Проще говоря: когда хосты ESXi чувствуют, что они повреждены, они совершают харакири и, истекая пурпурной кровью, пишут предсмертную записку с подробным описанием причин, по которым они это сделали!

Наиболее частые причины PSOD:

1. Аппаратные сбои, в основном связанные с RAM или CPU. Обычно они выдают ошибку MCE или NMI.

MCE исключение проверки компьютера, которое представляет собой механизм в ЦП для обнаружения и сообщения о проблемах с оборудованием. В кодах, отображаемых на фиолетовом экране, есть важные детали для определения основной причины проблемы.

NMI немаскируемое прерывание, то есть аппаратное прерывание, которое не может игнорироваться процессором. Поскольку NMI является очень важным сообщением об отказе HW, ответ по умолчанию, начиная с ESXi 5.0 и более поздних версий, должен запускать PSOD. Более ранние версии просто регистрировали ошибку и продолжали. Как и в случае с MCE, фиолетовый экран, вызванный NMI, предоставляетважные коды, которые имеют решающее значение для устранения неполадок.

2. Программные ошибки

неверное взаимодействие между компонентами ESXi SW (см.KB2105711)

условия гонки (см.KB2136430)

из ресурсов: память, динамическая область памяти, буфер (см.KB2034111,KB2150280)

бесконечный цикл + переполнение стека (см.KB2105522)

неверные или неподдерживаемые параметры конфигурации (см.KB2012125,KB2127997)

3. Некорректно функционирующие драйвера;ошибки в драйверах, которые пытаются получить доступ к некорректному индексу или несуществующему методу (см.KB2146526,KB2148123)

Какое влияние оказывает PSOD?

Когда возникает сбой, хост выходит из строя изавершает работу всех служб, работающих на нем, вместе со всеми размещенными виртуальными машинами. Виртуальные машины отключаются резко ине завершаютсвою работу корректно. Если хост является частью кластера и вы настроили HA, эти виртуальные машины будут запущены на других хостах в кластере. Помимо простоя и недоступности виртуальных машин во время их простоя, грязное завершение может повлиять на некоторые критически важные приложения, такие как серверы баз данных, очереди сообщений или задания резервного копирования.

Кроме того, все другие службы, предоставляемые хостом, будут прекращены, поэтому, если ваш хост является частью кластера VSAN, PSOD также повлияет на vSAN.

Что делать?

1. Проанализируйте сообщение на фиолетовом экране.

Одна из самых важных вещей, которые нужно сделать при появлении фиолетового экрана - это сделать снимок экрана. Если вы подключаетесь к консоли удаленно (IMM, iLO, iDRAC, ), будет легко сделать снимок экрана, если нет такой возможности, хотя сфотографируйте экран на телефон. На этом экране много полезной информации о причине сбоя.

Рисунок 2 Рисунок 2

2. Обратитесь в службу поддержки VMware.

Прежде чем приступить к дальнейшему исследованию и устранению неполадок, рекомендуется обратиться в службу поддержки VMware, если у вас есть контракт на поддержку. Параллельно с вашим расследованием они смогут помочь вам в проведении корневого анализа причин (RCA).

3. Перезагрузите затронутый хост ESXi.

Чтобы восстановить сервер, вам необходимо перезагрузить его. Я бы также посоветовал оставить его в режиме обслуживания, пока вы не выполните полный анализ RCA, пока не будет определена и исправлена ошибка. Если вы не можете позволить себе держать его в режиме обслуживания, по крайней мере, точно настройте свои правила DRS, чтобы на нем работали только второстепенные виртуальные машины, чтобы в случае возникновения другого PSOD влияние было минимальным.

4. Получите coredump

После загрузки сервера вы должны собрать дамп ядра -coredump. Coredump, также называемый vmkernel-zdump, представляет собой файл, содержащий журналы с более подробной информацией, чем та, что отображается на фиолетовом экране диагностики, и будет использоваться при дальнейшем устранении неполадок. Даже если причина сбоя может показаться очевидной из сообщения PSOD, которое вы проанализировали на шаге 1, рекомендуется подтвердить ее, просмотрев журналы из coredump.

В зависимости от вашей конфигурации у вас может быть дамп ядра в одной из следующих форм:

а. Во временномразделе

b. В виде файла.dumpв одном из хранилищ данных хоста

c. В виде файла.dumpна vCenter через службу netdump

Coredump становится особенно важным, если конфигурация хоста должна автоматически сбрасываться после PSOD , и в этом случае вы не увидите сообщение на экране. Вы можете скопировать файл дампа с хоста ESXi с помощью SCP, а затем открыть его с помощью текстового редактора (например, Notepad ++). Он будет вмещать содержимое памяти на момент сбоя, и первые его части будут содержать сообщения, которые вы видели на фиолетовом экране. Служба поддержки VMware может запросить весь файл, но у вас лишь будет возможность извлечь только журнал vmkernel, который более нагляден:

Рисунок 3Рисунок 3

5. Расшифруйте ошибку.

Устранение неполадок и анализ причин позволяют почувствовать себя Шерлоком Холмсом. Самый важный симптом, с которого вам следует начать, - это сообщение об ошибке, создаваемое фиолетовым экраном.К счастью, количество выдаваемых сообщений об ошибках ограничено:

Exception Type 0 #DE: Divide Error
Exception Type 1 #DB: Debug Exception
Exception Type 2 NMI: Non-Maskable Interrupt
Exception Type 3 #BP: Breakpoint Exception
Exception Type 4 #OF: Overflow (INTO instruction)
Exception Type 5 #BR: Bounds check (BOUND instruction)
Exception Type 6 #UD: Invalid Opcode
Exception Type 7 #NM: Coprocessor not available
Exception Type 8 #DF: Double Fault
Exception Type 10 #TS: Invalid TSS
Exception Type 11 #NP: Segment Not Present
Exception Type 12 #SS: Stack Segment Fault
Exception Type 13 #GP: General Protection Fault
Exception Type 14 #PF: Page Fault
Exception Type 16 #MF: Coprocessor error
Exception Type 17 #AC: Alignment Check
Exception Type 18 #MC: Machine Check Exception
Exception Type 19 #XF: SIMD Floating-Point Exception
Exception Type 20-31: Reserved
Exception Type 32-255: User-defined (clock scheduler)

Поскольку сбой в ядре обрабатывается процессором, для получения дополнительной информации об этих исключениях см. Руководство разработчика программного обеспечения для архитектур Intel 64 и IA-32, том 1: Базовая архитектура иРуководство разработчика программного обеспечения для архитектур Intel 64 и IA-32, том 3A.

Наиболее распространенные случаи описаны в отдельных статьях базы знаний VMware. Поэтому используйте эту таблицу в качестве индекса для ошибок PSOD:

Пример ошибки

Подробная статья в базе знаний

LINT1/NMI (motherboard nonmaskable interrupt), undiagnosed

Использование аппаратных средств NMI для диагностики не отвечающих хостов (1014767)

Panic requested by one or more 3rd party NMI handlers

COS Error: Oops

Что такое фиолетовый диагностический экран Упс (1006802)

Lost Heartbeat

Что такое фиолетовый диагностический экран Потерянное сердцебиение (1009525)

ASSERT bora/vmkernel/main/pframe_int.h:527

Понимание фиолетовых диагностических экранов ASSERT и NOT_IMPLEMENTED (1019956)

NOT_IMPLEMENTED /build/mts/release/bora-84374/bora/vmkernel/main/util.c:83

Понимание фиолетовых диагностических экранов ASSERT и NOT_IMPLEMENTED (1019956)

Spin count exceeded (iplLock) possible deadlock

Что такое фиолетовый диагностический экран Превышено количество отжимов (1020105)

PCPU 1 locked up. Failed to ack TLB invalidate

Что такое ошибка подтверждения TLB, аннулирующая фиолетовый диагностический экран (1020214)

#GP Exception(13) in world 4130:helper13-0 @ 0x41803399e303

Общие сведения о событиях фиолетового экрана диагностики исключения 13 и исключения 14 (1020181)

#PF Exception type 14 in world 136:helper0-0 @ 0x4a8e6e

Machine Check Exception: Unable to continueHardware (Machine) Error

Вывод исключения проверки машины декодирования (MCE) после ошибки фиолетового экрана (1005184)

Hardware (Machine) Error

PCPU: 1 hardware errors seen since boot (1 corrected by hardware)

6. Проверьте журналы

Может случиться так, что причина не очень очевидна при просмотре фиолетового сообщения на экране или журнала дампа ядра, поэтому следующее место, где искать подсказки, - это журналы хоста, особенно во временном интервале, непосредственно предшествующем PSOD.Даже если вы чувствуете, что нашли причину, все же рекомендуется подтвердить ее, просмотрев журналы.

Если вы администрируете корпоративную среду, вероятно, у вас под рукой есть специализированное решение для управленияжурналами(например,VMware Log Insight или SolarWinds LEM), поэтому их будет легко просматривать, но если у вас нет управления журналами, вы можете легкоэкспортировать их.

Наиболее интересные файлы журналов для изучения:

Компоненты

Место расположения

Что это такое

Системные сообщения

/var/log/syslog.log

Содержит все общие сообщения журнала и может использоваться для устранения неполадок.

VMkernel

/var/log/vmkernel.log

Записывает действия, связанные с виртуальными машинами и ESXi.Большинство записей, относящихся к PSOD, будет в этом журнале, поэтому обратите на него особое внимание.

Журнал агента хоста ESXi

/var/log/hostd.log

Содержит информацию об агенте, который управляет и настраивает хост ESXi и о его виртуальных машинах.

Предупреждения VMkernel

/var/log/vmkwarning.log

Записывает действия, связанные с виртуальными машинами.Следит за записями журнала, связанными с истощение динамической области памяти (Heap WorkHeap).

Журнал агента vCenter

/var/log/vpxa.log

Содержит информацию об агенте, который обменивается данными с vCenter, поэтому вы можете использовать его для обнаружения задач, запускаемых vCenter и могущих вызвать PSOD.

Журнал shell

/var/log/shell.log

Содержит запись всех набранных команд, так что вы можете соотнести PSOD с выполненной командой.

Подробнее..

Работа в тренде как VMware помогает людям оставаться дома

02.10.2020 18:16:15 | Автор: admin


На дворе уже осень, и многие сотрудники, которые полгода назад уходили на удаленную работу на месяцок с удивлением обнаружили, что руководство компании отказалось от аренды значительной части офисных площадей, направив освободившиеся средства на ускорение процесса цифровой трансформации бизнеса. А нам остается лишь признать, что незаметное превращение временных карантинных мер в новую реальность состоялось.

Согласно результатам опроса Gartner 2020 Digital Workplace Survey, 68 % респондентов согласны с тем, что после COVID-19 руководители высшего звена обратили пристальное внимание на решения класса VDI, отмечает ведущий аналитик виртуальных платформ и вице-президент Gartner Мэтт Кейн (Matt Cain). Пандемия быстро изменила статус многих технологий виртуализации рабочих мест, ПО для совместной работы, корпоративных чат-платформ и Desktop as a Service (рабочий стол как услуга), с уровня полезных до абсолютно обязательных.

Иными словами, сотрудники компаний продолжают привыкать работать из дома, понимая, что это уже не спринт, а марафон. А в это время обслуживающие корпоративную ИТ-инфраструктуру специалисты выбирают и внедряют системы управления VDI (Virtualization Desktop Infrastructure), стараясь максимально полно воспроизвести в виртуальной среде весь инструментарий привычного физического офиса.

Решений подобного класса на рынке несколько, но одно из самых универсальных и гибких на сегодняшний день это практически беспроигрышная связка VMware Horizon, VMware Workspace ONE и VMware vSAN.

VMware Horizon


Платформа для управления виртуальными рабочими столами от VMware позволяет удаленным сотрудникам полноценно выполнять свои обязанности при помощи домашнего настольного ПК, ноутбука или нетбука, планшета, а также решений класса тонкий клиент (thin client) и нулевой клиент (zero client).

Наверное, не нужно еще раз подробно описывать преимущества этого подхода, поэтому мы просто их перечислим: сокращение затрат на поддержку ИТ-инфраструктуры, повышенная безопасность, новые сценарии работы, минимизация времени простоев.

Важное преимущество Horizon это возможность создания гибридных рабочих сред, что может быть необходимо, если для выполнения своих задач часть сотрудников до начала удаленной работы использовала устройства со специфическими возможностями, например, станции 3D-рендеринга.

Инструментарий VMware позволяет включить их в общую инфраструктуру с виртуальными десктопами, обеспечив полный удаленный доступ к таким ПК с соблюдением всех правил безопасности. Для этого потребуется лишь брокер соединений и программные агенты.
Ускорить внедрение VDI в центры обработки данных поможет удобная функция мгновенного клонирования. Благодаря тому, что клоны создаются из уже включенных виртуальных машин, создание новых занимает считанные секунды. При этом удается полностью избежать такого негативного явления как boot-штормы.

Решение App Volumes дает возможность так же мгновенно устанавливать на свежую виртуальную машину все необходимые приложения, так как в среде VMware не происходит копирования файлов, а открывается лишь доступ к виртуальному диску.

Остается лишь подключить пользовательский профиль, и уже через 56 секунд с момента логина сотрудник получает свежую и полностью настроенную рабочую среду, доступ к которой осуществляется по протоколу Blast Extreme. Последний, кстати, прекрасно себя показывает даже в сетях с плохим качеством связи.

VMware Workspace ONE


В сущности, Workspace ONE представляет собой единую консоль безопасного доступа к физическим и виртуальным рабочим станциям (Windows 10, Mac OS, Chrome OS), совмещенную с мощной аналитической платформой. Такое комбинированное решение позволяет контролировать доступ к конечным устройствам и администрировать любые приложения на них.

Повысить производительность удаленных сотрудников помогают рабочие приложения Workspace ONE, отвечающие всем требованиям безопасности корпоративной инфраструктуры и подключаемые посредством каталога Workspace ONE Intelligent Hub. Среди них защищенный почтовый клиент, веб-браузер с доступом к внутренним ресурсам, средства работы к общим данным и пр.

Принципиальное преимущество Workspace ONE заключается в том, что развернуть его можно как в виде локального решения, так и в формате облачной услуги. Кроме того, только это решение позволяет в рамках одной инсталляции создавать множество виртуальных организаций, и к каждой из них подключать совершенно независимые почтовые сервисы, службы сертификации, Active Directory и т. д. Организации могут быть одноранговыми или вложенными друг в друга, причем все правила наследования политик настраиваются администратором.

И еще раз о безопасности. При необходимости Workspace ONE интегрируется с самым современным антивирусом нового типа Carbon Black, работа которого не опирается на привычный сигнатурный анализ, а построена на выявлении аномалий активности процессов, демонстрирующих отклонения от предварительно изученных паттернов. Предупреждения Carbon Black поступают в Workspace ONE, а та в свою очередь применяет к подозрительному хосту одну из настроенных политик безопасности, блокируя дальнейшее распространение угрозы.

VMware vSAN


Осталось добавить, что наилучшим образом VMware Horizon и VMware Workspace ONE проявляют себя в связке с соответствующей системой хранения данных. Максимальной степени интеграции и, как следствие, наивысшей производительности всей инфраструктуры VDI позволяет добиться применение VMware vSAN программной СХД, представляющей собой отказоустойчивое решение, использующее накопители, установленные в хосты виртуализации.

Подробнее ознакомиться с возможностями и принципами работы VMware vSAN поможет отдельный материал.

Большое обновление Horizon


Кстати, компания VMware совсем недавно анонсировала выход новой версии своей платформы для организации виртуальных рабочих столов VMware Horizon 8. Нас ждет множество нововведений, среди которых можно выделить следующие:
поддержка Google Cloud VMware Engine, VMware Cloud Dell EMC и Azure VMware (AVS);
новые возможности экономии памяти и увеличения числа рабочих столов на хост виртуализации благодаря обновленной функции мгновенного клонирования Instant Clone Smart Provisioning;
расширение возможностей автоматизации взаимодействия с VMware Horizon 8 за счет использования VMware Horizon REST API (NewRESTful);
оптимизация инструментов совместной работы с использованием видео и аудио (Zoom, Cisco Webex, Microsoft Teams);
расширение поддержки приложений Linux, которые можно будет публиковать прямо с сервера Linux на платформе VMware Horizon, не привлекая другие операционные системы и не приобретая лицензии на них.

Выпуск VMware Horizon 8 намечен на октябрь 2020 года. Много новой и полезной информации о том, как работать с Workspace ONE и Horizon вы можете почерпнуть из вебинаров Syssoft, которых на данный момент доступно уже три (1, 2, 3). А если вы уверены в своих знаниях в области VDI-решений VMware, проверьте их в специальном квизе, победители которого получат именные сертификаты знатоков.
Подробнее..
Категории: Виртуализация , Vmware , Syssoft , Horizon

Категории

Последние комментарии

  • Имя: Макс
    24.08.2022 | 11:28
    Я разраб в IT компании, работаю на арбитражную команду. Мы работаем с приламы и сайтами, при работе замечаются постоянные баны и лаги. Пацаны посоветовали сервис по анализу исходного кода,https://app Подробнее..
  • Имя: 9055410337
    20.08.2022 | 17:41
    поможем пишите в телеграм Подробнее..
  • Имя: sabbat
    17.08.2022 | 20:42
    Охренеть.. это просто шикарная статья, феноменально круто. Большое спасибо за разбор! Надеюсь как-нибудь с тобой связаться для обсуждений чего-либо) Подробнее..
  • Имя: Мария
    09.08.2022 | 14:44
    Добрый день. Если обладаете такой информацией, то подскажите, пожалуйста, где можно найти много-много материала по Yggdrasil и его уязвимостях для написания диплома? Благодарю. Подробнее..
© 2006-2024, personeltest.ru