Русский
Русский
English
Статистика
Реклама

Datacenter

4 часа и ни минутой больше тактика и стратегия Uptime

11.06.2021 12:20:14 | Автор: admin

Привет, я Владислав Алмазов, директор по сопровождению информационных технологий (IT Operations) в Lamoda. Одно из направлений, за которое я отвечаю uptime. Это количественный показатель непрерывной работы нашей платформы.


Дать возможность клиенту найти товар в каталоге, положить его в корзину, выбрать способ доставки, рассчитать скидки и оплатить все это значит оформить заказ. Одноименная кнопка доступна на сайте 99,95% времени в году. Оставшиеся 0,05% это 4 часа в год, которые клиенты не замечают. Эта метрика отражает основное бизнес-требование к непрерывности самых критичных IT-систем. Час простоя для Lamoda это потери десятков миллионов рублей.


По итогам прошлого года мы превысили план и наш uptime составил 99,96%. Дальше я расскажу, за счет чего это удалось.



Основная задача IT Operations непрерывность бизнеса. В составе моего отдела работают пять технических направлений. Два из них глобальные саппорты для всей компании, которые отвечают за техническую поддержку сотрудников, офисов, складов, сети доставки и контакт-центров.


Еще три направления занимаются инфраструктурой:


  • информационная безопасность (ИБ) отвечает за техническое обеспечение информационной безопасности, ее аудит и контроль;
  • телекоммуникации и датацентр обеспечивают бесперебойную работу всего железа и телекоммуникаций, в том числе телефонии и корпоративной сети в датацентрах, офисах и контакт-центрах;
  • DevOps отвечает за инфраструктуру прода и QA, непрерывную доставку кода на прод и бесперебойную работу этого самого прода.

Рецепт uptime


Как и у всех, у нас случаются инциденты. Чтобы уменьшить их последствия, мы создали команду управления инцидентами, в которую входят представители разных отделов. Они круглосуточно мониторят состояние датацентра, сетевых каналов связи и компонентов серверных платформ, работу приложений и бизнес-логики, а также собирают все логи с наших систем, смотрят на графики и реагируют, если что-то пошло не так. Система мониторинга позволяет оперативно и даже проактивно реагировать на инциденты. За минуту она способна оповестить всех дежурных, которые назначаются по всем компонентам системы.


Основной показатель это время реакции. Например, время реакции на критический инцидент не более 5 минут, но чаще все происходит мгновенно, благодаря автоматизированной системе оповещений. В случае инцидента она дозвонится до дежурного, и при необходимости проведет эскалацию. Мы доплачиваем за такую работу, поэтому дежурные всегда на связи. Например, они никогда не отправляются в пятницу в бар без ноутбука :) Система работает хорошо, и пока у нас нет необходимости в создании круглосуточной системы дежурств в офисе, например, полноценного SRE это экономически необоснованно.


Обычно дежурят команда Devops, сетевики, безопасники, а также разработчики, так как часто для решения инцидента необходим hotfix. Мы умеем делать hotfix за считаные минуты и выкатывать его на прод, соблюдая все необходимые процедуры и сохраняя возможность сделать rollback. Это помогает нам сохранять высокие показатели uptime.


У нас много расписаний дежурств. Первая линия поддержки работает круглосуточно и первая же реагирует на любые инциденты. Вторая линия сопровождает бизнес-системы, доставку и офис.


У Devops две команды дежурных: одна отвечает за uptime всех платформ онлайн-магазина, которые работают на Linux, а вторая занимается Windows-платформами, например, Active Directory. Дежурные ИБ (SecOps), отвечают за сегментацию сети и инциденты информационной безопасности, а также за управление доступами (IAM). Дежурные сетевые инженеры за сеть в ЦОД и распределенные сети. Дежурные разработчики отвечают за наборы микросервисов, в которых они обладают техническим лидерством.


Мы соблюдаем стандарты информационной безопасности NIST-800 и PCI DSS. Основные компоненты платформы изолированы друг от друга: нет открытой связности между 170 микросервисами онлайн-магазина, а также между другими системами, например ERP и платформой данных и аналитики. Следование таким стандартам позволяет нам снижать риски влияния угроз ИБ на наш uptime.


Команда информационной безопасности отвечает в том числе за сегментацию сети. Наш периметр защищен от DDoS и направленных атак. Ежегодно мы проводим тесты на проникновение, а также работаем с программой Bug Bounty, которая в этом году официально станет публичной на данный момент исследователи (белые хакеры, которые взламывают системы по заказу самой компании) работают по приглашению.


Если говорить о технических мерах, которые помогают нам пассивно бороться с инцидентами, то это, конечно, физическое резервирование. Датацентр отвечает за все, связанное с электропитанием, охлаждением и физической безопасностью. Все системы продублированы и это подтверждено сертификатом TIER III. Как-то раз в разных частях нашего датацентра на расстоянии 30 метров в течение часа были повреждены два ввода питания, и мы фактически полтора дня работали на дизельном электрогенераторе. На работу это никак не повлияло, и все оборудование функционировало в штатном режиме.


Сети, каналы связи и оптоволокно у всего есть дубли. Можно взять любой кабель в датацентре, выдернуть его и ничего не произойдет все продолжит работать в штатном режиме. Мы регулярно проводим учения и тестируем систему.


Вообще, мы очень любим темное волокно это относительно недорого и надежно. Например, у нас два канала волокна по 10 gbps до центрального офиса, фотостудии, сервиса защиты от DDoS, распределительного центра и других объектов. Также у нас есть своя автономная система (AS) и два блока провайдеронезависимых адресов, что позволяет подключаться к интернету у разных провайдеров и иметь пиринг на площадке MSK-IX со скоростью 10 gbps. Тут у нас стопроцентный uptime.


Что нужно, чтобы все работало


Достигать высоких показателей нам помогает резервирование сетевого оборудования: кластер ядра сети, кластеры фаерволов, по два top-of-rack коммутатора, четыре пограничных маршрутизатора. Также у нас есть протоколы отказоустойчивости, например, LACP и протоколы динамической маршрутизации EIGRP и BGP.


Выбор железа еще один важный фактор, влияющий на uptime. Мы ориентируемся на качественных вендоров, оценивая их надежность и способность к непрерывной работе. Наша сеть построена на базе Cisco, что позволяет достигать максимальных уровней uptime железа годами.


Система резервирования вычислительных ресурсов построена на гипервизорах, поэтому выход из строя одного сервера приводит к переводу всех виртуальных машин на другой. То же самое относится и к хранилищу данных, где мы используем CEPH.


На следующем уровне работы наших приложений, которые относятся к онлайн-магазину, все крутится в Docker и управляется Kubernetes, у которого высокий уровень отказоустойчивости. Тут могут быть лишь секундные потери, если ноды выйдут из строя. В качестве сетевого решения, а также для обеспечения сегментации микросервисов, мы используем Calico. У всех подов есть маршрутизируемые адреса, которые анонсируются по протоколу BGP (Border Gateway Protocol) в корпоративную сеть. Все микросервисы для обмена между собой работают по правилу deny-any-any, поэтому у нас тысячи строк yaml-конфигураций фаервольных правил, а каждый новый микросервис проходит строгую проверку ИБ.


Часто именно базы данных (DB) становятся точкой отказа и могут повлиять на uptime. Наша платформа построена так, что в определенный момент времени есть только одна Master DB, с которой работает конкретное приложение. Но также есть еще от одной до шести Slave DB, у которых есть полная копия Master, но они работают только на чтение. В результате помимо распределения нагрузки, у нас присутствует избыточность данных, в том числе в целях реализации плана непрерывности бизнеса (BCP/DRP).


Для автоматического переключения в случае отказа Master DB мы используем решение Patroni, которое все делает автоматически. Это позволяет снизить downtime до минимальных значений. Был случай, когда до внедрения системы резервирования, сервер, на котором крутилась одна из критических баз данных, вышел из строя. Это случилось в полночь и нам потребовалось всего 9 минут на решение этой проблемы. Три минуты ушли на реакцию инцидент-менеджера, системы мониторинга и подъем дежурного инженера DevOps. Шесть минут ушло на подключение к сети, оперативный анализ ситуации на основе уже имеющихся данных мониторинга и переключение на Master DB.


Не наступать второй раз на одни и те же грабли помогает глубокий post mortem анализ. Мы детально разбираем каждый случай: определяем масштаб проблемы, хронологию событий и системы, которые были вовлечены, затем проводим анализ действий и вводим превентивные меры.


Мы внимательно следим за нагрузкой нашей платформы, регулярно проводим нагрузочные и деградационные тестирования. В обычное время мы готовы выдержать трехкратную нагрузку от максимальной дневной, а в период акций, например, во время Black Friday, мы масштабируем платформу до возможности держать шестикратную нагрузку.


4 часа тишины


И тут вы спросите меня, где же прячутся эти четыре часа в год вашего downtime? Примерно половина, то есть два часа это устранение проблем с багами в инфраструктурном софте и отказы железа. Тут, как правило, все решает перезагрузка и последующий анализ инцидента.


Еще четверть инцидентов или один час последствия bad release, когда некачественно протестированный код попадает в прод. У нас выстроен серьезный процесс разработки, который проходит code review, unit- и интеграционные тестирования в автоматическом и ручном режиме. Перед релизом мы отправляем все на препрод: софт полностью обкатывается на продуктовых данных и только потом попадает в прод. Релизов может быть несколько штук в день, и в таком потоке случаются неожиданные неприятности.


И еще один час downtime это человеческий фактор. Был случай, когда наш новый инженер по информационной безопасности, выполняя достаточно рутинную операцию, внес в конфигурацию файервола ядра некорректное правило фильтрации. Это привело к остановке всего трафика в датацентре. Благодаря системе оперативного мониторинга изменений, мы выяснили причину и пофиксили это за 25 минут, а инженер даже не понял, что по его вине произошел инцидент, так как он случился с задержкой во времени. После этого появилось правило 4eyes-review. То есть все подобные изменения катятся не в одни руки, а только двумя инженерами совместно, как и во многих других процессах.


Чтобы избежать downtime, все инфраструктурные изменения проводятся через так называемый RFC (Request for change). Этот набор правил касается выкатки на прод: чтобы внести изменения в инфраструктуре, инициатор описывает план действий, получает подтверждение другого инженера, и обозначает downtime в минутах. Для таких изменений мы выделяем определенное временное окно. Если нужно обновить софт на ядре и это приведет к downtime в 10 минут, то я согласую время с 4 до 6 утра. В это время происходит минимальное количество заказов, соответственно, импакт для бизнеса будет меньше.


RFC проводится несколько раз в неделю, чтобы минимизировать downtime. Тут у нас строгая дисциплинa: если все же downtime возможен, то он по факту он не должен оказаться выше, чем планировалось. Это учит грамотно оценивать уровень риска и не занижать его, даже если его вероятность 0,01%. От того, насколько мы уложились в прогноз, зависит и наш KPI.




Напоследок скажу, что работа над uptime это непрерывный процесс, требующий внимания, с учетом того, что любая онлайн-платформа растет и развивается очень быстро. В основном, управление инфраструктурой и рисками, кроме влияния на time-to-market, не зарабатывает деньги для бизнеса, но позволяет контролировать его расходы, снижая издержки и предотвращая резкие влияния серьезных инцидентов на финансовые показатели компании.

Подробнее..

Системы изоляции воздушных коридоров ЦОД основные правила установки и эксплуатации. Часть 1. Контейнеризация

17.06.2020 10:12:43 | Автор: admin
Одним из наиболее действенных методов повышения энергоэффективности современного ЦОДа и снижения затраты на его эксплуатацию являются системы изоляции. По-другому их называют системами контейнеризации горячих и холодных коридоров. Дело в том, что основным потребителем избыточной мощности ЦОД является система холодоснабжения. Соответственно, чем меньше нагрузка на нее (уменьшение счетов за электричество, равномерное распределение нагрузки, снижение износа инженерных систем), тем выше энергоэффективность (соотношение общей потраченной мощности к полезной (израсходованной на ИТ-нагрузку) мощности).
Данный подход получил широкое распространение. Это общепринятый стандарт эксплуатации как мировых, так и в российских дата-центров. Что нужно знать о системах изоляции для того, чтобы использовать их максимально эффективно?
Для начала как в целом устроена и как работает система охлаждения. В дата-центре расположены монтажные шкафы (стойки), в которых установлено ИТ-оборудование. Это оборудование нуждается в постоянном охлаждении. Чтобы избежать перегрева, необходимо подавать холодный поток воздуха к передней двери шкафа и забирать горячий, выходящий из задней части. Но, если между двумя зонами холодной и горячей нет барьера, оба потока могут смешиваться и тем самым снижать охлаждение и увеличивать нагрузку на кондиционеры.
Для того, чтобы предотвратить смешивание горячего и холодного воздуха, нужно построить систему контейнеризации воздуха.
<img src="" alt=image/>

Принцип действия: закрытый объем (контейнер) аккумулирует охлажденный воздух, не давая ему смешиваться с горячим и позволяя высоконагруженным шкафам получать достаточное количество холода.

Расположение: воздушный контейнер должен находиться между двумя рядами монтажных шкафов или между рядом шкафов и стеной помещения.

Конструкция: все стороны контейнера, которые разделяют горячую и холодную зоны, должны быть отделены перегородками так, чтобы холодный воздух проходил только через ИТ оборудование.

Дополнительные требования: контейнер не должен препятствовать установке и работе ИТ-оборудования, прокладке коммуникаций, работе систем мониторинга, освещения, пожаротушения, а также уметь интегрироваться в систему контроля доступа машзала.
Стоимость: это достаточно позитивный момент. Во-первых, система контейнеризации далеко не самая затратная часть все системы кондиционирования. Во-вторых, она не требует в дальнейшем расходов на обслуживание. В-третьих, она положительно влияет на экономию, так как разделение потоков воздуха и устранение точек локального перегрева снижает и равномерно распределяет нагрузку между кондиционерами. В целом экономический эффект зависит от масштаба машинного зала и архитектуры охлаждения.

Рекомендация: в случае замены ИТ-оборудования на более производительное не всегда обязательно обновлять кондиционеры на более мощные модели. Иногда бывает достаточно сделать монтаж системы изоляции, что позволит получить 510% резерва холодопроизводительности.
Подробнее..

Из песочницы Зеленый тренд в мире дата-центров почему это становится популярным?

21.11.2020 16:12:42 | Автор: admin
Тренд сохранения окружающей среды продолжает набирать все больше оборотов и дата-центры не исключение. Сегодня инженеры со всего мира стараются проектировать более экологичные дата-центры, используя различные энергосберегающие решения. И в то время, как мировые гиганты такие как Google, Microsoft и Facebook давно участвуют в зеленой гонке по сооружению новых, более инновационных и экологичных ЦОД, в пределах нашей страны такое направление только зарождается.

Что значит зеленый ЦОД и кто присваивает такое звание дата-центру?


Согласно данным представителя правления шведской компании Einstok AB Давида Сардена в ходе Третьего климатического форума городов на конец 2018 года в мире насчитывалось около 9 млн. дата-центров, которые в свою очередь потребляют практически 3% всей электроэнергии, которая вырабатывается человечеством. И такие показатели с годами продолжают только расти. Именно поэтому с целью защиты нашей экологии и планеты в целом все более популярными становятся зеленые ЦОД.

Не существует четкого определения такого понятия как зеленый ЦОД. Но если сказать вкратце, то к данной категории относятся дата-центры, работа которых основывается на возобновляемых источниках энергии, благодаря чему они оказывают минимальное негативное воздействие на окружающую среду.

Само собой, что самостоятельно присвоить себе звание зеленого ЦОД невозможно. Сегодня существует несколько систем сертификации энергоэффективности дата-центров и наиболее популярной среди них является The Leadership in Energy & Environmental Design (LEED).

Что такое сертификация LEED и как ее получить?

LEED представляет собою систему добровольной сертификации, целью которой является создание единого и точного стандарта для зеленых зданий. Именно LEED считается наиболее авторитетной системой сертификации в сфере экологически чистого строительства.

Сертификация согласно системе LEED присваивается исходя из оценки шести основных критериев работы дата-центра (за каждый из которых можно набрать определенную сумму баллов):

  • интеграционный процесс (2 балла);
  • местоположение и транспорт (18 баллов);
  • эффективность использования воды (12 баллов);
  • энергия и атмосфера (38 баллов);
  • материалы и ресурсы (13 баллов);
  • качество внутренней среды (17 баллов);
  • инновации процесса проектирования (6 баллов) и региональные приоритеты (4 балла).

image

Итоговая оценка сумма баллов по каждому из критериев. Исходя из этого, выделяют четыре возможных уровня сертификации:

  • платиновый (больше 80 баллов);
  • золотой (более 60 баллов);
  • серебряный (больше 50 баллов);
  • и бронзовый (больше 40 баллов).

Так, наиболее высокий уровень сертификации LEED (платиновый и золотой) имеют всего лишь 148 дата-центров мира: 117 присвоен золотой статус и лишь 31 платиновый. И сейчас мы рассмотрим самые необычные зеленые дата-центры.

Дата-центр Equinix AM3


image

Данный ЦОД находится в научном парке Амстердама и считается одним из наиболее экологичных в мире. В Equinix AM3 используют не просто инновационные технологии, а технологии из сферы космонавтики (к примеру, топливные ячейки, которые способны вырабатывать энергию из водорода и метана). Также используется зеленая система охлаждения (для охлаждения используется вода из артезианской скважины).

ЦОД компании Facebook


image

Также к зеленым ЦОД мира относится и дата-центр компании Facebook в Арктике. Находится здание в 60 км от Полярного круга в месте впадения реки Луле, а именно в Ботническом заливе. Инженерами внутри ЦОД используется только та энергия, которую получают из гидроэлектростанции. Благодаря этому, специалистам дата-центра Facebook удалось уменьшить количество запасных генераторов практически на 70%.

Также дата-центр Facebook может похвастаться коэффициентом эффективности использования энергии (PUE), который составляет всего 1,07 один из самых низких показателей в этой сфере.

Ветряной дата-центр компании Apple


Следующий зеленый ЦОД находится в городе Мейден, штат Северная Каролина и принадлежит компании Apple. Климат здешнего региона считается достаточно суровым, именно поэтому дата-центр осуществляет свою работу на энергии ветра. Возведение собственных ветрогенераторов увеличивает стоимость проекта на порядок 6-10%, но инвестиции окупаются уже спустя 4 года. Собственная ветровая электростанция позволяет производить в год 244 миллиона киловатт-часов энергии из возобновляемых источников. Для сравнения, такой объем равен энергопотреблению около 17 906 домов в Северной Каролине.

image

Кампус ЦОД Apple (США)


image

Кампус ЦОД Apple, который находится недалеко от города Мэйден (США) активно использует солнечную энергию. Работа дата-центра основывается на энергии, которую производят сразу две солнечные фермы, площадью по 40 гектаров каждая. По соседству с фермами расположены массивы топливных элементов, которые генерируют электроэнергию с помощью биогаза. Самое интересное, что данный газ получают в процессе переработки мусора с близкорасположенных свалок.

Так, одна солнечная ферма способна вырабатывать 42 миллиона киловатт*часов электроэнергии в год. Этой энергии вполне достаточно для обеспечения 10,8 тыс. домохозяйств.

Citi Data Center банка Citigroup


Всего несколько дата-центров в мире работают на основе комбинированного использования энергии солнца, воды и ветра. И одним из них является Citi Data Center в городе Франкфурт. Именно этот дата-центр первым получил сертификацию LEED со статусом платинум и гордо носит звание одного из наиболее зеленых в мире.

image

Помимо использования всевозможных эко-технологий, главный фасад здания полностью покрыт настоящей травой, и она используется не только для красоты интерьера. Главная ее функция естественная изоляция ЦОД, а также сбор дождевой воды, которая в дальнейшем используется в системе адиабатического охлаждения. Территория дата-центра также необычная и благодаря множеству растений, напоминает необыкновенный парк.

Тренд построения зеленых дата-центров быстро набирает обороты за рубежом и совсем скоро данный список пополнится новыми крутыми проектами. За счет того, что Украина находится в континентальном климате это позволяет использовать альтернативные системы охлаждения и развивать зеленое направление в проектировании дата-центров и в пределах нашей страны. Возможно, через несколько лет эко-список зеленых ЦОД пополнят и украинские проекты.
Подробнее..

Mac в дата-центрах

08.02.2021 12:21:23 | Автор: admin

Недавно компания Apple представила Mac с процессорами Apple Silicon M1, которые произвели настоящий фурор. Мы решили изучить, как домашний Mac может поселиться в дата-центрах.

Mac Mini M1 (источник ilounge.ua)

Какие сложности?


Для большинства повседневных рабочих задач хватает серверов на Linux и Windows Server. Но, если вы вовлечены в разработку под macOS или iOS, то сервер сборки должен быть на macOS. Единственный Mac, который устанавливается в стойку Mac Pro, который может быть избыточным. Подходящий вариант более бюджетный Mac Mini, но официальных стоечных решений для него нет.

Mac Mini предлагает скромные возможности для модернизации: заменить можно только SSD-накопитель и оперативную память; платы расширения PCIe можно подключить в ThunderBolt-адаптеры. Более того, Mac Mini не предоставляет интерфейсов для удаленного управления платформой (BMC, IPMI), что значительно усложняет эксплуатацию Mac Mini в условиях дата-центра. Mac Mini также предоставляет вредный для безопасности в дата-центре Bluetooth и Wi-Fi.

Тем не менее, Mac Mini используют в дата-центрах.

Доступные решения


Высота корпуса Mac Mini 3.6 сантиметра, что позволяет ему занять один юнит стойки, который составляет 4.44 сантиметра. Стоечные корпусы для Mac Mini достаточно разнообразны. Самые простые это полки, на которых располагаются Mac. Более сложные это корпусы с переходником ThunderBolt PCI Express, позволяющие устанавливать карты расширения.

Стоечные решения для Mac Mini (источник sonnettech.com)

Подобные решения хороши, когда серверов Mac мало. Но что делать, когда их количество превышает сотни и тысячи?

Как это сделано в Облаке?


Недавно у одного известного облачного провайдера стали доступны Mac Mini в качестве bare metal инстансов (пока только на Intel, без Apple Silicon).

Так как в Selectel мы активно развиваем выделенные серверы, нам стало интересно посмотреть как это реализовано в железе.

Готового шасси для Mac Mini нет, поэтому провайдеру его потребовалось разрабатывать с нуля самостоятельно. Примечательно, что Wi-Fi и Bluetooth в ОС недоступны. Согласно статье на iFixIt соответствующий модуль распаян на плате и его нельзя просто отключить. Можно предположить, что его отключают аппаратно или через конфиг FW.

Следующий интересный момент удаленное управление. Каждый провайдер решает эту проблему по-своему. Mac Mini сообщает, что к нему подключен монитор D-1, но в клиентской панели нет доступа к KVM-сервера. Можно сделать вывод, что это используется исключительно для внутренних нужд. Для доступа к рабочему столу клиентам предлагается использовать SSH и VNC.

Команда для включения VNC-сервера через SSH в macOS
sudo /System/Library/CoreServices/RemoteManagement/ARDAgent.app/Contents/Resources/kickstart -activate -configure -allowAccessFor -allUsers -privs -all -clientopts -setmenuextra -menuextra yes

Конечному пользователю доступно только управление питанием. В данном шасси управление питанием производится через сервопривод, который нажимает на кнопку включения.

Дальше еще интереснее, посмотрим как им удалось интегрировать в облачную инфраструктуру Mini, который нельзя ни переконфигурировать, ни подключить к нему карты расширения. В шасси установлена I/O-карта собственной разработки, выполняющая эти функции. Физически к Mac она подключается через Thunderbolt, а наружу смотрит сетевыми портами.

Этот модуль обеспечивает подключение виртуальных (!) дисков в виде блочных устройств. Подключенные накопители видны в системе как физические PCIe-диски, а внутренний SSD по умолчанию не используется. Получается, что на I/O-карте работает некая прошивка, которая подключается по сети в инфраструктуру провайдера, забирает оттуда виртуальные диски и отдает их в Mac через эмуляцию PCIe-диска. На рынке мы естественно не нашли подобных готовых решений, но технология очень похожа на NVMe over Fabric, которую предоставляют несколько вендоров продвинутых сетевых карт. Пишите в комментариях идеи, как бы вы это реализовали сами?

Для размещения macOS используется внешний диск

Один виртуальный диск создается вместе с инстансом и используется для размещения операционной системы. Все виртуальные диски отображаются на соответствующей вкладке в ПУ и их функциональность полностью такая же как и для обычных виртуальных инстансов.

Помимо дисков эта же I/O Card реализует в себе сетевую карту на 25 Гбит/с, которая используется для подключения к локальным сетям и интернету. Максимум, который нам удалось получить 7 Гбит/с на загрузку. Однако, нельзя быть уверенным в том, что узкое место находится со стороны облачного провайдера, так как другие ближайшие серверы Speedtest показывали худшие результаты.



Заключение


Эксплуатация Mac Mini в дата-центрах сопряжена с определенными трудностями. Но, при должном подходе из них можно сделать платформы, незначительно отличающиеся по использованию от привычных серверных или даже облачных решений.

Подробнее..

Категории

Последние комментарии

  • Имя: Макс
    24.08.2022 | 11:28
    Я разраб в IT компании, работаю на арбитражную команду. Мы работаем с приламы и сайтами, при работе замечаются постоянные баны и лаги. Пацаны посоветовали сервис по анализу исходного кода,https://app Подробнее..
  • Имя: 9055410337
    20.08.2022 | 17:41
    поможем пишите в телеграм Подробнее..
  • Имя: sabbat
    17.08.2022 | 20:42
    Охренеть.. это просто шикарная статья, феноменально круто. Большое спасибо за разбор! Надеюсь как-нибудь с тобой связаться для обсуждений чего-либо) Подробнее..
  • Имя: Мария
    09.08.2022 | 14:44
    Добрый день. Если обладаете такой информацией, то подскажите, пожалуйста, где можно найти много-много материала по Yggdrasil и его уязвимостях для написания диплома? Благодарю. Подробнее..
© 2006-2024, personeltest.ru