Русский
Русский
English
Статистика
Реклама

Накопители данных

Практические кейсы по созданию IT-инфраструктуры на базе дисковых полок Western Digital Ultrastar

22.07.2020 22:18:15 | Автор: admin


В современном мире наиболее ценным активом является информация. Информация помогает оптимизировать бизнес-процессы, анализировать рынок и принимать стратегически важные решения, определяющие будущее вашей компании, и даже выстраивать доверительные отношения с клиентами, повышая их лояльность. Однако по мере роста объема обрабатываемых данных любое предприятие неизбежно сталкивается с проблемой нехватки места для их хранения. В ситуациях, когда на первый план выходят не вычислительные мощности, а объем доступного дискового пространства, наиболее рентабельным решением для масштабирования IT-инфраструктуры оказываются дисковые полки JBOD. Именно о них мы и поговорим в сегодняшнем материале.

Ключевые преимущества аппаратной платформы Ultrastar Data


Western Digital предлагает две модели JBOD-массивов, выпускаемых под брендом Ultrastar Data60 и Data102. Указанные модификации полностью идентичны с точки зрения реализованных в них технологий и отличаются друг от друга лишь емкостью, о чем красноречиво говорит числовой индекс в названии: младшая модель способна вместить 60 3.5-дюймовых SAS (12 Гб/с) или SATA (6 Гб/с) накопителей, тогда как флагман до 102 накопителей. Таким образом, одна дисковая полка Ultrastar Data60 позволяет хранить вплоть до 840 RAW-данных, а максимальная емкость Ultrastar Data102 может достигать уже 1.4 петабайта (при использовании жестких дисков Western Digital Ultrastar DC HC 530 емкостью 14 ТБ каждый). При этом 24 из доступных отсеков можно использовать для установки твердотельных накопителей с интерфейсом SAS или SATA, что позволяет достичь оптимального баланса между емкостью и производительностью, задействуя JBOD в сценариях, где на первый план выходит высокая доступность данных.

Проектируя дисковые полки серии Ultrastar Data, мы уделили особое внимание борьбе с негативным воздействием вибрации и высоких температур на функционирование системы. Результатом работы инженеров Western Digital стало появление сразу двух вспомогательных технологий, позволивших значительно улучшить эксплуатационные характеристики JBOD: IsoVibe и ArcticFlow. Рассмотрим каждую из них подробнее.

Технология подавления ротационной вибрации IsoVibe


IsoVibe призвана нивелировать пагубное влияние ротационной вибрации, возникающей при раскрутке шпинделя HDD, на производительность массива. Напомним, что при смещении магнитной головки с трека под действием внешних факторов, микроконтроллер диска вынужден инициировать процедуру позиционирования заново, из-за чего время чтения/записи данных значительно возрастает. Так, например, при воздействии на работающий винчестер ротационной вибрации с угловым ускорением в 50 радиан/сек2 потери производительности могут превысить порог в 70%. В случае с JBOD данная проблема встает еще более остро, так как в силу высокой плотности размещения накопителей в сравнительно компактном корпусе их взаимное влияние друг на друга многократно возрастает.

Технологические решения, реализованные в рамках IsoVibe, направлены на предотвращение распространения вибрации между отсеками дисковой полки, о чем можно догадаться уже по названию самой технологии, которое представляет собой акроним английского словосочетания изолирован от вибрации. Так, в ходе проектирования Ultrastar Data мы полностью отказались от использования винтовых креплений: теперь накопители фиксируются с помощью амортизированных мини-салазок, что не только упрощает процесс установки и замены дисков, но также позволяет значительно снизить эффект резонанса внутри корпуса и локализовать вибрацию в пределах одного отсека.


Амортизированные салазки помогают снизить уровень вибрации

Свою лепту вносят и вибрационно изолированные разъемы, расположенные на задней панели JBOD: здесь минимизировать распространение высокочастотных механических колебаний удалось за счет прорезей в печатной плате бэкплейна.


Прорези в PCB бэкплейна снижают распространение вибрации внутри JBOD

Дополняет картину интеллектуальная прошивка микроконтроллеров жестких дисков Western Digital Ultrastar, которые мы рекомендуем использовать вместе с JBOD-массивами, поддерживающая технологию RVS (Rotational Vibration Safeguard). Специализированный алгоритм отслеживает сигналы, поступающие со встроенных мультиаксиальных акселерометров и в режиме реального времени рассчитывает компенсационные усилия, необходимые для коррекции траектории движения блока магнитных головок.


Принцип работы технологии компенсации ротационной вибрации RVS

По сравнению с обычными HDD, накопители с поддержкой RVS обеспечивают практически 20-кратный выигрыш в производительности даже в наиболее сложных условиях эксплуатации.

Система охлаждения ArcticFlow


Другую известную проблему дисковых полок, а именно перегрев накопителей, расположенных в задних рядах, удалось успешно решить благодаря уникальной архитектуре шасси, получившей торговое название ArcticFlow. Как и в случае с вибрацией, когда речь заходит о воздушном охлаждении, основной проблемой становится слишком плотное расположение накопителей в несколько рядов. А поскольку в большинстве моделей воздушный поток циркулирует в направлении от передней панели шасси кзади, пройдя сквозь первые ряды, воздух нагревается, вследствие чего эффективность охлаждения задних рядов существенно снижается.

В Ultrastar Data данная проблема решена следующим образом. Дисковая полка разделена на две зоны охлаждения (по 4 ряда в каждой), изолированные друг от друга. Воздушные потоки, обеспечивающие вентиляцию передней зоны, отводятся из корпуса по обводным воздуховодам, огибающим задний отсек по бокам. Что же касается задних рядов, то для их охлаждения предусмотрен отдельный воздуховод, расположенный по центру, воздух из которого поступает непосредственно к задним рядам накопителей, с 5-го по 8-ой. Кроме того отдельный поток холодного воздуха подводится непосредственно к блокам питания и модулям I/O, расположенным позади.


Схема циркуляции воздуха внутри дисковых полок Ultrastar Data

Такая конструкция помогла достичь действительно впечатляющих результатов. ArcticFlow позволила существенно сократить разницу температур между передней и задней зонами: разброс между ними не превышает 10C. При использовании накопителей Ultrastar, созданных на базе платформы HelioSeal четвертого поколения (более подробно о технологиях, применяемых при производстве жестких дисков для ЦОД, вы можете прочитать в материале Ярче звезд), на самом горячем участке, которым является 8-ой ряд, вплотную прилегающий к отсекам блоков питания, максимальная температура HDD не поднимается выше 49C. При этом на охлаждение каждого из них тратится в среднем 1.6 Вт электроэнергии, что в два раза меньше, чем у конкурирующих моделей.



Таким образом, ArcticFlow решает одновременно 3 задачи:

  1. эффективное охлаждение помогает продлить сроки эксплуатации накопителей, установленных в JBOD, а также полностью исключает вероятность их выхода из строя вследствие перегрева;
  2. отпадает потребность в установке мощных, высокоскоростных кулеров, что также помогает снизить общий уровень вибрации, негативно отражающейся как на состоянии аппаратуры, так и на ее производительности;
  3. меньшее энергопотребление позволяет значительно сократить операционные расходы на обслуживание дата-центра, оборудованного JBOD Ultrastar.

Построение облачной инфраструктуры с применением дисковых полок Ultrastar на примере компании Acronis


Кому же подойдут дисковые полки Western Digital Ultrastar? Первое, что приходит в голову облачные сервисы, оперирующие огромными массивами данных. По мере расширения бизнеса такие компании неизбежно сталкиваются с экспоненциальным ростом затрат на масштабирование и поддержку IT-инфраструктуры, которые оказываются тем больше, чем сложнее организована последняя.

В частности, подобные проблемы характерны для интенсивно развивающихся предприятий, использующих SaaS-based модель предоставления облачных услуг: стремясь угнаться за меняющимся рынком и при этом сохранить рентабельность, многие из них используют одновременно несколько разрозненных решений. На первых парах такой подход действительно способен обеспечить определенные выгоды, но в отдаленной перспективе это приводит к существенном росту издержек на управление, обслуживание и дальнейшее масштабирование существующей инфраструктуры.

Здесь весьма показательным является опыт Acronis, специализирующейся на предоставлении облачных решений в сфере кибербезопасности для корпоративных и частных клиентов. На сегодняшний день компании принадлежат 14 дата-центров в разных уголках нашей планеты, мощности которых в своей работе задействуют свыше 500 тысяч предприятий.


Стремясь увеличить емкость хранилищ данных и при этом оптимизировать затраты на их обслуживание, Acronis столкнулись с рядом существенных трудностей, вызванных отсутствием унифицированной аппаратной платформы. Компания обратилась за помощью к своему давнему технологическому партнеру DIAWAY. Для прогнозирования капитальных и операционных расходов системный интегратор создал доскональную финансовую модель на ближайшие 5 лет. Сравнив предложения, представленные на современном рынке, специалисты DIAWAY пришли к выводу, что наиболее оптимальным вариантом для реализации подобного проекта станут гибридные хранилища Western Digital Ultrastar Data60 и Data102.

В этом году компания завершила перевод облачной инфраструктуры на дисковые полки Ultrastar, и по словам Алекса Бейка, директора по глобальным техническим операциям Acronis, этот шаг в полной мере себя оправдал. Миграция на новую платформу обеспечила ряд важнейших преимуществ, среди которых необходимо выделить:

  • Снижение TCO

Благодаря переходу на гибридные хранилища Ultrastar, Acronis удалось добиться существенного сокращения капитальных и эксплуатационных расходов: стоимость хранения данных в пересчете на терабайт информации снизилась более, чем на 25%.

  • Повышение надежности систем хранения

Передовые технологии охлаждения и виброизоляции, воплощенные в JBOD-массивах Ultrastar, в сочетании с резервируемыми блоками питания и I/O-модулями с возможностью горячей замены, помогли существенно повысить отказоустойчивость как самих дисковых полок, так и всей инфраструктуры хранения данных в целом.

  • Простота обслуживания

Стандартизация глобальной архитектуры позволила упростить планирование дальнейшего увеличения емкости системы хранения данных и оптимизировать управление обширной IT-инфраструктурой Acronis: сегодня специалисты компании используют унифицированные инструменты и алгоритмы для решения поставленных задач, а при необходимости они могут в любой момент обратиться за помощью к инженерам Western Digital.

Примеры развертывания системы резервного копирования на базе Western Digital Ultrastar Data60 и программного обеспечения от Veeam Software


Впрочем, не стоит думать, что дисковые полки Ultrastar ориентированы сугубо на крупные компании и облачных провайдеров: JBOD-массивы способны стать незаменимым инструментом и в арсенале представителей малого и среднего бизнеса. Речь идет, прежде всего, о создании высокоемких и производительных систем резервного копирования, для организации которых мы предлагаем готовую связку в виде Ultrastar Data60/102 и программного обеспечения, разработанного одним из наших стратегических партнеров Veeam Software, специализирующихся на создании комплексных решений в сфере резервного копирования данных.


Девиз компании It just works! говорит сам за себя: Veeam стремится создавать простые, эффективные, а главное, надежные продукты из разряда настроил и забыл, и у них это действительно хорошо получается. Не случайно в 2019 году общее количество клиентов компании превысило 375 тысяч, а ее годовой оборот перевалил за отметку в 1 миллиард долларов США.

В ходе проектирования системы резервного копирования на базе дисковых полок Ultrastar и программного обеспечения Veeam наибольшую эффективность демонстрируют два подхода:

  • on-premises резервные копии создаются и хранятся на базе собственного ЦОД предприятия;
  • гибридная модель on-premises + cloud tier на стороне клиента хранятся только актуальные резервные копии, которые могут понадобиться здесь и сейчас для восстановления работоспособности производственной среды, тогда как более старые бэкапы автоматически переносятся в облако.


Каждый из них обладает своими преимуществами. Комбинация self-hosted и облачных решений позволяет без труда масштабировать IT-инфраструктуру по мере необходимости благодаря подключению объектных хранилищ Amazon S3, Azure Blob Storage, IBM Cloud Object Storage, или любых других S3-совместимых сервисов, и дополнительно экономить на долговременном хранении данных, также оставляя возможность для disaster recovery в случае возникновения аварийных ситуаций. On-premises же гарантирует быстрое восстановление любых когда-либо созданных резервных копий, независимость от внешних факторов, высокий уровень приватности и соответствие местному законодательству в том случае, если деятельность компании так или иначе связана с обработкой персональных данных клиентов.

Проще всего продемонстрировать эффективность связки программного обеспечения Veeam и гибридных хранилищ Western Digital на конкретных примерах. Мы выбрали два наиболее показательных кейса из нашей обширной практики.

Кейс 1


Клиент

В роли заказчика выступил крупный европейский производитель бытовых товаров с годовым оборотом более 500 миллионов евро, офисы и производственные мощности которого расположены в разных странах ЕС и в Китае. Штат компании насчитывает около 1800 постоянных сотрудников, а IT-инфраструктура представлена 8 центрами обработки данных по всему миру.

Проблема

Программно-аппаратный комплекс, используемый заказчиком для создания резервных копий, перестал адекватно справляться с возложенной на него задачей в связи с многократно возросшей нагрузкой, так как не обладал достаточной пропускной способностью. Помимо этого, наблюдались определенные проблемы с обработкой задач, связанных с процедурой дедупликации, что приводило к частым сбоям в ходе резервного копирования.

Поиск решения

Специалисты IT-отдела заказчика пришли к выводу, что обновление существующей инфраструктуры резервного копирования является нерентабельным, в связи с чем было принято решение о переходе на новую архитектуру, что позволило бы не только сэкономить, но и решить проблему масштабирования в будущем. Для организации системы резервного копирования было выбрано гибридное хранилище Ultrastar Data60 от Western Digital, управляемое программным обеспечением Veeam Backup & Replication 9.5, Veeam Backup для Microsoft Office 365 и Microsoft Windows Storage Spaces (входит в состав Windows Server 2016).

Конфигурация

Итоговая аппаратная конфигурация состояла из сервера HPE Proliant DL360 G9, оснащенного парой контроллеров Broadcom 9480-8i8e MegaRAID, обслуживающих модули ввода-вывода Ultrastar Data60. Каждый RAID-контроллер был подключен к назначенному порту I/O-модуля с помощью 4-канального HD MiniSAS-кабеля (P/N 1EX0329), обеспечивая полосу пропускания до 9,6 ГБ/с на контроллер.


Серверная платформа HPE Proliant DL360 G9

Дисковое хранилище было развернуто с 60-ю 12-терабайтными SAS HDD Ultrastar таким образом, его общая емкость составила 720 ТБ. С помощью зонирования T10, Ultrastar Data60 был логически разделен на две зоны по 30 дисков в каждой, так, чтобы каждый контроллер видел диски, назначенные только для определенных портов. В группах из 30 накопителей команда ИТ-специалистов создала несколько наборов томов с чередованием, которые были сгруппированы в единый общий том с помощью Windows Storage Spaces. Один из таких томов использовался для инкрементного резервного копирования, в то время как другой содержал полный образ резервной копии, который был дополнительно сжат с использованием функции дедупликации Windows Server.

Результаты

Связка 1 сервер + 2 RAID-контроллера + 1 Ultrastar Data60 обошлась заказчику существенно дешевле по сравнению с выделенным устройством резервного копирования, поддерживающим внутреннюю дедупликацию. В будущем данную платформу можно будет без труда масштабировать путем последовательного подключения новых дисковых полок (до четырех штук) без необходимости модернизации серверной платформы.

Кейс 2


Клиент


GreenPower крупное предприятие, специализирующееся на производстве натуральных витаминных комплексов и пищевых добавок. Компании принадлежит торговая марка Dr. Hittich, а ее штаб-квартира находится в Керкраде (Нидерланды).

Проблема

GreenPower нуждались в надежном и эффективном решении для резервного копирования. Изначально для этих целей использовались сервера на 24/36 отсеков, а общее дисковое пространство, отведенное под бэкапы, составляло 108 терабайт. Когда данного объема перестало хватать, перед компанией встала проблема масштабирования IT-инфраструктуры. Серверы хранения данных большей емкости оказались слишком дороги, поэтому от их приобретения пришлось отказаться. В свою очередь, идея с регулярной заменой заполненных дисков на пустые показала свою полную несостоятельность: такой подход не мог обеспечить нужный уровень доступности резервных копий, а ошибки при маркировке изъятых дисков регулярно приводили к сложностям при восстановлении данных и даже к их утрате.

Конфигурация

Было решено реализовать систему резервного копирования на базе двух серверов с программным обеспечением Veeam Backup & Replication 9.5 и двух дисковых полок Ultrastar Data60 от Western Digital. В каждое гибридное хранилище были установлены 60 SAS HDD Ultrastar емкостью 6, 8 и 10 терабайт.


Жесткие диски для ЦОД Ultrastar DC HC330 емкостью 10 терабайт

Жесткие диски были сконфигурированы в несколько наборов RAID-массивов, управляемых Windows Storage Spaces. Для дедупликации данных встроенными средствами программного обеспечения Microsoft было создано несколько виртуальных дисков типа Thin (такой подход позволил обойти ограничение в 64 ТБ). Как и в первом примере, доступное дисковое пространство было разделено на два логических тома, один из которых использовался для создания полных бэкапов, тогда как второй был предназначен для инкрементного резервного копирования.

Результаты

Переход на платформу хранения данных Ultrastar Data60 помог значительно снизить затраты на логистику, а в пересчете на терабайт информации, приобретение дисковых полок оказалось значительно более выгодным решением по сравнению с закупкой полноценных серверов: поскольку за счет использования функции дедупликации данных Microsoft Windows Server 2016 удается экономить около 1250 терабайт на каждые 378 ТБ физического дискового пространства, емкости одной такой полки с учетом текущих потребностей компании, хватит на 6 лет ежедневного создания резервных копий.

Не менее важным преимуществом оказалось и значительное повышение производительности системы резервного копирования: создание и восстановление бэкапов происходит на скорости не менее 1 ГБ/с. Это исключает возникновение ситуаций, когда Windows Server не успевает завершить дедупликацию данных в существующих резервных копиях до создания новых. Ранее подобные коллизии приводили к значительному снижению производительности всей системы, однако новая платформа позволила забыть о них раз и навсегда.
Подробнее..

Лучший в своем классе история появления стандарта шифрования AES

05.08.2020 22:05:40 | Автор: admin


C мая 2020 года в России стартовали официальные продажи внешних винчестеров WD My Book, поддерживающих аппаратное шифрование AES с 256-битным ключом. В силу законодательных ограничений, ранее подобные устройства можно было приобрести лишь в зарубежных интернет-магазинах электроники либо на сером рынке, однако теперь обзавестись защищенным накопителем с фирменной 3-летней гарантией от Western Digital может любой желающий. В честь этого знаменательного события мы решили сделать небольшой экскурс в историю и разобраться, как появился Advanced Encryption Standard и чем же он так хорош по сравнению с конкурирующими решениями.

Долгое время официальным стандартом симметричного шифрования в США являлся DES (Data Encryption Standard стандарт шифрования данных), разработанный компанией IBM и внесенный в перечень Федеральных стандартов обработки информации в 1977 году (FIPS 46-3). В основу алгоритма легли наработки, полученные в ходе исследовательского проекта под кодовым названием Lucifer. Когда 15 мая 1973 года Национальное бюро стандартов США объявило о проведении конкурса, целью которого стало создание стандарта шифрования для госучреждений, американская корпорация включилась в криптографическую гонку с третьей версией Люцифера, использовавшей обновленную сеть Фейстеля. И наряду с другими конкурсантами потерпела фиаско: ни один из алгоритмов, представленных на первый конкурс, не соответствовал строгим требованиям, сформулированным экспертами НБС.



Разумеется, в IBM не могли просто так смириться с поражением: когда 27 августа 1974 года конкурс был перезапущен, американская корпорация вновь подала заявку, представив улучшенную версию Lucifer. На сей раз у жюри не оказалось ровным счетом ни одной претензии: проведя грамотную работу над ошибками, IBM успешно устранила все недочеты, так что придраться оказалось не к чему. Одержав убедительную победу, Люцифер сменил имя на DES и уже 17 марта 1975 года был издан в Федеральном реестре.

Однако в ходе открытых симпозиумов, организованных в 1976 году с целью обсуждения нового криптографического стандарта, DES подвергся жесткой критике со стороны экспертного сообщества. Причиной этого стали изменения, внесенные в алгоритм специалистами АНБ: в частности, была уменьшена длина ключа до 56 бит (изначально Lucifer поддерживал работу с 64- и 128-битными ключами), а также изменена логика работы блоков перестановки. По мнению криптографов, улучшения не имели смысла и единственное, к чему стремилось Агентство национальной безопасности, внедряя модификации, получить возможность беспрепятственно просматривать зашифрованные документы.

В связи с перечисленными обвинениями, при Сенате США была создана специальная комиссия, целью работы которой стала проверка обоснованности действий АНБ. В 1978 году по итогам расследования был опубликован доклад, в котором сообщалось следующее:

  • представители АНБ участвовали в доработке DES лишь косвенно, при этом их вклад касался только изменения работы блоков перестановки;
  • окончательная версия DES оказалась более устойчивой к взлому и криптографическому анализу, чем предыдущая, так что внесенные изменения были обоснованы;
  • длины ключа 56 бит более чем достаточно для подавляющего большинства приложений, ведь для взлома такого шифра потребуется суперкомпьютер стоимостью как минимум несколько десятков миллионов долларов, а поскольку у обычных злоумышленников и даже профессиональных хакеров подобных ресурсов нет, то и беспокоиться не о чем.

Выводы комиссии частично подтвердились в 1990 году, когда израильские криптографы Эли Бихам и Ади Шамир, работая над концепцией дифференциального криптоанализа, провели большое исследование блочных алгоритмов, в числе которых оказался и DES. Ученые пришли к выводу, что новая модель перестановок оказалась намного более устойчивой к атакам, чем изначальная, а значит, АНБ действительно помогло ликвидировать несколько дыр в алгоритме.


Ади Шамир

В то же время ограничение на длину ключа оказалось проблемой, и притом весьма серьезной, что в 1998 году убедительно доказала общественная организация Electronic Frontier Foundation (EFF) в рамках эксперимента DES Challenge II, проведенного под эгидой RSA Laboratory. Специально для взлома DES был построен суперкомпьютер, получивший кодовое название EFF DES Cracker, над созданием которого трудились Джон Гилмор, сооснователь EFF и руководитель проекта DES Challenge, и Пол Кочер, основатель компании Cryptography Research.


Процессор EFF DES Cracker

Разработанная ими система смогла успешно подобрать ключ к зашифрованному образцу методом простого перебора всего за 56 часов, то есть менее чем за трое суток. Для этого DES Cracker потребовалось проверить около четверти всех возможных комбинаций, а это значит, что даже при самом неблагоприятном стечении обстоятельств на взлом уйдет около 224 часов, то есть не более 10 суток. При этом стоимость суперкомпьютера, с учетом затраченных на его проектирование средств, составила всего 250 тысяч долларов. Нетрудно догадаться, что сегодня взломать подобный шифр еще проще и дешевле: мало того, что железо стало куда мощнее, так еще и благодаря развитию интернет-технологий хакеру вовсе не обязательно покупать или арендовать необходимое оборудование вполне достаточно создать ботнет из зараженных вирусом ПК.

Данный эксперимент наглядно продемонстрировал, насколько DES морально устарел. А поскольку на тот момент алгоритм использовался в составе практически 50% решений в области шифрования данных (по оценке все той же EFF), вопрос о поиске альтернативы встал как никогда остро.

Новые вызовы новый конкурс




Справедливости ради стоит сказать, что поиски замены для Data Encryption Standard начались практически одновременно с подготовкой EFF DES Cracker: Национальный институт стандартов и технологий (NIST) США еще в 1997 году объявил о запуске конкурса алгоритмов шифрования, призванного выявить новый золотой стандарт криптобезопасности. И если в былые времена аналогичное мероприятие проводилось исключительно для своих, то, памятуя о неудачном опыте 30-летней давности, в NIST решили сделать конкурс полностью открытым: в нем могли принять участие любая компания и любое частное лицо, независимо от места дислокации или гражданства.

Такой подход оправдал себя еще на этапе отбора претендентов: среди авторов, подавших заявку на участие в конкурсе Advanced Encryption Standard, оказались и всемирно известные криптологи (Росс Андерсон, Эли Бихам, Ларс Кнудсен), и небольшие IT-компании, специализирующиеся на кибербезопасности (Counterpane), и крупные корпорации (немецкая Deutsche Telekom), и образовательные учреждения (Лёвенский католический университет, Бельгия), а также стартапы и небольшие фирмы, о которых мало кто слышал за пределами их стран (например, Tecnologia Apropriada Internacional из Коста-Рики).

Интересно, что в этот раз в NIST утвердили всего два основных требования к алгоритмам-участникам:

  • блок данных должен иметь фиксированный размер 128 бит;
  • алгоритм должен поддерживать как минимум три размера ключей: 128, 192 и 256 бит.

Добиться такого результата было сравнительно просто, но, как говорится, дьявол кроется в деталях: вторичных требований оказалось куда больше, а соответствовать им было куда сложней. Между тем именно на их основе рецензенты NIST и проводили отбор конкурсантов. Вот каким критериям должны были соответствовать претенденты на победу:

  1. способность противостоять любым криптоаналитическим атакам, известным на момент проведения конкурса, включая атаки по сторонним каналам;
  2. отсутствие слабых и эквивалентных ключей шифрования (под эквивалентными подразумеваются такие ключи, которые, хотя и имеют значительные отличия друг от друга, приводят к получению идентичных шифров);
  3. скорость шифрования стабильна и примерно одинакова на всех актуальных платформах (от 8- до 64-битных);
  4. оптимизация под многопроцессорные системы, поддержка распараллеливания операций;
  5. минимальные требования к объему оперативной памяти;
  6. отсутствие ограничений для использования в стандартных сценариях (в качестве основы для построения хэш-функций, ГПСЧ и т. д.);
  7. структура алгоритма должна быть обоснованной и простой для понимания.

Последний пункт может показаться странным, однако, если поразмыслить, он не лишен смысла, ведь хорошо структурированный алгоритм гораздо проще анализировать, к тому же в нем куда сложнее спрятать закладку, с помощью которой разработчик мог бы получить неограниченный доступ к зашифрованным данным.

Прием заявок на конкурс Advanced Encryption Standard продлился полтора года. Всего в нем приняли участие 15 алгоритмов:

  1. CAST-256, разработанный канадской компанией Entrust Technologies на базе CAST-128, созданного Карлайлом Адамсом и Стаффордом Таваресом;
  2. Crypton, созданный криптологом Че Хун Лим из южнокорейской компании Future Systems, занятой в сфере кибербезопасности;
  3. DEAL, концепт которого изначально предложил датский математик Ларс Кнудсен, а впоследствии его идеи развил Ричард Аутербридж, который и подал заявку на участие в конкурсе;
  4. DFC, совместный проект Парижской высшей педагогической школы, Национального центра научных исследований Франции (CNRS) и телекоммуникационной корпорации France Telecom;
  5. E2, разработанный под эгидой крупнейшей телекоммуникационной компании Японии Nippon Telegraph and Telephone;
  6. FROG, детище коста-риканской компании Tecnologia Apropriada Internacional;
  7. HPC, придуманный американским криптологом и математиком Ричардом Шреппелем из Университета Аризоны;
  8. LOKI97, созданный австралийскими криптографами Лоуренсом Брауном и Дженнифер Себерри;
  9. Magenta, разработанный Майклом Якобсоном и Клаусом Хубером для немецкой телекоммуникационной компании Deutsche Telekom AG;
  10. MARS от компании IBM, в создании которого принимал участие Дон Копперсмит один из авторов Lucifer;
  11. RC6, написанный Роном Ривестом, Мэттом Робшау и Рэем Сиднеем специально для конкурса AES;
  12. Rijndael, созданный Винсентом Рэйменом и Джоан Даймон из Лёвенского католического университета;
  13. SAFER+, разработанный калифорнийской корпорацией Cylink совместно с Национальной академией наук Республики Армения;
  14. Serpent, созданный Россом Андерсоном, Эли Бихамом и Ларсом Кнудсеном;
  15. Twofish, разработанный исследовательской группой Брюса Шнайера на базе криптографического алгоритма Blowfish, предложенного Брюсом еще в 1993 году.

По итогам первого тура были определены 5 финалистов, среди которых оказались Serpent, Twofish, MARS, RC6 и Rijndael. Члены жюри нашли изъяны практически у каждого из перечисленных алгоритмов, кроме одного. Кто же оказался победителем? Немного продлим интригу и для начала рассмотрим основные достоинства и недостатки каждого из перечисленных решений.

MARS


В случае с богом войны эксперты отметили идентичность процедуры шифрования и дешифровки данных, однако этим его преимущества и ограничились. Алгоритм IBM вышел на удивление прожорливым, что делало его неподходящим для работы в условиях ограниченных ресурсов. Наблюдались проблемы и с распараллеливанием вычислений. Для эффективной работы MARS нуждался в аппаратной поддержке 32-битного умножения и вращения на переменное число бит, что опять же накладывало ограничения на перечень поддерживаемых платформ.

MARS также оказался достаточно уязвим к атакам по времени и энергопотреблению, имел проблемы с расширением ключей на лету, а его чрезмерная сложность затрудняла анализ архитектуры и создавала дополнительные проблемы на этапе практической реализации. Одним словом, на фоне других финалистов MARS выглядел настоящим аутсайдером.

RC6


Алгоритм унаследовал часть преобразований от своего предшественника, RC5, тщательно исследованного ранее, что в сочетании с простой и наглядной структурой делало его полностью прозрачным для экспертов и исключало наличие закладок. К тому же RC6 демонстрировал рекордные скорости обработки данных на 32-битных платформах, а процедуры шифрования и дешифровки были реализованы в нем абсолютно идентично.

Однако алгоритм имел те же проблемы, что и упомянутый выше MARS: тут и уязвимость к атакам по сторонним каналам, и зависимость производительности от поддержки 32-битных операций, а также проблемы с параллельными вычислениями, расширением ключей и требовательность к аппаратным ресурсам. В связи с этим на роль победителя он никак не годился.

Twofish


Twofish оказался довольно шустрым и хорошо оптимизированным для работы на маломощных устройствах, отлично справлялся с расширением ключей и предполагал несколько вариантов реализации, что позволяло тонко адаптировать его под конкретные задачи. В то же время две рыбки оказались уязвимы к атакам по сторонним каналам (в частности, по времени и потребляемой мощности), не особо дружили с многопроцессорными системами и отличались чрезмерной сложностью, что, кстати, сказалось и на скорости расширения ключа.

Serpent


Алгоритм имел простую и понятную структуру, что существенно упрощало его аудит, был не особо требователен к мощностям аппаратной платформы, имел поддержку расширения ключей на лету и сравнительно легко поддавался модификации, чем выгодно отличался от своих оппонентов. Несмотря на это, Serpent был в принципе самым медленным из финалистов, к тому же процедуры шифровки и дешифровки информации в нем кардинально отличались и требовали принципиально разных подходов к реализации.

Rijndael


Rijndael оказался чрезвычайно близок к идеалу: алгоритм в полной мере удовлетворял требованиям NIST, при этом не уступая, а по совокупности характеристик заметно превосходя конкурентов. Слабых мест у Рейндала было лишь два: уязвимость к атакам по энергопотреблению на процедуру расширения ключа, что является весьма специфичным сценарием, и определенные проблемы с расширением ключа на лету (данный механизм работал без ограничений лишь у двух конкурсантов Serpent и Twofish). Кроме того, по оценкам экспертов, Рейндал имел несколько меньший запас криптостойкости, чем Serpent, Twofish и MARS, что, впрочем, с лихвой компенсировалось устойчивостью к подавляющему большинству разновидностей атак по сторонним каналам и широким спектром вариантов реализации.

Категория


Serpent


Twofish


MARS


RC6


Rijndael


Криптостойкость


+


+


+


+


+


Запас криптостойкости


++


++


++


+


+


Скорость шифрования при программной реализации


-




+


+


Скорость расширения ключа при программной реализации



-




+


Смарт-карты с большим объемом ресурсов


+


+


-



++


Смарт-карты с ограниченным объемом ресурсов



+


-



++


Аппаратная реализация (ПЛИС)


+


+


-



+


Аппаратная реализация (специализированная микросхема)


+



-


-


+


Защита от атак по времени выполнения и потребляемой мощности


+



-


-


+


Защита от атак по потребляемой мощности на процедуру расширения ключа






-


Защита от атак по потребляемой мощности на реализации в смарт-картах



+


-



+


Возможность расширения ключа на лету


+


+





Наличие вариантов реализации (без потерь в совместимости)


+


+




+


Возможность параллельных вычислений






+



По совокупности характеристик Рейндал на голову опережал конкурентов, так что результат финального голосования оказался вполне закономерен: алгоритм одержал уверенную победу, получив 86 голосов за и лишь 10 против. Serpent занял почетное второе место с 59 голосами, тогда как Twofish расположился на третьей позиции: за него вступился 31 член жюри. Вслед за ними следовал RC6, завоевав 23 голоса, а MARS закономерно оказался на последней строчке, получив лишь 13 голосов за и 83 против.

2 октября 2000 года Rijndael был объявлен победителем конкурса AES, по традиции сменив название на Advanced Encryption Standard, под которым он и известен в настоящее время. Процедура стандартизации продлилась около года: 26 ноября 2001 года AES был внесен в перечень Федеральных стандартов обработки информации, получив индекс FIPS 197. Новый алгоритм высоко оценили и в АНБ, а с июня 2003 года Агентство национальной безопасности США даже признало AES с 256-битным ключом шифрования достаточно надежным для обеспечения безопасности документов категории совершенно секретно.

Внешние накопители WD My Book с поддержкой аппаратного шифрования AES-256


Благодаря сочетанию высокой надежности и производительности, Advanced Encryption Standard быстро обрел мировое признание, став одним из самых популярных в мире алгоритмов симметричного шифрования и войдя в состав множества криптографических библиотек (OpenSSL, GnuTLS, Linux's Crypto API и др.). В настоящее время AES широко используется в приложениях корпоративного и пользовательского уровня, а его поддержка реализована во множестве разнообразных устройств. В частности, именно аппаратное шифрование AES-256 применяется во внешних накопителях Western Digital семейства My Book для обеспечения защиты сохраненных данных. Давайте познакомимся с этими девайсами поближе.



Линейка настольных жестких дисков WD My Book включает шесть моделей различной емкости: на 4, 6, 8, 10, 12 и 14 терабайт, что позволяет подобрать устройство, оптимально подходящее под ваши потребности. По умолчанию внешние HDD используют файловую систему exFAT, что обеспечивает совместимость с широким спектром операционных систем, включая Microsoft Windows 7, 8, 8.1 и 10, а также Apple macOS версии 10.13 (High Sierra) и выше. Пользователи ОС Linux имеют возможность смонтировать винчестер с помощью драйвера exfat-nofuse.

Подключение My Book к компьютеру осуществляется с помощью высокоскоростного интерфейса USB 3.0, обратно совместимого с USB 2.0. С одной стороны, это позволяет передавать файлы на максимально возможной скорости, ведь пропускная способность USB SuperSpeed составляет 5 Гбит/с (то есть 640 МБ/с), чего оказывается более чем достаточно. В то же время функция обратной совместимости обеспечивает поддержку практически любых устройств, выпущенных за последние 10 лет.



Хотя My Book и не требует установки дополнительного программного обеспечения благодаря технологии автоматического определения и конфигурирования периферических устройств Plug and Play, мы все же рекомендуем воспользоваться фирменным программным пакетом WD Discovery, который поставляется в комплекте с каждым устройством.



В состав набора вошли следующие приложения:

WD Drive Utilities


Программа позволяет получить актуальную информацию о текущем состоянии накопителя на основе данных S.M.A.R.T. и проверить жесткий диск на наличие битых секторов. Помимо этого, с помощью Drive Utilities можно оперативно уничтожить все сохраненные на вашем My Book данные: при этом файлы будут не просто стерты, но и полностью перезаписаны несколько раз, так что восстановить их по завершении процедуры уже не удастся.

WD Backup


Используя эту утилиту, можно настроить резервное копирование по заданному расписанию. Стоит сказать, что WD Backup поддерживает работу с Google Drive и Dropbox, при этом позволяя выбирать при создании бэкапа любые возможные сочетания источник-цель. Таким образом, вы можете настроить автоматический перенос данных с My Book в облако либо импортировать нужные файлы и папки из перечисленных сервисов как на внешний винчестер, так и на локальную машину. Помимо этого, предусмотрена возможность синхронизации с аккаунтом в социальной сети Facebook, что позволяет автоматически создавать резервные копии фотографий и видеозаписей из вашего профиля.

WD Security


Именно с помощью этой утилиты можно ограничить доступ к накопителю паролем и управлять шифрованием данных. Все, что для этого потребуется, указать пароль (его максимальная длина может достигать 25 символов), после чего вся информация на диске будет зашифрована, а доступ к сохраненным файлам сможет получить лишь тот, кто знает кодовую фразу. Для большего удобства WD Security позволяет создать список доверенных устройств, при подключении к которым My Book будет разблокироваться автоматически.

Подчеркнем, что WD Security лишь предоставляет удобный визуальный интерфейс для управления криптографической защитой, тогда как шифрование данных осуществляется самим внешним накопителем на аппаратном уровне. Такой подход обеспечивает целый ряд важных преимуществ, а именно:

  • за создание ключей шифрования отвечает аппаратный генератор случайных чисел, а не ГПСЧ, что помогает добиться высокой степени энтропии и повысить их криптографическую стойкость;
  • в ходе процедуры шифрования и дешифровки криптографические ключи не выгружаются в оперативную память компьютера, равно как и не создаются временные копии обрабатываемых файлов в скрытых папках системного диска, что помогает свести к минимуму вероятность их перехвата;
  • скорость обработки файлов никак не зависит от производительности клиентского устройства;
  • после активации защиты шифрование файлов будет осуществляться автоматически, на лету, не требуя дополнительных действий со стороны пользователя.

Все вышеперечисленное гарантирует безопасность данных и позволяет практически полностью исключить вероятность хищения конфиденциальной информации. С учетом дополнительных возможностей накопителя это делает My Book одним из лучших защищенных хранилищ среди доступных на российском рынке.
Подробнее..

Перевод Пионеры отрасли энергонезависимой памяти

23.09.2020 14:17:26 | Автор: admin

Чип флэш-памяти NAND Intel/Micron

Устройства энергонезависимой памяти (Non-Volatile Memory, NVM) это электронные элементы хранения данных, предназначенные для чтения и записи, продолжающие хранить информацию после прекращения подачи питания на устройство. В их число входят устройства на основе магнитных дисков и отдельные типы полупроводниковых чипов. Полупроводниковые энергонезависимые устройства играют важную роль во всех аспектах цифровой вселенной от ячеек хранения информации огромных банков данных в облаке до портативных персональных устройств, и составляют один из крупнейших сегментов полупроводниковой промышленности, оцениваемой в 400 миллиардов долларов.

Как и любое важное полупроводниковое изделие, от транзистора до микропроцессора, NVM-устройства проделали большой путь от работ первых исследователей, взявших за основу труды своих предшественников и развив их благодаря вдохновению, удаче, пробам и ошибкам, а также решимости игнорировать сомнения скептиков. В этой статье мы в хронологической последовательности расскажем о некоторых из таких первопроходцев и их вкладе, от первых зачатков идеи, возникших в 1960 году в Fairchild до крупномасштабного производства флэш-чипов последнего десятилетия 20-го века.

По поручению Semiconductor Special Interest Group (SIG) Джефф Катц записал интервью с людьми, совершившими большой вклад в развитие коммерческих полупроводниковых NVM-устройств, для коллекции устной истории Музея компьютерной истории. Многие процитированные ниже личные комментарии взяты из расшифровок интервью, к которым можно перейти по ссылкам в тексте.

Что было до полупроводниковой энергонезависимой памяти


До появления полупроводниковых устройств наиболее успешной технологией энергонезависимого компьютерного хранения информации была память на магнитных сердечниках, в которой использовался эффект магнитного гистерезиса. В своей диссертации 1952 года на докторскую степень MIT Дадли Бак описал ферроэлектрические кристаллы, использовавшие для хранения и перемагничивания цифровой информации похожий механизм гистерезиса. Рейд Андерсон и Уолтер Мерц, работавшие в Bell Telephone Laboratories, продемонстировали в 1955 году ферромагнитное устройство хранения, ставшее предшественником архитектуры полупроводниковых NVM-устройств. Применив технологии осаждения и травления, они изготовили 256-битный массив кристаллов, соединённых металлическими дорожками; позже такие технологии начали применяться для производства полупроводниковых интегральных схем.


Фотография из Scientific American magazine, июнь 1955 года.

Основатели располагавшейся в Колорадо-Спрингс компании Ramtron Ларри Макмиллан и Джордж Рор стали пионерами в коммерческом производстве устройств FRAM (Ferroelectric Random Access Memory), впервые появившихся в 1952 году.

Эволюция технологий ячеек NVM-накопителей первые четыре десятилетия


В 1960-х начались исследования двух основных технологий проектирования полупроводниковых NVM-ячеек. В ячейке с плавающим затвором заряд хранится на электроде, не подключённом к внешней цепи. Захват заряда, чаще всего называемый нитридным захватом, позволяет хранить заряд в слое нитрида кремния, подключённого к активной цепи. Обе технологии обещали значительные преимущества и снижение затрат на производство, простоту использования и сохранение данных для различных областей применения.

Коммерческие компоненты и системы с использованием обеих технологий начали появляться в 1970-х. Изделия на основе захвата заряда чаще всего называли EAROM (Electrically Erasable Read Only Memory), а первые устройства с плавающим затвором EPROM (Erasable Programmable ROM).

К 1980-м годам доминирующей на рынке технологией стала память с плавающим затвором. EPROM и их усовершенствованные версии, в том числе и первые флэш-продукты, стали составлять значительный процент от мировой прибыли полупроводниковой отрасли. В 1990-х технология Flash обеспечила создание новых возможностей для NVM-устройств, их начали использовать в твердотельных накопителях и потребительских цифровых устройствах.

1960-е первооткрыватели элемента памяти



Са Чжитан, примерно 1989 год

Са Чжитан из исследовательской лаборатории Fairchild в Пало-Альто сообщил в 1961 году о том, что заряд можно хранить в течение долгого времени (несколько дней) на электроде затвора поверхностно-управляемого тетродного МОП-транзистора. Он отметил, что в разговоре с основателем Fairchild Виктором Гриничем и инженером Фрэнком Уонлэссом они сразу же поняли потенциал этого открытия в устройстве памяти с плавающим затвором. Они не стали разрабатывать идею продукта, поскольку в то время компания была занята устранением фундаментальных проблем стабильности в процессе производства МОП-транзисторов.

Самые первые задокументированные описания ячеек памяти с захватом заряда были созданы в лабораториях на обоих побережьях США в середине 1960-х. Эдгар Сэк, Чу Тинь и другие сотрудники Центральной исследовательской лаборатории Westinghouse использовали в 1966 году MNOS-структуру (Metal-Nitride-Oxide-Silicon) в качестве элемента захвата заряда. Чу и Джон Сцедон рассказали о MNOS-элементе Westinghouse на Solid State Device Research Conference 1967 года в Санта-Барбаре. Эту технологию перенесли в отдел полупроводниковых изделий компании в Янгвуде для разработки электронных артиллерийских запалов на замену механическим запалам.


Чистая зона отдела полупроводниковых изделий Westinghouse в Янгвуде, примерно 1959 год. Фото Э. Сэка

В том же 1967 году шесть учёных под руководством Ричарда Вегенера из Sperry Rand Research Center (Садбери, Массачусетс) описали электрически программируемое неразрушаемое MNOS-устройство хранения с захватом заряда. В предоставленном агентству НАСА отчёте 1968 года Исследование новых концепций адаптивных устройств Вегенер заявил, что MNOS это первое полупроводниковое устройство, обеспечивающее возможность электрически программируемого энергонезависимого хранения информации.

Дов Фроман-Бенчковски присоединился в 1965 году к исследовательской лаборатории Fairchild в Пало-Альто. В тандеме он писал докторскую по теме Перенос и захват заряда в MNOS-структурах и их применение в устройствах памяти в Калифорнийском университете в Беркли, где знал об этой теме больше, чем большинство профессоров. [Интервью с Довом Фроманом]. На основании своих работ он начал процесс подачи заявки на патент, который был зарегистрирован после его ухода из компании. В заявку на патент вошла структура маски для создания 9-битной MNOS-памяти с пословной организацией, которую он изготовил для демонстрации возможности крупномасштабных массивов интегральных устройств хранения.


Давон Канг и Саймон Зи

Изучая в 1967 году четырёхслойный чизкейк на обеденном перерыве в Bell Telephone Laboratories (BTL), Мюррей Хилл, Давон Канг и Саймон Зи пришли к идее добавления четвёртого плавающего слоя для хранения заряда в МОП-транзисторе. Для доказательства жизнеспособности концепции они изготовили в лаборатории пару десятков устройств. Устройства держались максимум час, после чего электроны начинали утекать [Интервью с Саймоном Зи]. Мой начальник сказал, что это совершенно бесполезно Кому может оказаться полезным такое устройство?, рассказывает Зи. Им разрешили опубликовать результаты работы в статье Плавающий затвор и его применение в устройствах памяти, опубликованной в июле 1967 года в Bell System Technical Journal, но BTL не стала развивать эту идею. Её просто положили на полку.


256-битное RMM на аморфных полупроводниках ECD/Intel, 1970 год

Автор многочисленных изобретений и предприниматель Стэнфорд Овшинский произвёл фурор в научном сообществе, заявив в 1968 году в New York Times о создании переключателя с памятью на основе элементов Овшинского. Это устройство, разработанное в его лаборатории Energy Conversion Devices (ECD) (Троя, штат Мичиган), использовало некристаллические халькогенидные материалы для создания переключателя, который включался или выключался, когда подаваемое напряжение достигало определённой величины. Овшинский заявил, что сможет производить более мелкие, быстрые, простые, надёжные и дешёвые электронные схемы, чем это возможно на основе транзисторов. Студент магистратуры Чарльз Си, работавший над переключателем в ECD, сообщил, что основное преимущество технологии заключается в том, что информацию можно хранить вечно (без ограничений по времени удержания данных). [Интервью с Чарльзом Си]

Незадолго до этого основавшие Intel Роберт Нойс и Гордон Мур объединились с Овшинским для изучения технологии создания энергонезависимой памяти, чтобы дополнить ею собственные будущие ОЗУ на основе биполярных и МОП-транзисторов. В статье 1970 года, написанной Гордоном Муром, Роном Нилом и Д. Нельсоном из ECD, описывается 256-битная Read Mostly Memory (RMM), состоящая из плёнки аморфного полупроводникового материала, размещённого между двумя молибденовыми электродами. Intel ограничилась этой демонстрацией концепции и не стала разрабатывать на её основе продукцию, однако она возродилась как основа для памяти на фазовых переходах 3D XPoint, о производстве которой Intel и Micron заявили в 2015 году; готовую продукцию Intel продавала под брендом Optane.

1970-е появление промышленных NVM-изделий



Мультичиповый модуль BORAM компании Westinghouse, примерно 1975 год.

В начале 1970-х энергонезависимые MNOS-устройства памяти оказались привлекательным выбором для проектировщиков аэрокосмической продукции и защитных систем. ВВС США заключили с Sperry Rand контракт на изготовление 1024-битного массива EAROM, а Westinghouse спроектировала для армии США и других заказчиков электрически перепрограммируемые гибридные модули Block-Oriented RAM (BORAM). Несколько чипов, расположенных на керамической подложке, обеспечивали малый вес и компактность авиационных и портативных систем.

Перейдя в 1969 году в Intel, Дов Фроман продолжил исследование технологий MNOS-хранения. Однако в процессе изучения проблем стабильности, вызываемых миграцией заряда в новом техпроцессе производства кремниевого затвора компании, он придумал альтернативную идею хранения заряда в проводнике с плавающим затвором. Это стало эволюцией того, что я называл устройством FAMOS (Floating-gate Avalanche-injection Metal Oxide Semiconductor) которая была основой EPROM. [Интервью с Довом Фроманом] До подачи заявки на патент архитектуры он не был знаком с работами Канга и Зи в Bell Labs.


Дов Фроман-Бенчковски, примерно 1971 год. Фото: Intel Corporation

Фроман прекратил дальнейшую работу над MNOS-накопителем, чтобы сосредоточить свои усилия на проектировании продукта с плавающим затвором, а в 1971 году Intel представила свою 2048-битную EPROM с маркировкой 1702. EPROM-устройства программировались электронным способом, но стирание и повторное использование было возможно только после физической обработки чипа УФ-излучением через кварцевое окошко в корпусе. Более дешёвые, однократно программируемые версии (One-Time-Programmable, OTP), не требовавшие дорогого окошка для стирания, оказались популярными в системах с использованием микропроцессоров (MPU). Несколько поколений более объёмных и быстрых EPROM составляли наиболее прибыльную линейку продуктов Intel до середины 1980-х.


Кварцевое окошко пропускает ультрафиолетовое излучение для стирания данных EPROM

Японские производители полупроводников быстро распознали коммерческую перспективность EPROM. Пионер разработки интегральных схем Ясуо Таруи из токийской Electrotechnical Laboratory с коллегами предложили в 1971 году устройство с плавающим затвором на проводившейся в Токио Solid State Device conference. За этим последовало множество исследовательских статей и успешных коммерческих продуктов японских компаний.


Руководство по EAROM компании GI, 1983 год

В 1969 году Эд Сэк перешёл из Westinghouse в General Instrument Corporation (Хиксвилл, штат Нью-Йорк). Он работал там вице-президентом и генеральным менеджером отдела микроэлектроники, начавшей коммерческое использование технологии MNOS в потребительской электронике. Его сравнение Westinghouse (Клуб джентльменов с примесью политики) и GI (Нижний Ист-Сайд Манхэттена с примесью уличных драк) демонстрирует значительные культурные различия военных и коммерческих полупроводниковых предприятий той эпохи. [Личный рассказ Эда Сэка]

В 1975 году GI представила Bit-Serial EAROM с маркировкой ER1400, которая была дополнена 16-битным микропроцессором CP1600 (совместная с Honeywell разработка); эти продукты были предназначены для цифрового, полностью твердотельного чипсета TV-тюнера, и продались миллионными тиражами. GI несколько десятилетий продолжала производить недорогие EAROM-устройства для потребительских товаров.

Среди прочих производителей, исследовавших технологии энергонезависимой MNOS-памяти, были McDonnell Douglas, Mitsubishi, NCR и RCA. Однако быстрый рост количества устройств и снижение цен, обеспеченные активной конкуренцией в области продукции с плавающим затвором, сделали EPROM предпочтительным для большинства сфер применения энергонезависимым решением.

Такие улучшения, как функция электрического стирания, ещё более упрочили позицию устройств с плавающим затвором. Эли Харари из Hughes Microelectronics (Ньюпорт-Бич, Калифорния) в 1976 году пришёл к идее о том, что можно уменьшить слой подзатворного оксида в устройстве Фромана-Бенчковски с 1000 до 100 ангстрёмов, что позволит обеспечить электрическое программирование и стирание, избавив таким образом от необходимости медленного внешнего стирания ультрафиолетовым излучением. [Интервью с Эли Харари] В 1980 году Hughes представила 8-килобитную КМОП-память Electrically-Erasable PROM (EEPROM) с маркировкой 3108, а также чип статической ОЗУ с энергонезависимой ячейкой, названный NOVRAM.


Джордж Перлегос

Джордж Перлегос сделал вклад в несколько важных NVM-разработок компании Intel, в том числе и в первую EEPROM: 16-килобитное устройство 2816, созданное в 1978 году. Вместе с Гордоном Кэмпбеллом и Филом Сэлисбери Перлегос основал в 1981 году SEEQ Technology. В этой компании Перлегос, стремясь избавиться от необходимости отдельного источника питания высокого напряжения, руководил разработкой 5213 единого EEPROM с 5-вольтным питанием, выпущенного в 1982 году. В его конструкцию был встроен генератор подкачки заряда, создающий напряжение, необходимое для обеспечения программирования. Чтобы создать подобную память, нам нужно было разработать настолько маленькие генераторы подкачки заряда, чтобы их можно было разместить в каждом столбце и в каждой строке. [Интервью с Джорджем Перлегосом] Чтобы стимулировать использование своих устройств в областях, требующих высокой надёжности, SEEQ рекламировала их как устройства, способные выдержать не менее миллиона циклов записи.

Бывший инженер-технолог National Semiconductor Рафаэль Клейн основал в 1978 году в Милпитас (штат Калифорния) компанию Xicor, чтобы заняться устройствами NOVRAM и EEPROM. На первых этапах Xicor разделила рост зародившегося рынка с SEEQ, однако не справившись с конкуренцией в области производства массовых дешёвых устройств, завершила свою работу в 2001 году.

1980-е появление архитектуры Flash


В 1980 году Фудзио Масуока из научно-исследовательского центра Toshiba в Кавасаки (Япония) нанял четырёх инженеров: М. Асано, Х. Ивахаси, Т. Комуро и С. Танака для работы над NVM-чипом для использования в массовых недорогих устройствах. В уже существовавших EPROM использовалось по два транзистора на ячейку памяти. Инженеры спроектировали более компактную однотранзисторную ячейку, соединяемую способом, напоминающим логический элемент NOR. Коллега Масуоки Сёдзи Ариизуми предложил название flash (вспышка), потому что стирание должно было происходить со скоростью вспышки фотокамеры. Масуока рассказал об ячейке NOR Flash на International Electron Devices Meeting (IEDM) 1984 года, проводившейся в Сан-Франциско. Хотя ему и удалось уменьшить размер ячейки, из-за проблем с производством необходимых для устройства МОП-структуры с тремя слоями поликремния Toshiba не стала реализовывать коммерческую версию изобретения.

По словам Харари, Сатьен Мухерджи и Томас Чань из стартапа Exel Microelectronics, Inc. (Сан-Хосе, Калифорния) спроектировали флэш-структуру, которую можно было производить промышленным способом; она стала основой того, что Intel позже назвала NOR flash.


Фудзио Масуока

Прибыв в Вашингтон, чтобы защищать компанию в патентной тяжбе с TI, Масуока придумал идею архитектуры NAND Flash, которая могла бы обеспечить ещё меньший размер ячейки и увеличенные скорости записи/стирания по сравнению с NOR Flash. По возвращении Масуока спросил у Хисео Тадзири, работавшего в Toshiba руководителем отдела разработки потребительской электроники, сможет ли цифровая камера с четырёхмегабитной флэш-памятью NAND заменить плёнку. [Интервью с Фудзио Масуока] Тадзири понял, что NAND и в самом деле сможет заменить плёнку, и это привело к тому, что финансировать проект начал отдел производства камер. Масуока рассказал об устройстве на IEDM 1987 года в Вашингтоне, а производство 16-мегабитных чипов NAND Flash началось в 1992 году.

Недовольный тем, что Toshiba, по его мнению, недостаточно вознаградила его работу, Масуока в 1994 году уволился, став профессором Университета Тохоку. Вопреки японской культуре лояльности компании, он подал иск против бывшего работодателя, требуя компенсации, а в 2006 году уладил спор, получив единовременную выплату в 87 миллионов йен (758 тысяч долларов).

Стефан Лаи устроился в отдел Intel в Санта-Кларе для разработки технологии масштабируемой EEPROM. Работая совместно с Диком Пэшли, он создал способ добавления функции электрического стирания в уже существовавшие малоразмерные ячейки EPROM для создания архитектуры NOR Flash, которую можно было бы изготавливать по стандартному производственному техпроцессу. Отдел NVM заявил, что технология не будет работать, поэтому Лаи и Пэшли встретились с Гордоном Муром, который сказал им: Я этим займусь, не суетитесь. [Интервью с отделом разработки Flash компании Intel] Начав разработку нового бизнес-устройства на основе Flash в Фолсоме (Калифорния), Пэшли и Лаи вместе с проектировщиком Найлсом Кайнеттом в 1986 году продемонстрировали работающие чипы, а в 1987 году выпустили 256-килобитный продукт NOR Flash.

К концу 1980-х мировой рынок полупроводниковых NVM-устройств всех технологих производства превысил два миллиарда долларов. Наиболее популярными продуктами той эпохи были EPROM на 64 Кбит, 128 Кбит, 256 Кбит и 1 Мбит, к тому же начали появляться первые устройства на 2 Мбита. Производители из США, лидерами среди которых были AMD, Intel, Motorola, SEEQ и TI, получали примерно 50% от мировой прибыли рынка. Оставшаяся прибыль разделилась между европейскими, в основном SGS-Thompson (10%), и японскими поставщиками Fujitsu, Hitachi, Mitsubishi, NEC, Oki, Toshiba (40%), однако их поставки были ограничены правительственными квотами на производство (MITI).

1990-е твердотельные накопители и новые потребительские области применения


В 1990-х технология Flash создала новые возможности для NVM-устройств в конфигурациях как с NAND, так и с NOR. Архитектура NOR Flash имела преимущества произвольного доступа и малого времени чтения, а её функция execute-in-place (XIP) идеально подходила для выполнения кода, а значит, и для сферы обработки данных. NAND Flash имела более низкие скорости чтения, но гораздо меньший размер ячейки, позволяя создавать недорогие устройства с повышенной плотностью, что идеально подходило для внешних накопителей. Кроме того, доступ чтения/записи к блокам NAND имитировал доступ к дисковым приводам.


Прототип SSD-модуля компании SanDisk (бывшей SunDisk), созданный для IBM (1991 год)

Эли Харари, в 1970-х ставший пионером техпроцессов с тонким слоем оксида в Hughes Aircraft, в 1988 году основал SunDisk (позже переименованную в SanDisk) для разработки устройств памяти большой ёмкости на основе флэш-памяти. Вскоре к нему присоединились сооснователи компании Джек Юань и Санджай Мехротра, а также архитектор систем Роберт Боб Норман. Первым крупным заказом компании стали 10 тысяч 20-мегабайтных 2,5-дюймовых ATA-устройств, совместимых с plug and play, которые в 1991 году должны были заменить 20-мегабайтный жёсткий диск Connor в ThinkPad PC компании IBM. В то время надёжность флэш-памяти была низкой, однако Харари вдохновляли отзывы заказчиков о прототипах устройств: Если несколько устройств проработают у меня все выходные без сбоев, значит, у вас получился хороший продукт. [Интервью с Эли Харари]

Для достижения уровней надёжности, необходимых для коммерческого применения, потребовалось несколько поколений усовершенствований техпроцессов производства и архитектуры систем флэш-памяти. Харари встроил в устройства метаданные, позволявшие его прошивке выполнять коррекцию ошибок, скрывая таким образом от пользователя проблемы с надёжностью критически важного для популярности технологии фактора. Массовые ноутбуки с SSD появились на рынке в конце 2000-х, а современные SSD являются самым быстрорастущим сегментом рынка компьютерных накопителей.


Основатели SanDisk: Юань, Мехротра и Харари

Новые возможности возникли у SanDisk после того, как компания представила в 1994 году карты CompactFlash для цифровых камер. Мы поняли, что вместо того, чтобы кто-то другой продавал плёнку или её продавали продавцы камер, нужно создать вторичный рынок флэш-карт. Превращение его в международный бренд стало поворотным фактором в истории компании, рассказывает Мехротра. [Интервью с Санджаем Мехротра] В 2016 году SanDisk приобрела компания Western Digital.

Современные флэш-технологии доминируют на рынке NVM-устройств, который в 2019 году превысил 50 миллиардов долларов, и составляют крупнейший сегмент мировой полупроводниковой промышленности. Крупнейшим поставщиком флэш-чипов стала Samsung, имея примерно 30% рынка. Другими крупными поставщиками являются Toshiba и Western Digital.

Награда за достижения Flash Memory Summit


Каждый год Flash Memory Summit награждает людей, проявивших лидерство в области продвижения разработки и использования флэш-памяти, а также связанных с ней технологий, вручая Премию за прижизненные достижения (Lifetime Achievement Award, LAA). Среди не упомянутых выше номинантов были Кинам Ким из Samsung, получивший премию за свой прогресс в развитии 3D NAND, а также Дов Моран и Арьех Мерги из M-Systems за инновации, в том числе за встраиваемую в мобильные телефоны флэш-память, файловые системы для Flash и флэш-накопитель USB.

Ссылки


1. C. T. Sah, A new semiconductor tetrode, the surface-potential controlled transistor, Proceedings of the IRE, vol. 49, no.11, (Nov. 1961) pp 1625.

2. C. T. Sah, Evolution of the MOS transistor from conception to VLSI, Proceedings of the IEEE, Vol. 76, 10 (October 1988) p. 1295.

3. Edgar A. Sack and David A. Laws, Westinghouse: Microcircuit Pioneer from Molecular Electronics to ICs, IEEE Annals of the History of Computing, Vol. 34 (Jan.-March 2012) pp. 7482.

4. Wegener, H.A.R., Lincoln, A.J., Pao, H.C., OConnell, M.R., Oleksiak, R.E. Lawrence, H. The variable threshold transistor, a new electrically-alterable, non-destructive read-only storage device, Electron Devices Meeting, 1967 International, Vol. 13 (1967) p. 70

5. H. A. R. Wegener, Investigation of New Concepts of Adaptive Devices, NASA-CR-86114, Report no. SRRC-CR-6843, Sept. 1968.

6. Dov Frohman-Bentchkowsky, Integrated MNOS memory organization US Patent 3641512A

7. Neale, R. G., D. L. Nelson, Gordon E. Moore, Nonvolatile and reprogrammable the read-mostly memory is here, Electronics (September 28, 1970) pp. 5660.

8. Tarui, Yasuo; Hayashi, Yutaka; Nagai, Kiyoko Proposal of electrically reprogrammable non-volatile semiconductor memory. Proceedings of the 3rd Conference on Solid State Devices, Tokyo. The Japan Society of Applied Physics (19710901): 155162.

9. MOS EPROM Forecast, Dataquest SIS Prod., Mkt., & Tech. Report 0004718 (August 1989) p. 2

Ссылки на транскрипты интервью


Интервью с Довом Фроманом, 0341, Science History Institute

Интервью с Довом Фроманом, каталог 102702214, Computer History Museum Collection

Интервью с Эли Харари, каталог 102745933, Computer History Museum Collection

Интервью с разработчиками Flash Intel, каталог 102658199 Computer History Museum Collection

Интервью с Санджаем Мехротра, каталог 102740455, Computer History Museum Collection

Интервью с Фудзио Масуока, каталог 102746703 Computer History Museum Collection

Интервью с Джорджем Перлегосом, каталог 102746703 Computer History Museum Collection

Личный рассказ Эда Сэка, каталог 500001027 Computer History Museum Collection

Интервью с Чарльзом Си, каталог 102746598 Computer History Museum Collection

Интервью с Саймоном Зи, каталог 102746858 Computer History Museum Collection



На правах рекламы


Наши эпичные серверы используют only NVMe сетевое хранилище с тройной репликацией данных. Вы можете использовать сервер для любых задач разработки, размещения сайтов, использования под VPN и даже получить удалённую машину на Windows! Идей может быть много и любую из них поможем воплотить в реальность!

Подробнее..

Технологии противоударной защиты жестких дисков

15.02.2021 22:09:28 | Автор: admin


Поскольку жесткий диск является не просто электронным, а электромеханическим устройством, его главными врагами были и остаются сильная вибрация и удары. Но если вибрационное воздействие приводит к снижению производительности винчестера, что объясняется отклонением блока головок от заданной траектории и повторной инициализацией процедуры позиционирования, то даже достаточно сильный толчок (не говоря уже о падении) может спровоцировать полный выход накопителя из строя. Почему HDD такие нежные и на какие меры идут производители винчестеров для повышения их надежности? Попробуем разобраться.

Удары судьбы: почему жесткие диски такие хрупкие?


Прежде всего давайте вспомним, как устроен жесткий диск. Внутри HDD находится набор тонких металлических пластин (в просторечии блинов), покрытых слоем ферромагнетика вещества, способного сохранять намагниченность в течение длительного времени даже при отсутствии воздействия внешнего магнитного поля. Эти пластины вращаются с огромной скоростью от 5400 оборотов в минуту и более, перемещаясь относительно блока головок, состоящего из нескольких штанг, приводимых в движение так называемыми звуковыми катушками.

На острие каждой штанги расположены пишущие головки и считывающие сенсоры. Пишущие головки призваны менять направление векторов намагниченности дискретных участков ферромагнитного покрытия (магнитных доменов) в соответствии с командами, поступающими от контроллера HDD. При этом каждый домен кодирует один бит информации, принимая логическое значение 0 или 1 в зависимости от направления вектора намагниченности.



В основе работы считывающих модулей современных жестких дисков лежит гигантский магниторезистивный эффект: электрическое сопротивление сенсора меняется под действием магнитного поля доменов ферромагнитного слоя, что и фиксируется контроллером HDD, который, в свою очередь, интерпретирует увеличение или уменьшение сопротивления относительно заданного уровня как логический ноль или единицу.

Чтобы добиться высокой плотности записи, магнитные головки пришлось сделать чрезвычайно маленькими, ведь именно от их габаритов зависит ширина треков на магнитной пластине. Размер пишущего модуля в современных винчестерах не превышает 120 нанометров, а считывающего 70 нанометров.

Сопоставление размеров пищущей и считывающей головок жесткого диска и ребра 10-центовой монеты

Именно благодаря такой миниатюризации плотность записи данных удалось довести до впечатляющего показателя 1 Тбит/дюйм2, и это с помощью традиционного метода CMR. Однако у такого подхода существует и побочный эффект. Поскольку размеры магнитных головок существенно сократились, снизилась и сила создаваемого ими магнитного поля, что вынудило инженеров значительно уменьшить расстояние между головками и поверхностью магнитных пластин.

Когда HDD функционирует, магнитные головки парят над поверхностью блинов на высоте всего около 1215 нанометров, причем достигается это за счет экранного эффекта: под каждой штангой, словно под крылом взлетающего самолета, образуется воздушная подушка, обеспечивающая необходимую подъемную силу. Нетрудно догадаться, что сами по себе магнитные пластины должны быть идеально гладкими и не иметь каких-либо неровностей. Это и правда так: перепад высот на поверхности каждой пластины не превышает 0,6 нанометра. Немыслимая точность!



Однако подобная конструкция имеет один весьма существенный недостаток: жесткий диск оказывается чрезвычайно уязвимым к ударным воздействиям во время работы. Ударостойкость современных накопителей потребительского и корпоративного класса достигает 300350G за 2 мс в покое и лишь 3050G за 2 мс в режиме чтения/записи.

Столь высокий разброс значений объясняется тем, что пока диск отключен от питания, блок головок остается припаркованным. Рассмотрим фотографию ниже: каждый кронштейн получает дополнительную точку фиксации, опираясь на пластиковые пилоны в парковочной зоне, причем сами головки не касаются пластика, а нависают над ним. В таком состоянии им не страшны ни сильная вибрации, ни даже удары.



В рабочем же состоянии актуатор HDD лишен дополнительной опоры, поэтому удар достаточной силы, вектор которого будет направлен перпендикулярно к плоскости диска (или под незначительным углом к перпендикулярной оси), неизбежно приведет к соприкосновению головок и магнитных пластин. Схематично этот процесс можно изобразить так.



Выше приведен самый удачный сценарий развития событий: из-за миниатюрных размеров головок и огромной скорости вращения магнитных пластин пишущий и считывающий модули с большой долей вероятности попросту оторвутся от кронштейна и жесткий диск моментально придет в негодность. Если же вам все-таки повезло и дело ограничилось лишь появлением царапин на ферромагнитном слое, не стоит думать, что в этом случае удастся отделаться некоторым количеством битых кластеров. Увы, жесткий диск начнет медленно, но верно умирать, а количество ошибок чтения/записи множиться с каждым днем. И вот почему.

Проблема 1: частицы ферромагнетика остаются на поверхности магнитных пластин


Хотя блины винчестера и вращаются с огромной скоростью, осколки ферромагнитного слоя никуда не денутся: они слишком маленькие и легкие, так что величины магнитного поля доменов будет вполне достаточно, для того чтобы противостоять центробежной силе и удерживать мельчайшие частицы. Само по себе их присутствие на поверхности магнитных пластин чревато ошибками чтения/записи даже в том случае, если они не будут непосредственно соприкасаться с самими головками.

Проблема 2: частицы ферромагнетика играют роль абразива


Поскольку расстояние между поверхностью магнитных пластин и головок чрезвычайно мало, микроскопические частицы ферромагнетика будут неизбежно их задевать, постепенно стачивая подобно наждачной бумаге. Да и сама поверхность блинов станет все больше и больше царапаться, что будет выражаться в постепенном увеличении количества битых кластеров.

Проблема 3: считывающий сенсор будет нагреваться под действием силы трения


Когда частицы ферромагнетика, движущиеся на огромной скорости, задевают сенсор, последний, в силу микроскопических размеров, мгновенно разогревается, из-за чего сопротивление в датчике резко повышается и данные со считывающей головки интерпретируются неверно. Это приводит к многочисленным ошибкам чтения даже на том этапе, когда считывающая головка еще исправна.

Повреждение блока головок отнюдь не единственное (хотя и наиболее тяжелое) последствие ударного воздействия на жесткий диск. В зоне риска также находятся подшипники магнитных пластин. Сильный удар шарика по обойме подшипника может привести к ее деформации, повреждению самого шарика или дорожки качения (иногда ко всему перечисленному сразу). Хотя HDD продолжит работать, поврежденный подшипник будет сильно вибрировать, что негативно скажется на производительности винчестера и повлечет за собой преждевременный износ мотора шпинделя.



И наконец, самое меньшее из зол проскальзывание магнитных пластин в пакете, когда один или несколько блинов, получив дополнительное ускорение, проворачивается относительно своих собратьев. При этом именно данная проблема встречается значительно реже всех, перечисленных выше, и оказывает минимальное влияние на работоспособность HDD.

Ключевые подходы к защите HDD от ударных воздействий


Хотя история жестких дисков насчитывает более 64 лет, производители винчестеров всерьез озаботились их противоударной защитой лишь в 1997 году. Такое отношение выглядит легкомысленным, но на самом деле объяснить промедление достаточно просто.

В конце 90-х мода на компактные внешние HDD лишь начинала набирать обороты. Отправной точкой можно назвать появление IBM Microdrive, выпущенных в 1999 году, о которых мы уже писали ранее в материале, посвященном внешним накопителям данных. А между тем именно портативные накопители наиболее уязвимы.

Вскрытый IBM Microdrive в сравнении с монетой достоинством 50 евроцентов

Представить ситуацию, когда внутренний жесткий диск, будучи уже установленным в ПК, может выйти из строя от удара, довольно сложно (разве что вы специально станете бить кувалдой по его корпусу). Массивный каркас Full Tower вполне способен обеспечить адекватную защиту установленных внутри винчестеров, эффективно поглощая кинетическую энергию. Если вы, к примеру, случайно заденете компьютер ногой, воздействие на жесткий диск будет гораздо слабее 30G за 2 мс (и даже меньше 10G за 2 мс именно столько могли выдерживать HDD, выпущенные на рубеже XXXXI веков), так что здесь предпринимать какие-то особые меры не имеет практического смысла.

Корпуса лэптопов тех времен тоже были не чета современным сверхтонким моделям: ноутбуки 90-х годов обеспечивали вполне достойную защиту установленных в них винчестеров, пусть и не такую надежную, как стационарные компьютеры.

Старые ноутбуки были куда прочнее. На фото Siemens Nixdorf PCD-5ND

Напротив, в портативных накопителях данных HDD отделяет от внешнего мира лишь тонкий пластиковый корпус, неспособный поглотить всю энергию удара. Каким же образом в этом случае винчестер можно защитить от повреждения?

Первопроходцем в сфере разработки систем противоударной защиты стала сама IBM. Именно инженеры американской корпорации создали технологию с незамысловатым названием Ramp Load/Unload, которая сегодня используется повсеместно в каждом жестком диске независимо от ценовой категории. Речь идет об упомянутой выше парковочной зоне и системе пластиковых пилонов, фиксирующих штанги блока головок, пока HDD отключен от питания. Для своего времени такое решение стало по-настоящему инновационным, позволив увеличить ударостойкость винчестеров в покое в несколько раз.

В старых моделях жестких дисков система парковки блока головок в принципе отсутствовала

Среди таких же простых, но достаточно эффективных мер необходимо упомянуть и технологию Samsung ShockSkinBumper (SSB). Как нетрудно догадаться по названию, суть инновации заключается в наличии встроенного в корпус накопителя бампера, представленного тонким силиконовым ободком, облегающим металлическую крышку гермозоны винчестера.

Если присмотреться, то можно заметить кромку Samsung ShockSkinBumper

Согласно данным Samsung, бампер оказался чрезвычайно эффективен и помог снизить втрое перегрузки, воздействующие на внутренние узлы винчестера при ударе или падении, значительно повысив его ударостойкость в состоянии покоя.

Что касается проблемы повреждения подшипников, то изначально производители винчестеров экспериментировали с формой обоймы и размерами тел качения, стремясь найти оптимальный баланс между величиной площади соприкосновения шариков с дорожками (чем она больше, тем лучше подшипник переносит ударные воздействия) и сопротивлением, возникающим при трении их поверхностей друг о друга. В дальнейшем на смену обычным подшипникам качения пришли более совершенные гидродинамические подшипники скольжения, в которых вращение вала шпинделя происходит в слое жидкости, удерживающейся внутри втулки за счет создающейся при работе двигателя разницы давлений. Такой подход помог не только повысить ударостойкость жестких дисков, но и снизить уровень вибрации и шума, создаваемых ими во время работы, а заодно повысить их отказоустойчивость.

Нет шариков нет проблем

Однако главное, чего стремились добиться все без исключения производители винчестеров, максимально защитить от ударных воздействий блок головок. Пионером на этом поприще стала компания Quantum, представившая еще в 1998 году собственную систему защиты жестких дисков Quantum Shock Protection System (SPS), первая практическая реализация которой увидела свет в составе винчестеров Fireball EL.

Жесткий диск с улучшенной ударостойкостью Fireball EL от компании Quantum на 2,5 гигабайта

В общей сложности пакет улучшений SPS включал в себя 14 технологических нововведений, направленных на поглощение и компенсацию ударного воздействия на актуатор. Уже в 1999 году свет увидела доработанная система SPS II, а первым диском с поддержкой обновленной противоударной технологии закономерно стал Fireball Ict.

Параллельно с Quantum изыскания в области защиты винчестеров от ударов и падений вел и их прямой конкурент Maxtor Corporation. Результатом усилий инженеров компании стала технология ShockBlock, нашедшая применение в накопителях алмазной линейки DiamondMax.

Жесткий диск Maxtor DiamondMax Plus 21

Усовершенствованием блока головок активно занимался и Samsung: запатентованная технология корейской корпорации, получившая название Impact Guard, включала в себя ряд усовершенствований конструкции несущих кронштейнов, подвески и системы стабилизации. Не отставала и Western Digital: набор улучшений Shock Guard, специально разработанный для жестких дисков марки Caviar, помог довести ударостойкость жестких дисков, выпускаемых компанией, до значений, сопоставимых с показателями современных HDD.

Досконально описывать каждую из перечисленных технологий не имеет смысла: конструктивные решения, призванные повысить ударостойкость жестких дисков, так или иначе повторяли друг друга, хотя и имели различия в способах реализации. Перечислим основные приемы, которые брали на вооружение производители HDD, чтобы повысить их ударостойкость:

  • поглощение кинетической энергии конструкционными элементами корпуса;
  • уменьшение хлесткости кронштейнов за счет повышения их жесткости;
  • установка амортизирующей подвески головок, позволяющей минимизировать повреждения модулей чтения/записи и ферромагнитного слоя при контакте между ними.

Последний пункт требует дополнительных пояснений. В ходе испытаний было установлено, что степень разрушения ферромагнитного покрытия, равно как и вероятность отрыва магнитных головок, зависит не столько от силы удара, сколько от того, как именно модули чтения и записи соприкасаются с поверхностью блинов. Самые обширные повреждения закономерно наблюдаются в том случае, если головка задевает пластину краем или углом.

Усовершенствованный механизм подвески позволил добиться того, чтобы магнитные головки соприкасались с пластинами плашмя, всей своей поверхностью, как это показано на приведенной ниже схеме.



Поскольку их поверхности практически идеально гладкие, вероятность образования сколов (и тем более полного отрыва магнитных головок) заметно снижается, а при самом благоприятном стечении обстоятельств и ферромагнитное покрытие, и сами модули остаются невредимыми.

Неубиваемые накопители для спорта и активного отдыха


Хотя перечисленные меры помогли значительно повысить надежность жестких дисков, чуда так и не произошло. Как ни крути, но с физикой не поспоришь, и если тот же Maxtor в свое время смог довести ударостойкость винчестеров в состоянии покоя до впечатляющих 1000G за 2 мс, пусть и на тестовых образцах, то обеспечить сопоставимый уровень защиты блока головок во время работы HDD оказалось практически невозможно.

Однако с удешевлением флеш-памяти ситуация на рынке в корне изменилась, а потребность в противоударных внешних жестких дисках практически исчезла, ведь им на смену пришли твердотельные накопители. В силу технологических особенностей, SSD оказываются в значительно более выгодном положении: они не содержат подвижных компонентов, а значит, все, чего необходимо добиться, чтобы получить на выходе устройство, устойчивое к ударам, создать достаточно прочный корпус, способный обеспечить должный уровень защиты печатной платы, что гораздо проще по сравнению с разработкой динамических систем компенсации. Впрочем, лучше один раз увидеть, чем сто раз услышать. Просто посмотрите на эту фотографию.



На туристическом карабине, пристегнутом к рюкзаку, висит SanDisk Extreme Portable SSD компактный твердотельный накопитель, ориентированный на поклонников активного отдыха. Если подобным образом обращаться с обычным HDD, то он почти наверняка придет в полную негодность уже через пару марш-бросков. Однако SSD поломка не грозит: благодаря резиновопластиковому корпусу он способен выдерживать перегрузки вплоть до 1500G за 2 мс, что в 5 раз больше, чем ударостойкость жесткого диска в покое, и практически в 30 раз больше по сравнению с ударостойкостью HDD при чтении/записи данных. При этом показатель 1500G является константой и никак не изменяется, даже когда вы работаете с твердотельным накопителем.

Помимо того, что SanDisk Extreme Portable SSD способен выдерживать значительные перегрузки, устройство превосходно защищено от воздействия пыли и влаги по стандарту IP55.



Первая цифра индекса указывает на то, что SSD имеет пылезащищенное исполнение: хотя некоторое количество мелкодисперсных частиц и может проникнуть внутрь его корпуса, это никак не скажется на работоспособности устройства. Вторая цифра говорит о том, что корпус твердотельного накопителя способен противостоять даже сильным водяным струям, падающим с любого направления.

С водонепроницаемостью связана и еще одна интересная особенность данной серии накопителей. Обратите внимание: разъем USB Type-C, расположенный на нижнем торце, не имеет резиновой заглушки, которую обычно ожидаешь увидеть на подобном устройстве.



Недоработка? Отнюдь нет. Все дело в том, что порт никак не сообщается с внутренними полостями корпуса: он полностью обособлен и герметичен, так что попавшая в него вода никак не навредит электронным компонентам SSD, хотя перед использованием разъем и придется как следует просушить. Такой подход позволил сделать твердотельный накопитель еще надежнее и долговечнее, ведь любые заглушки имеют свойство разбалтываться со временем.

Что же касается производительности, то и здесь SanDisk Extreme Portable не подкачал, демонстрируя устойчивую скорость передачи данных 550 МБ/с. Если же вам этого недостаточно, то рекомендуем обратить внимание на Pro-версию устройства.



У накопителей старшей линейки немного изменился дизайн: боковая оранжевая вставка и измененная форма проушины сделали облик SSD более спортивным и выразительным. Но главное отличие Pro-версии от обычной кроется в поддержке высокоскоростного интерфейса USB 3.2 Gen 2, благодаря чему быстродействие накопителя возросло до впечатляющих 1050 МБ/с. С такой скоростью даже на передачу 100 ГБ данных уйдет не более 2 минут.



Хотите большего? В этом году свет увидели обновленные версии отказоустойчивых накопителей SanDisk Extreme Portable V2. Как и ранее, семейство компактных SSD разделено на две линейки: стандартную и Pro. С точки зрения защиты от ударов, пыли и воды ровным счетом ничего не изменилось, однако их производительность возросла ровно в два раза.

SanDisk Extreme Portable V2 обзавелись USB 3.2 Gen 2 и теперь могут похвастаться скоростью 1050 МБ/с в операциях чтения и до 1000 МБ/с при записи файлов. В свою очередь, SanDisk Extreme Portable Pro V2 придутся по вкусу обладателям устройств с поддержкой USB 3.2 Gen 2 x 2: впечатляющие 2000 МБ/с делают этот SSD самым быстрым среди защищенных моделей, доступных на рынке, и позволяют в считанные секунды передавать даже весьма объемные файлы, что наверняка понравится любителям фото- и видеосъемки, тревел-блогерам, журналистам и другим создателям контента.



В качестве же дополнительного бонуса необходимо упомянуть встроенную поддержку аппаратного шифрования AES с 256-битным ключом, которое на сегодняшний день является одним из наиболее надежных методов криптографической защиты данных. Таким образом, с новыми SanDisk Extreme Portable вы можете быть на 100% спокойны за сохранность ценной для вас информации.
Подробнее..

Технологии магнитной записи HDD просто о сложном

21.10.2020 20:04:14 | Автор: admin

Первый в мире жесткий диск, IBM RAMAC 305, увидевший свет в 1956 году, вмещал лишь 5 МБ данных, а весил при этом 970 кг и по габаритам был сопоставим с промышленным рефрижератором. Современные корпоративные флагманы способны похвастаться емкостью уже в 20 ТБ. Только представьте себе: 64 года назад, для того чтобы записать такое количество информации, потребовалось бы свыше 4 миллионов RAMAC 305, а размеры ЦОДа, необходимого для их размещения, превысили бы 9 квадратных километров, тогда как сегодня для этого будет достаточно маленькой коробочки весом около 700 грамм! Во многом добиться столь невероятного повышения плотности хранения удалось благодаря совершенствованию методов магнитной записи.
В это сложно поверить, однако принципиально конструкция жестких дисков не меняется вот уже почти 40 лет, начиная с 1983 года: именно тогда свет увидел первый 3,5-дюймовый винчестер RO351, разработанный шотландской компанией Rodime. Этот малыш получил две магнитные пластины по 10 МБ каждая, то есть был способен вместить вдвое больше данных, чем обновленный ST-412 на 5,25 дюйма, выпущенный Seagate в том же году для персональных компьютеров IBM 5160.


Rodime RO351 первый в мире 3,5-дюймовый винчестер

Несмотря на инновационность и компактные размеры, на момент выхода RO351 оказался практически никому не нужен, а все дальнейшие попытки Rodime закрепиться на рынке винчестеров потерпели фиаско, из-за чего в 1991 году компания была вынуждена прекратить свою деятельность, распродав практически все имеющиеся активы и сократив штат до минимума. Однако стать банкротом Rodime оказалось не суждено: в скором времени к ней начали обращаться крупнейшие производители винчестеров, желающие приобрести лицензию на использование запатентованного шотландцами форм-фактора. В настоящее время 3,5 дюйма является общепринятым стандартом производства как потребительских HDD, так и накопителей корпоративного класса.

С появлением нейросетей, Deep Learning и интернета вещей (IoT) объем создаваемых человечеством данных стал лавинообразно расти. По оценкам аналитического агентства IDC, к 2025 году количество информации, генерируемой как самими людьми, так и окружающими нас девайсами, достигнет 175 зеттабайт (1 Збайт = 1021 байт), и это при том, что в 2019-м таковое составляло 45 Збайт, в 2016-м 16 Збайт, а в далеком 2006-м общий объем данных, произведенных за всю обозримую историю, не превышал 0,16 (!) Збайт. Справиться с информационным взрывом помогают современные технологии, среди которых не последнее место занимают усовершенствованные методы записи данных.

LMR, PMR, CMR и TDMR: в чем разница?


Принцип работы жестких дисков достаточно прост. Тонкие металлические пластины, покрытые слоем ферромагнитного материала (кристаллического вещества, способного сохранять намагниченность даже при отсутствии воздействия на него внешнего магнитного поля при температуре ниже точки Кюри) движутся относительно блока пишущих головок на большой скорости (5400 оборотов в минуту или более). При подаче электрического тока на пишущую головку возникает переменное магнитное поле, которое изменяет направление вектора намагниченности доменов (дискретных областей вещества) ферромагнетика. Считывание данных происходит либо за счет явления электромагнитной индукции (перемещение доменов относительно сенсора вызывает в последнем возникновение переменного электрического тока), либо за счет гигантского магниторезистивного эффекта (под действием магнитного поля изменяется электрическое сопротивление датчика), как это реализовано в современных накопителях. Каждый домен кодирует один бит информации, принимая логическое значение 0 или 1 в зависимости от направления вектора намагниченности.

Долгое время жесткие диски использовали метод продольной магнитной записи (Longitudinal Magnetic Recording, LMR), при котором вектор намагниченности доменов лежал в плоскости магнитной пластины. Несмотря на относительную простоту реализации, данная технология имела существенный недостаток: для того чтобы побороть коэрцитивность (переход магнитных частиц в однодоменное состояние), между треками приходилось оставлять внушительную буферную зону (так называемое guard space защитное пространство). Вследствие этого максимальная плотность записи, которой удалось добиться на закате данной технологии, составляла всего 150 Гбит/дюйм2.


В 2010 году LMR была практически полностью вытеснена PMR (Perpendicular Magnetic Recording перпендикулярная магнитная запись). Главное отличие данной технологии от продольной магнитной записи состоит в том, что вектор магнитной направленности каждого домена располагается под углом 90 к поверхности магнитной пластины, что позволило существенно сократить промежуток между треками.

За счет этого плотность записи данных удалось заметно увеличить (до 1 Тбит/дюйм2 в современных устройствах), при этом не жертвуя скоростными характеристиками и надежностью винчестеров. В настоящее время перпендикулярная магнитная запись является доминирующей на рынке, в связи с чем ее также часто называют CMR (Conventional Magnetic Recording обычная магнитная запись). При этом надо понимать, что между PMR и CMR нет ровным счетом никакой разницы это всего лишь другой вариант названия.


Изучая технические характеристики современных жестких дисков, вы также можете наткнуться на загадочную аббревиатуру TDMR. В частности, данную технологию используют накопители корпоративного класса Western Digital Ultrastar 500-й серии. С точки зрения физики TDMR (что расшифровывается как Two Dimensional Magnetic Recording двумерная магнитная запись) ничем не отличается от привычной нам PMR: как и прежде, мы имеем дело с непересекающимися треками, домены в которых ориентированы перпендикулярно плоскости магнитных пластин. Разница между технологиями заключается в подходе к считыванию информации.

В блоке магнитных головок винчестеров, созданных по технологии TDMR, на каждую пишущую головку приходятся по два считывающих сенсора, осуществляющих одновременное чтение данных с каждого пройденного трека. Такая избыточность дает возможность контроллеру HDD эффективно фильтровать электромагнитные шумы, появление которых обусловлено межтрековой интерференцией (Intertrack Interference, ITI).


Решение проблемы с ITI обеспечивает два чрезвычайно важных преимущества:

  1. снижение коэффициента помех позволяет повысить плотность записи за счет уменьшения расстояния между треками, обеспечивая выигрыш по общей емкости вплоть до 10% по сравнению с обычной PMR;
  2. в сочетании с технологией RVS и трехпозиционным микроактуатором, TDMR позволяет эффективно противостоять ротационной вибрации, вызванной работой винчестеров, что помогает добиться стабильного уровня производительности даже в наиболее сложных условиях эксплуатации.

Что такое SMR и с чем его едят?


Размеры пишущей головки примерно в 1,7 раза больше по сравнению с размерами считывающего сенсора. Столь внушительная разница объясняется достаточно просто: если записывающий модуль сделать еще более миниатюрным, силы магнитного поля, которое он сможет генерировать, окажется недостаточно для намагничивания доменов ферромагнитного слоя, а значит, данные попросту не будут сохраняться. В случае со считывающим сенсором такой проблемы не возникает. Более того: его миниатюризация позволяет дополнительно снизить влияние упомянутой выше ITI на процесс считывания информации.

Данный факт лег в основу черепичной магнитной записи (Shingled Magnetic Recording, SMR). Давайте разбираться, как это работает. При использовании традиционного PMR пишущая головка смещается относительно каждого предыдущего трека на расстояние, равное ее ширине + ширина защитного пространства (guard space).


При использовании черепичного метода магнитной записи пишущая головка смещается вперед лишь на часть своей ширины, поэтому каждый предыдущий трек оказывается частично перезаписан последующим: магнитные дорожки накладываются друг на друга подобно кровельной черепице. Такой подход позволяет дополнительно повысить плотность записи, обеспечивая выигрыш по емкости до 10%, при этом не отражаясь на процессе чтения. В качестве примера можно привести Western Digital Ultrastar DC HC 650 первые в мире 3.5-дюймовые накопители объемом 20 ТБ с интерфейсом SATA/SAS, появление которых стало возможным именно благодаря новой технологии магнитной записи. Таким образом, переход на SMR-диски позволяет повысить плотность хранения данных в тех же стойках при минимальных затратах на модернизацию IT-инфраструктуры.


Несмотря на столь значительное преимущество, SMR имеет и очевидный недостаток. Поскольку магнитные дорожки накладываются друг на друга, при обновлении данных потребуется перезапись не только требуемого фрагмента, но и всех последующих треков в пределах магнитной пластины, объем которой может превышать 2 терабайта, что чревато серьезным падением производительности.

Решить данную проблему помогает объединение определенного количества треков в обособленные группы, называемые зонами. Хотя такой подход к организации хранения данных несколько снижает общую емкость HDD (поскольку между зонами необходимо сохранять достаточные промежутки, препятствующие перезаписи треков из соседних групп), это позволяет существенно ускорить процесс обновления данных, так как теперь в нем участвует лишь ограниченное количество дорожек.


Черепичная магнитная запись предполагает несколько вариантов реализации:

  • Drive Managed SMR (SMR, управляемая диском)

Основным ее преимуществом является отсутствие необходимости в модификации программного и/или аппаратного обеспечения хоста, поскольку управление процедурой записи данных берет на себя контроллер HDD. Такие диски могут быть подключены к любой системе, в которой присутствует необходимый интерфейс (SATA или SAS), после чего накопитель будет сразу готов к работе.

Недостаток этого подхода заключается в изменчивости уровня производительности, в связи с чем Drive Managed SMR оказывается неподходящей для корпоративных приложений, в которых постоянство быстродействия системы является критически важным параметром. Тем не менее такие диски хорошо показывают себя в сценариях, предоставляющих достаточное время для выполнения фоновой дефрагментации данных. Так, например, DMSMR-накопители WD Red, оптимизированные для использования в составе малых NAS на 8 отсеков, станут отличным выбором для системы архивирования или резервного копирования, предполагающей долговременное хранение бэкапов.


  • Host Managed SMR (SMR, управляемая хостом)

Host Managed SMR наиболее предпочтительный вариант реализации черепичной записи для использования в корпоративной среде. В данном случае за управление потоками данных и операциями чтения/записи отвечает сама хост-система, задействующая для этих целей расширения интерфейсов ATA (Zoned Device ATA Command Set, ZAC) и SCSI (Zoned Block Commands, ZBC), разработанные комитетами INCITS T10 и T13.

При использовании HMSMR весь доступный объем накопителя разделяется на зоны двух типов: Conventional Zones (обычные зоны), которые используются для хранения метаданных и произвольной записи (по сути, играют роль кэша), и Sequential Write Required Zones (зоны последовательной записи), занимающие большую часть общей емкости жесткого диска, в которых данные записываются строго последовательно. Неупорядоченные данные сохраняются в области кэширования, откуда затем могут быть перенесены в соответствующую зону последовательной записи. Благодаря этому все физические сектора записываются последовательно в радиальном направлении и перезаписываются только после циклического переноса, что позволяет добиться стабильной и предсказуемой производительности системы. При этом HMSMR-диски поддерживают команды произвольного чтения аналогично накопителям, использующим стандартный PMR.

Host Managed SMR реализована в жестких дисках enterprise-класса Western Digital Ultrastar HC DC 600-й серии.


Линейка включает в себя SATA- и SAS-накопители высокой емкости, ориентированные на использование в составе гипермасштабных центров обработки данных. Поддержка Host Managed SMR существенно расширяет сферу применения таких винчестеров: помимо систем резервного копирования, они прекрасно подойдут для облачных хранилищ, CDN или стриминговых платформ. Высокая емкость жестких дисков позволяет существенно повысить плотность хранения (в тех же стойках) при минимальных затратах на апгрейд, а низкое энергопотребление (не более 0,29 Ватта на каждый терабайт сохраненной информации) и тепловыделение (в среднем на 5 C ниже, чем у аналогов) дополнительно сократить операционные расходы на обслуживание ЦОДа.

Единственным недостатком HMSMR является сравнительная сложность имплементации. Все дело в том, что на сегодняшний день ни одна операционная система или приложение не умеют работать с подобными накопителями из коробки, в силу чего для адаптации IT-инфраструктуры требуются серьезные изменения стека программного обеспечения. В первую очередь это касается, конечно же, самой ОС, что в условиях современных ЦОД, использующих многоядерные и многосокетные сервера, является достаточно нетривиальной задачей. Узнать подробнее о вариантах реализации поддержки Host Managed SMR можно на специализированном ресурсе ZonedStorage.io, посвященном вопросам зонального хранения данных. Собранные здесь сведения помогут предварительно оценить степень готовности вашей IT-инфраструктуры для перевода на зональные системы хранения.

  • Host Aware SMR (SMR, поддерживаемая хостом)

Устройства с поддержкой Host Aware SMR сочетают в себе удобство и гибкость Drive Managed SMR и высокую скорость записи Host Managed SMR. Такие накопители обратно совместимы с устаревшими системами хранения и могут функционировать без непосредственного контроля со стороны хоста, однако в этом случае, как и при работе с DMSMR-дисками, их производительность становится непредсказуемой.

Подобно Host Managed SMR, Host Aware SMR использует два типа зон: Conventional Zones для произвольной записи и Sequential Write Preferred Zones (зоны, предпочтительные для последовательной записи). Последние, в отличие от упомянутых выше Sequential Write Required Zones, автоматически переводятся в разряд обычных в том случае, если в них начинает вестись неупорядоченная запись данных.

Реализация SMR с поддержкой хоста предусматривает внутренние механизмы восстановления после непоследовательной записи. Неупорядоченные данные записываются в области кэширования, откуда диск может переносить информацию в зону последовательной записи, после того как будут получены все необходимые блоки. Для управления неупорядоченной записью и фоновой дефрагментацией диск использует таблицу косвенного обращения. Однако, если корпоративным приложениям требуется предсказуемая и оптимизированная производительность, достичь этого по-прежнему можно лишь в случае, когда хост берет на себя полное управление всеми потоками данных и зонами записи.
Подробнее..

Категории

Последние комментарии

  • Имя: Макс
    24.08.2022 | 11:28
    Я разраб в IT компании, работаю на арбитражную команду. Мы работаем с приламы и сайтами, при работе замечаются постоянные баны и лаги. Пацаны посоветовали сервис по анализу исходного кода,https://app Подробнее..
  • Имя: 9055410337
    20.08.2022 | 17:41
    поможем пишите в телеграм Подробнее..
  • Имя: sabbat
    17.08.2022 | 20:42
    Охренеть.. это просто шикарная статья, феноменально круто. Большое спасибо за разбор! Надеюсь как-нибудь с тобой связаться для обсуждений чего-либо) Подробнее..
  • Имя: Мария
    09.08.2022 | 14:44
    Добрый день. Если обладаете такой информацией, то подскажите, пожалуйста, где можно найти много-много материала по Yggdrasil и его уязвимостях для написания диплома? Благодарю. Подробнее..
© 2006-2024, personeltest.ru