Русский
Русский
English
Статистика
Реклама

Хранение информации

Перевод Цитату из романа Джейн Остин закодировали в куске пластика

29.04.2021 12:05:53 | Автор: admin

В 1814 году цитату из романа Джейн Остин Мэнсфилд Парк Когда один повод для счастья себя исчерпывает, человек ищет другой напечатали с помощью революционного на тот момент парового принтера, способного печатать текст более чем на тысяче листов бумаги в час.

В начале нулевых роман перекочевал в интернет. Теперь и его, и другие работы Джейн Остин можно прочитать онлайн. Но в этом году появился как минимум еще один весьма специфичный носитель информации.

Специалисты из Техасского университета закодировали цитату из знаменитой книги в молекулу пластика. Авторы эксперимента надеются, что их разработка поможет создать новый тип хранилища данных.

Хранение архивов всегда было проблемой, даже если соблюдать все меры предосторожности и быть предельно аккуратным. Самые трепетно охранявшиеся оригинальные копии произведения Мэнсфилд Парк стареют. Постепенно выцветают чернила, бумага желтеет и становится морщинистой.

Сейчас человечество генерирует намного больше информации, чем когда-либо в истории (по текущим расчетам не меньше 1.145 триллиона мегабайт данных в день). Если попытаться всю эту массу скачать, то с нынешними скоростями интернета на загрузку всей информации уйдет почти два миллиарда лет.

Большая часть ныне существующих дата-центров, отвечающих за хранение информации, оснащена жесткими дисками. И несмотря на непрекращающуюся эволюцию программного обеспечения и аппаратной составляющей компьютеров, носители остаются краеугольным камнем прогресса.

В связи с этим инженеры находятся в поиске более компактного, стабильного и эффективного способа хранения данных. Еще более совершенного, чем нынешние жесткие диски и SSD. В последнее время исследователи все чаще рассматривают вариант хранения информации в ДНК нуклеотидных последовательностях, которые несут в себе информацию о большинстве живых организмов, населяющих Землю. Это сложная система, которую природа развивала миллионы лет и заключила в ней ключевые данные о различных видах животных (включая Homo Sapiens). И теперь человечество хочет взять модель на вооружение в качестве альтернативы жестким дискам. Интерпретируя слова Джейн Остин, можно сказать: Когда одна технология себя исчерпывает, человек ищет другую.

Ученые рассматривают модель ДНК как альтернативу для жестких дисковУченые рассматривают модель ДНК как альтернативу для жестких дисков

ДНК может храниться более 500 000 лет (если соблюдать условия хранения, конечно). Это куда больше, чем могут позволить себе бумага и чернила. Правда, для содержания ДНК нужно стерильное пространство и особая аккуратность архивариусов, которые будут с ней взаимодействовать. Из-за этого использование ДНК в качестве альтернативного хранилища данных может быть слишком дорогим.

Но есть материал более выносливый, чем ДНК. Синтетический продукт, изобретенный 100 лет назад. Стабильный, легкий в производстве и более надежный. Речь о полимерах длинноцепочечных молекулах, состоящих из отдельных повторяющихся компонентов, именуемых мономерами.

Специалисты рассчитали, что в четырех основаниях ДНК (будем считать их строительными блоками) можно хранить до 1019 бит информации на кубический метр. При использовании полимеров количество таких строительных блоков не ограничено. Сколько человек произведет полимеров, столько и будет мономеров, а вместе с ними и пространства для хранения данных.

Команда исследователей из Техаса использовала для создания экспериментальных мономеров 16 видов аминоспиртов. Связав их вместе, ученые произвели 18 олигомеров (молекул с небольшим количество мономеров). В каждом олигомере хранится комбинация мономеров, отвечающая за специфичные символы. А мономеры по отдельности отвечают за часто используемые символы.

Если расшифровать полученную комбинацию элементов, то получится фраза из романа Джейн Остин:

if one scheme of happiness fails, human nature turns to another; if the first calculation is wrong, we make a second better: we find comfort somewhere

Дословный перевод:

если одна схема счастья не срабатывает, то человеческая натура начинает искать новую; если первый расчет оказался неверным, мы делаем второй: и так, пока где-то не найдем покой

Исследователи выбрали именно эту цитату, потому что она воодушевляет (особенно в наше непростое время), и ее легко понять даже вне контекста самого произведения.

Забавно, что вторая часть фразы возымела особый смысл для ученых при расшифровке закодированного в полимер сообщения, потому что с первой попытки удалось восстановить только 98.7% данных. И только после внесения некоторых улучшений в процесс расшифровки удалось прочитать все 158 последовательностей мономеров, созданных техасскими исследователями без единой ошибки.

Авторы эксперимента выбрали эту цитату, потому что она показалась им воодушевляющейАвторы эксперимента выбрали эту цитату, потому что она показалась им воодушевляющей

Жесткие диски на основе пластика

Пластик не самая очевидная альтернатива уже существующим накопителям данных. Тем не менее ученые рассматривают его как один из наиболее подходящих вариантов, несмотря на то, что человечество использует либо один мономер на изготовляемый продукт либо простейшую комбинацию из двух мономеров.

Пластик стабилен при соблюдении стандартных внешних условий, а в случае с созданием нового материала для хранения информации это важнейшее преимущество полимеров.

Более того, за последние 50 лет исследователи добились больших успехов в сокращении дисперсности (вариативности молекул по форме и массе) синтетических полимеров и научились контролировать последовательность мономеров. Поэтому в них проще кодировать данные.

Последние разработки техасских ученых дали понять, что можно закодировать более сложный вид информации в олигомер благодаря расширенному количеству типов мономеров, доступных при создании молекулярных цепочек.

Как эти разработки будут использоваться в будущем, зависит от доступности мономеров. Например, можно ли будет достать необходимые аминоспирты из возобновляемых источников. Но потенциал у новой технологии хранения данных есть. Тем более процесс чтения и кодирования данных не сильно отличается от такового в случае с ДНК.

Команда ученых из Техаса планирует продолжить исследования и выяснить, как можно применить этот метод в промышленных масштабах и насколько высокой скорости записи и чтения информации можно будет достичь в случае с полимерами в качестве накопителей.

И хотя оригинал произведения Джейн Остин вскоре будет окончательно уничтожен временем, его небольшой фрагмент на сотни лет сохранится в кусочке пластика. И он будет доступен человечеству до тех пор, пока у него будет оборудование для расшифровки данных с подобного носителя.

Подробнее..

Практические кейсы по созданию IT-инфраструктуры на базе дисковых полок Western Digital Ultrastar

22.07.2020 22:18:15 | Автор: admin


В современном мире наиболее ценным активом является информация. Информация помогает оптимизировать бизнес-процессы, анализировать рынок и принимать стратегически важные решения, определяющие будущее вашей компании, и даже выстраивать доверительные отношения с клиентами, повышая их лояльность. Однако по мере роста объема обрабатываемых данных любое предприятие неизбежно сталкивается с проблемой нехватки места для их хранения. В ситуациях, когда на первый план выходят не вычислительные мощности, а объем доступного дискового пространства, наиболее рентабельным решением для масштабирования IT-инфраструктуры оказываются дисковые полки JBOD. Именно о них мы и поговорим в сегодняшнем материале.

Ключевые преимущества аппаратной платформы Ultrastar Data


Western Digital предлагает две модели JBOD-массивов, выпускаемых под брендом Ultrastar Data60 и Data102. Указанные модификации полностью идентичны с точки зрения реализованных в них технологий и отличаются друг от друга лишь емкостью, о чем красноречиво говорит числовой индекс в названии: младшая модель способна вместить 60 3.5-дюймовых SAS (12 Гб/с) или SATA (6 Гб/с) накопителей, тогда как флагман до 102 накопителей. Таким образом, одна дисковая полка Ultrastar Data60 позволяет хранить вплоть до 840 RAW-данных, а максимальная емкость Ultrastar Data102 может достигать уже 1.4 петабайта (при использовании жестких дисков Western Digital Ultrastar DC HC 530 емкостью 14 ТБ каждый). При этом 24 из доступных отсеков можно использовать для установки твердотельных накопителей с интерфейсом SAS или SATA, что позволяет достичь оптимального баланса между емкостью и производительностью, задействуя JBOD в сценариях, где на первый план выходит высокая доступность данных.

Проектируя дисковые полки серии Ultrastar Data, мы уделили особое внимание борьбе с негативным воздействием вибрации и высоких температур на функционирование системы. Результатом работы инженеров Western Digital стало появление сразу двух вспомогательных технологий, позволивших значительно улучшить эксплуатационные характеристики JBOD: IsoVibe и ArcticFlow. Рассмотрим каждую из них подробнее.

Технология подавления ротационной вибрации IsoVibe


IsoVibe призвана нивелировать пагубное влияние ротационной вибрации, возникающей при раскрутке шпинделя HDD, на производительность массива. Напомним, что при смещении магнитной головки с трека под действием внешних факторов, микроконтроллер диска вынужден инициировать процедуру позиционирования заново, из-за чего время чтения/записи данных значительно возрастает. Так, например, при воздействии на работающий винчестер ротационной вибрации с угловым ускорением в 50 радиан/сек2 потери производительности могут превысить порог в 70%. В случае с JBOD данная проблема встает еще более остро, так как в силу высокой плотности размещения накопителей в сравнительно компактном корпусе их взаимное влияние друг на друга многократно возрастает.

Технологические решения, реализованные в рамках IsoVibe, направлены на предотвращение распространения вибрации между отсеками дисковой полки, о чем можно догадаться уже по названию самой технологии, которое представляет собой акроним английского словосочетания изолирован от вибрации. Так, в ходе проектирования Ultrastar Data мы полностью отказались от использования винтовых креплений: теперь накопители фиксируются с помощью амортизированных мини-салазок, что не только упрощает процесс установки и замены дисков, но также позволяет значительно снизить эффект резонанса внутри корпуса и локализовать вибрацию в пределах одного отсека.


Амортизированные салазки помогают снизить уровень вибрации

Свою лепту вносят и вибрационно изолированные разъемы, расположенные на задней панели JBOD: здесь минимизировать распространение высокочастотных механических колебаний удалось за счет прорезей в печатной плате бэкплейна.


Прорези в PCB бэкплейна снижают распространение вибрации внутри JBOD

Дополняет картину интеллектуальная прошивка микроконтроллеров жестких дисков Western Digital Ultrastar, которые мы рекомендуем использовать вместе с JBOD-массивами, поддерживающая технологию RVS (Rotational Vibration Safeguard). Специализированный алгоритм отслеживает сигналы, поступающие со встроенных мультиаксиальных акселерометров и в режиме реального времени рассчитывает компенсационные усилия, необходимые для коррекции траектории движения блока магнитных головок.


Принцип работы технологии компенсации ротационной вибрации RVS

По сравнению с обычными HDD, накопители с поддержкой RVS обеспечивают практически 20-кратный выигрыш в производительности даже в наиболее сложных условиях эксплуатации.

Система охлаждения ArcticFlow


Другую известную проблему дисковых полок, а именно перегрев накопителей, расположенных в задних рядах, удалось успешно решить благодаря уникальной архитектуре шасси, получившей торговое название ArcticFlow. Как и в случае с вибрацией, когда речь заходит о воздушном охлаждении, основной проблемой становится слишком плотное расположение накопителей в несколько рядов. А поскольку в большинстве моделей воздушный поток циркулирует в направлении от передней панели шасси кзади, пройдя сквозь первые ряды, воздух нагревается, вследствие чего эффективность охлаждения задних рядов существенно снижается.

В Ultrastar Data данная проблема решена следующим образом. Дисковая полка разделена на две зоны охлаждения (по 4 ряда в каждой), изолированные друг от друга. Воздушные потоки, обеспечивающие вентиляцию передней зоны, отводятся из корпуса по обводным воздуховодам, огибающим задний отсек по бокам. Что же касается задних рядов, то для их охлаждения предусмотрен отдельный воздуховод, расположенный по центру, воздух из которого поступает непосредственно к задним рядам накопителей, с 5-го по 8-ой. Кроме того отдельный поток холодного воздуха подводится непосредственно к блокам питания и модулям I/O, расположенным позади.


Схема циркуляции воздуха внутри дисковых полок Ultrastar Data

Такая конструкция помогла достичь действительно впечатляющих результатов. ArcticFlow позволила существенно сократить разницу температур между передней и задней зонами: разброс между ними не превышает 10C. При использовании накопителей Ultrastar, созданных на базе платформы HelioSeal четвертого поколения (более подробно о технологиях, применяемых при производстве жестких дисков для ЦОД, вы можете прочитать в материале Ярче звезд), на самом горячем участке, которым является 8-ой ряд, вплотную прилегающий к отсекам блоков питания, максимальная температура HDD не поднимается выше 49C. При этом на охлаждение каждого из них тратится в среднем 1.6 Вт электроэнергии, что в два раза меньше, чем у конкурирующих моделей.



Таким образом, ArcticFlow решает одновременно 3 задачи:

  1. эффективное охлаждение помогает продлить сроки эксплуатации накопителей, установленных в JBOD, а также полностью исключает вероятность их выхода из строя вследствие перегрева;
  2. отпадает потребность в установке мощных, высокоскоростных кулеров, что также помогает снизить общий уровень вибрации, негативно отражающейся как на состоянии аппаратуры, так и на ее производительности;
  3. меньшее энергопотребление позволяет значительно сократить операционные расходы на обслуживание дата-центра, оборудованного JBOD Ultrastar.

Построение облачной инфраструктуры с применением дисковых полок Ultrastar на примере компании Acronis


Кому же подойдут дисковые полки Western Digital Ultrastar? Первое, что приходит в голову облачные сервисы, оперирующие огромными массивами данных. По мере расширения бизнеса такие компании неизбежно сталкиваются с экспоненциальным ростом затрат на масштабирование и поддержку IT-инфраструктуры, которые оказываются тем больше, чем сложнее организована последняя.

В частности, подобные проблемы характерны для интенсивно развивающихся предприятий, использующих SaaS-based модель предоставления облачных услуг: стремясь угнаться за меняющимся рынком и при этом сохранить рентабельность, многие из них используют одновременно несколько разрозненных решений. На первых парах такой подход действительно способен обеспечить определенные выгоды, но в отдаленной перспективе это приводит к существенном росту издержек на управление, обслуживание и дальнейшее масштабирование существующей инфраструктуры.

Здесь весьма показательным является опыт Acronis, специализирующейся на предоставлении облачных решений в сфере кибербезопасности для корпоративных и частных клиентов. На сегодняшний день компании принадлежат 14 дата-центров в разных уголках нашей планеты, мощности которых в своей работе задействуют свыше 500 тысяч предприятий.


Стремясь увеличить емкость хранилищ данных и при этом оптимизировать затраты на их обслуживание, Acronis столкнулись с рядом существенных трудностей, вызванных отсутствием унифицированной аппаратной платформы. Компания обратилась за помощью к своему давнему технологическому партнеру DIAWAY. Для прогнозирования капитальных и операционных расходов системный интегратор создал доскональную финансовую модель на ближайшие 5 лет. Сравнив предложения, представленные на современном рынке, специалисты DIAWAY пришли к выводу, что наиболее оптимальным вариантом для реализации подобного проекта станут гибридные хранилища Western Digital Ultrastar Data60 и Data102.

В этом году компания завершила перевод облачной инфраструктуры на дисковые полки Ultrastar, и по словам Алекса Бейка, директора по глобальным техническим операциям Acronis, этот шаг в полной мере себя оправдал. Миграция на новую платформу обеспечила ряд важнейших преимуществ, среди которых необходимо выделить:

  • Снижение TCO

Благодаря переходу на гибридные хранилища Ultrastar, Acronis удалось добиться существенного сокращения капитальных и эксплуатационных расходов: стоимость хранения данных в пересчете на терабайт информации снизилась более, чем на 25%.

  • Повышение надежности систем хранения

Передовые технологии охлаждения и виброизоляции, воплощенные в JBOD-массивах Ultrastar, в сочетании с резервируемыми блоками питания и I/O-модулями с возможностью горячей замены, помогли существенно повысить отказоустойчивость как самих дисковых полок, так и всей инфраструктуры хранения данных в целом.

  • Простота обслуживания

Стандартизация глобальной архитектуры позволила упростить планирование дальнейшего увеличения емкости системы хранения данных и оптимизировать управление обширной IT-инфраструктурой Acronis: сегодня специалисты компании используют унифицированные инструменты и алгоритмы для решения поставленных задач, а при необходимости они могут в любой момент обратиться за помощью к инженерам Western Digital.

Примеры развертывания системы резервного копирования на базе Western Digital Ultrastar Data60 и программного обеспечения от Veeam Software


Впрочем, не стоит думать, что дисковые полки Ultrastar ориентированы сугубо на крупные компании и облачных провайдеров: JBOD-массивы способны стать незаменимым инструментом и в арсенале представителей малого и среднего бизнеса. Речь идет, прежде всего, о создании высокоемких и производительных систем резервного копирования, для организации которых мы предлагаем готовую связку в виде Ultrastar Data60/102 и программного обеспечения, разработанного одним из наших стратегических партнеров Veeam Software, специализирующихся на создании комплексных решений в сфере резервного копирования данных.


Девиз компании It just works! говорит сам за себя: Veeam стремится создавать простые, эффективные, а главное, надежные продукты из разряда настроил и забыл, и у них это действительно хорошо получается. Не случайно в 2019 году общее количество клиентов компании превысило 375 тысяч, а ее годовой оборот перевалил за отметку в 1 миллиард долларов США.

В ходе проектирования системы резервного копирования на базе дисковых полок Ultrastar и программного обеспечения Veeam наибольшую эффективность демонстрируют два подхода:

  • on-premises резервные копии создаются и хранятся на базе собственного ЦОД предприятия;
  • гибридная модель on-premises + cloud tier на стороне клиента хранятся только актуальные резервные копии, которые могут понадобиться здесь и сейчас для восстановления работоспособности производственной среды, тогда как более старые бэкапы автоматически переносятся в облако.


Каждый из них обладает своими преимуществами. Комбинация self-hosted и облачных решений позволяет без труда масштабировать IT-инфраструктуру по мере необходимости благодаря подключению объектных хранилищ Amazon S3, Azure Blob Storage, IBM Cloud Object Storage, или любых других S3-совместимых сервисов, и дополнительно экономить на долговременном хранении данных, также оставляя возможность для disaster recovery в случае возникновения аварийных ситуаций. On-premises же гарантирует быстрое восстановление любых когда-либо созданных резервных копий, независимость от внешних факторов, высокий уровень приватности и соответствие местному законодательству в том случае, если деятельность компании так или иначе связана с обработкой персональных данных клиентов.

Проще всего продемонстрировать эффективность связки программного обеспечения Veeam и гибридных хранилищ Western Digital на конкретных примерах. Мы выбрали два наиболее показательных кейса из нашей обширной практики.

Кейс 1


Клиент

В роли заказчика выступил крупный европейский производитель бытовых товаров с годовым оборотом более 500 миллионов евро, офисы и производственные мощности которого расположены в разных странах ЕС и в Китае. Штат компании насчитывает около 1800 постоянных сотрудников, а IT-инфраструктура представлена 8 центрами обработки данных по всему миру.

Проблема

Программно-аппаратный комплекс, используемый заказчиком для создания резервных копий, перестал адекватно справляться с возложенной на него задачей в связи с многократно возросшей нагрузкой, так как не обладал достаточной пропускной способностью. Помимо этого, наблюдались определенные проблемы с обработкой задач, связанных с процедурой дедупликации, что приводило к частым сбоям в ходе резервного копирования.

Поиск решения

Специалисты IT-отдела заказчика пришли к выводу, что обновление существующей инфраструктуры резервного копирования является нерентабельным, в связи с чем было принято решение о переходе на новую архитектуру, что позволило бы не только сэкономить, но и решить проблему масштабирования в будущем. Для организации системы резервного копирования было выбрано гибридное хранилище Ultrastar Data60 от Western Digital, управляемое программным обеспечением Veeam Backup & Replication 9.5, Veeam Backup для Microsoft Office 365 и Microsoft Windows Storage Spaces (входит в состав Windows Server 2016).

Конфигурация

Итоговая аппаратная конфигурация состояла из сервера HPE Proliant DL360 G9, оснащенного парой контроллеров Broadcom 9480-8i8e MegaRAID, обслуживающих модули ввода-вывода Ultrastar Data60. Каждый RAID-контроллер был подключен к назначенному порту I/O-модуля с помощью 4-канального HD MiniSAS-кабеля (P/N 1EX0329), обеспечивая полосу пропускания до 9,6 ГБ/с на контроллер.


Серверная платформа HPE Proliant DL360 G9

Дисковое хранилище было развернуто с 60-ю 12-терабайтными SAS HDD Ultrastar таким образом, его общая емкость составила 720 ТБ. С помощью зонирования T10, Ultrastar Data60 был логически разделен на две зоны по 30 дисков в каждой, так, чтобы каждый контроллер видел диски, назначенные только для определенных портов. В группах из 30 накопителей команда ИТ-специалистов создала несколько наборов томов с чередованием, которые были сгруппированы в единый общий том с помощью Windows Storage Spaces. Один из таких томов использовался для инкрементного резервного копирования, в то время как другой содержал полный образ резервной копии, который был дополнительно сжат с использованием функции дедупликации Windows Server.

Результаты

Связка 1 сервер + 2 RAID-контроллера + 1 Ultrastar Data60 обошлась заказчику существенно дешевле по сравнению с выделенным устройством резервного копирования, поддерживающим внутреннюю дедупликацию. В будущем данную платформу можно будет без труда масштабировать путем последовательного подключения новых дисковых полок (до четырех штук) без необходимости модернизации серверной платформы.

Кейс 2


Клиент


GreenPower крупное предприятие, специализирующееся на производстве натуральных витаминных комплексов и пищевых добавок. Компании принадлежит торговая марка Dr. Hittich, а ее штаб-квартира находится в Керкраде (Нидерланды).

Проблема

GreenPower нуждались в надежном и эффективном решении для резервного копирования. Изначально для этих целей использовались сервера на 24/36 отсеков, а общее дисковое пространство, отведенное под бэкапы, составляло 108 терабайт. Когда данного объема перестало хватать, перед компанией встала проблема масштабирования IT-инфраструктуры. Серверы хранения данных большей емкости оказались слишком дороги, поэтому от их приобретения пришлось отказаться. В свою очередь, идея с регулярной заменой заполненных дисков на пустые показала свою полную несостоятельность: такой подход не мог обеспечить нужный уровень доступности резервных копий, а ошибки при маркировке изъятых дисков регулярно приводили к сложностям при восстановлении данных и даже к их утрате.

Конфигурация

Было решено реализовать систему резервного копирования на базе двух серверов с программным обеспечением Veeam Backup & Replication 9.5 и двух дисковых полок Ultrastar Data60 от Western Digital. В каждое гибридное хранилище были установлены 60 SAS HDD Ultrastar емкостью 6, 8 и 10 терабайт.


Жесткие диски для ЦОД Ultrastar DC HC330 емкостью 10 терабайт

Жесткие диски были сконфигурированы в несколько наборов RAID-массивов, управляемых Windows Storage Spaces. Для дедупликации данных встроенными средствами программного обеспечения Microsoft было создано несколько виртуальных дисков типа Thin (такой подход позволил обойти ограничение в 64 ТБ). Как и в первом примере, доступное дисковое пространство было разделено на два логических тома, один из которых использовался для создания полных бэкапов, тогда как второй был предназначен для инкрементного резервного копирования.

Результаты

Переход на платформу хранения данных Ultrastar Data60 помог значительно снизить затраты на логистику, а в пересчете на терабайт информации, приобретение дисковых полок оказалось значительно более выгодным решением по сравнению с закупкой полноценных серверов: поскольку за счет использования функции дедупликации данных Microsoft Windows Server 2016 удается экономить около 1250 терабайт на каждые 378 ТБ физического дискового пространства, емкости одной такой полки с учетом текущих потребностей компании, хватит на 6 лет ежедневного создания резервных копий.

Не менее важным преимуществом оказалось и значительное повышение производительности системы резервного копирования: создание и восстановление бэкапов происходит на скорости не менее 1 ГБ/с. Это исключает возникновение ситуаций, когда Windows Server не успевает завершить дедупликацию данных в существующих резервных копиях до создания новых. Ранее подобные коллизии приводили к значительному снижению производительности всей системы, однако новая платформа позволила забыть о них раз и навсегда.
Подробнее..

История изобретения флешки в лицах и занимательных фактах

21.09.2020 22:05:33 | Автор: admin

Случаи, когда изобретатель создает сложное электротехническое устройство с нуля, полагаясь при этом исключительно на собственные изыскания, чрезвычайно редки. Как правило, те или иные девайсы рождаются на стыке сразу нескольких технологий и стандартов, созданных разными людьми в разное время. Для примера возьмем банальную флешку. Это портативный носитель данных, выполненный на базе энергонезависимой памяти NAND и оснащенный встроенным USB-портом, который используется для подключения накопителя к клиентскому устройству. Таким образом, чтобы понять, как подобный девайс в принципе мог появиться на рынке, необходимо проследить историю изобретения не только самих чипов памяти, но и соответствующего интерфейса, без которого привычных нам флешек попросту бы не существовало. Давайте же попробуем это сделать.

Полупроводниковые запоминающие устройства, поддерживающие стирание записанных данных, появились почти полвека назад: первое EPROM было создано израильским инженером Довом Фроманом еще в 1971 году.


Дов Фроман, разработчик EPROM

Инновационные для своего времени ПЗУ достаточно успешно применялись в ходе производства микроконтроллеров (например, Intel 8048 или Freescale 68HC11), однако оказались решительно непригодны для создания портативных накопителей. Главной проблемой EPROM была слишком сложная процедура стирания информации: для этого интегральную схему необходимо было облучить в ультрафиолетовом спектре. Работало это следующим образом: фотоны УФ-излучения придавали избыточным электронам энергию, достаточную для рассеивания заряда на плавающем затворе.


В чипах EPROM были предусмотрены специальные окошки для стирания данных, закрытые кварцевыми пластинами

Это добавляло два существенных неудобства. Во-первых, стереть данные на таком чипе в адекватные сроки можно было лишь с помощью достаточно мощной ртутной лампы, и даже в этом случае процесс занимал несколько минут. Для сравнения: обычная люминесцентная лампа удаляла бы информацию в течение нескольких лет, а если оставить такую микросхему под прямыми солнечными лучами, то на ее полную очистку потребовались бы недели. Во-вторых, даже если бы этот процесс удалось хоть как-то оптимизировать, избирательное удаление конкретного файла было все равно невозможным: информация на EPROM стиралась целиком.

Перечисленные проблемы были решены в следующем поколении чипов. В 1977 году Элай Харари (кстати, впоследствии основавший SanDisk, вошедшую в число крупнейших мировых производителей носителей данных, выполненных на базе флеш-памяти), используя технологию автоэлектронной эмиссии, создал первый прототип EEPROM ПЗУ, в котором стирание данных, как и программирование, осуществлялось сугубо электрически.


Элай Харари, основатель SanDisk, держащий в руках одну из первых SD-карт

Принцип действия EEPROM был практически идентичен таковому у современной NAND-памяти: в качестве носителя заряда использовался плавающий затвор, а перенос электронов сквозь слои диэлектрика осуществлялся благодаря туннельному эффекту. Сама организация ячеек памяти представляла собой двумерный массив, что уже позволяло записывать и удалять данные адресно. Кроме того, EEPROM обладал весьма неплохим запасом прочности: каждая ячейка могла быть перезаписана вплоть до 1 миллиона раз.

Но и здесь все оказалось отнюдь не так радужно. Чтобы получить возможность стирать данные электрически, в каждую ячейку памяти пришлось внедрить дополнительный транзистор, управляющий процессом записи и стирания. Теперь на каждый элемент массива приходилось 3 проводника (1 проводник столбцов и 2 проводника строк), из-за чего усложнялась разводка компонентов матрицы и возникали серьезные проблемы с масштабированием. А значит, о создании миниатюрных и емких устройств не могло быть и речи.

Поскольку готовая модель полупроводниковой ПЗУ уже существовала, дальнейшие научные изыскания продолжились с прицелом на создание микросхем, способных обеспечить более плотное хранение данных. И таковые увенчались успехом в 1984 году, когда Фудзио Масуока, работавший в корпорации Toshiba, представил прототип энергонезависимой флеш-памяти на международной конференции International Electron Devices Meeting, проходившей в стенах Института инженеров электротехники и электроники (IEEE).


Фудзио Масуока, отец флеш-памяти

Кстати, само название придумал вовсе не Фудзио, а один из его коллег, Сёдзи Ариидзуми, которому процесс стирания данных напомнил сияющую вспышку молнии (от английского flash вспышка). В отличие от EEPROM, флеш-память была основана на МОП-транзисторах с дополнительным плавающим затвором, расположенным между p-слоем и управляющим затвором, что позволило отказаться от лишних элементов и создавать действительно миниатюрные чипы.

Первыми коммерческими образцами флеш-памяти стали микросхемы Intel, выполненные по технологии NOR (Not-Or), производство которых было запущено в 1988 году. Как и в случае с EEPROM, их матрицы представляли собой двумерный массив, в котором каждая ячейка памяти находилась на пересечении строки и столбца (соответствующие проводники подключались к разным затворам транзистора, а исток к общей подложке). Однако уже в 1989 году Toshiba представила собственную версию флеш-памяти, получившую название NAND. Массив имел аналогичную структуру, но в каждом его узле вместо одной ячейки теперь располагалось несколько последовательно включенных. Кроме того, в каждой линии использовалось два МОП-транзистора: управляющий, расположенный между разрядной линией и столбцом ячеек, и транзистор заземления.

Более высокая плотность компоновки помогла увеличить емкость чипа, однако при этом усложнился и алгоритм чтения/записи, что не могло не отразиться на скорости передачи информации. По этой причине новая архитектура так и не смогла полностью вытеснить NOR, нашедшую применение в создании встраиваемых ПЗУ. В то же время именно NAND оказалась идеально подходящей для производства портативных накопителей данных SD-карт и, разумеется, флешек.

К слову, появление последних стало возможным лишь в 2000 году, когда стоимость флеш-памяти достаточно снизилась и выпуск подобных устройств для розничного рынка мог окупиться. Первым в мире USB-накопителем стало детище израильской компании M-Systems: компактную флешку DiskOnKey (что можно перевести, как диск-на-брелке, поскольку на корпусе устройства было предусмотрено металлическое кольцо, позволявшее носить флешку вместе со связкой ключей) разработали инженеры Амир Баном, Дов Моран и Оран Огдан. За миниатюрный девайс, способный вместить 8 МБ информации и заменявший собой пяток 3,5-дюймовых дискет, в то время просили $50.


DiskOnKey первая в мире флешка от израильской компании M-Systems

Интересный факт: на территории США у DiskOnKey был официальный издатель, в роли которого выступала IBM. Локализованные флешки ничем не отличались от оригинальных, за исключением логотипа на лицевой части, из-за чего многие ошибочно приписывают создание первого USB-накопителя именно американской корпорации.


DiskOnKey, IBM Edition

Вслед за оригинальной моделью буквально через пару месяцев свет увидели более вместительные модификации DiskOnKey на 16 и 32 МБ, за которые просили уже $100 и $150 соответственно. Несмотря на дороговизну, сочетание компактных размеров, вместительности и высокой скорости чтения/записи (которая оказалась примерно в 10 раз выше, чему у стандартных дискет) пришлось по вкусу множеству покупателей. И с этого момента флешки начали свое триумфальное шествие по планете.

Один в поле воин: битва за USB


Впрочем, флешка не была бы флешкой, не появись пятью годами ранее спецификация Universal Serial Bus именно так расшифровывается привычная нам аббревиатура USB. И историю зарождения данного стандарта можно назвать чуть ли не более интересной, чем изобретение самой флеш-памяти.

Как правило, новые интерфейсы и стандарты в IT являются плодом тесного сотрудничества крупных предприятий, зачастую даже конкурирующих между собой, но вынужденных объединить усилия ради создания унифицированного решения, которое позволило бы существенно упростить разработку новых продуктов. Так произошло, например, с картами памяти формата SD: первая версия Secure Digital Memory Card была создана в 1999 году при участии SanDisk, Toshiba и Panasonic, причем новый стандарт оказался настолько удачным, что удостоился титула отраслевого спустя всего год. Сегодня же SD Card Association насчитывает свыше 1000 компаний-участников, инженеры которых занимаются разработкой новых и развитием существующих спецификаций, описывающих разнообразные параметры флеш-карт.



И с первого взгляда история USB полностью идентична тому, что происходило со стандартом Secure Digital. Чтобы сделать персональные компьютеры более дружелюбными по отношению к рядовому пользователю, производителям железа требовался, помимо прочего, универсальный интерфейс для работы с периферией, поддерживающий горячее подключение и не нуждающийся в дополнительной настройке. Кроме того, создание унифицированного стандарта позволило бы избавиться от зоопарка портов (COM, LPT, PS/2, MIDI-port, RS-232 и т. д.), что в перспективе помогло бы существенно упростить и удешевить разработку нового оборудования, а также внедрение поддержки тех или иных устройств.

На фоне перечисленных предпосылок ряд компаний-разработчиков компьютерных комплектующих, периферии и софта, крупнейшими из которых были Intel, Microsoft, Philips и US Robotics, объединились в попытке найти тот самый общий знаменатель, который бы устроил всех действующих игроков, каковым в итоге и стал USB. Популяризации же нового стандарта во многом поспособствовала Microsoft, добавившая поддержку интерфейса еще в Windows 95 (соответствующий патч входил в состав Service Release 2), а затем внедрившая необходимый драйвер в релизную версию Windows 98. В то же время на железном фронте подмога пришла, откуда не ждали: в 1998 году свет увидел iMac G3 первый компьютер все в одном от Apple, в котором для подключения устройств ввода и другой периферии (за исключением микрофона и наушников) использовались исключительно USB-порты. Во многом такой разворот на 180 градусов (ведь в то время Apple делала ставку на FireWire) был обусловлен возвращением Стива Джобса на пост СЕО компании, состоявшимся годом ранее.


Оригинальный iMac G3 первый USB-компьютер

На самом же деле рождение универсальной последовательной шины проходило куда более мучительно, а само по себе появление USB во многом является заслугой отнюдь не мегакорпораций и даже не одного научно-исследовательского отдела, действующего в составе той или иной компании, а вполне конкретного человека инженера Intel индийского происхождения по имени Аджай Бхатт.


Аджай Бхатт, главный идеолог и создатель интерфейса USB

Еще в 1992 году Аджай задумался о том, что персональный компьютер не особо оправдывает собственное название. Даже такая простая с первого взгляда задача, как подключение принтера и печать документа, требовала от пользователя определенной квалификации (хотя, казалось бы, зачем офисному работнику, от которого требуется создать отчет или ведомость, разбираться в мудреных технологиях?) либо вынуждала обращаться к профильным специалистам. И если все оставить как есть, ПК никогда не станет массовым продуктом, а значит, и о том, чтобы выйти за пределы цифры в 10 миллионов пользователей по всему миру, не стоит и мечтать.

Понимание необходимости некоей стандартизации на тот момент было и у Intel, и у Microsoft. В частности, изыскания в этой области привели к появлению шины PCI и концепции Plug&Play, а значит, инициатива Бхатта, который решил сосредоточить усилия именно в сфере поиска универсального решения для подключения периферии, должна была быть воспринята положительно. Но не тут-то было: непосредственный начальник Аджая, выслушав инженера, заявил, что эта задача настолько сложна, что на нее не стоит тратить время.

Тогда Аджай стал искать поддержку в параллельных группах и нашел таковую в лице одного из заслуженных исследователей Intel (Intel Fellow) Фреда Поллака, известного на тот момент благодаря работе в качестве ведущего инженера Intel iAPX 432 и ведущего архитектора Intel i960, который и дал проекту зеленый свет. Однако это было лишь начало: реализация столь масштабной задумки стала бы невозможна без участия других игроков рынка. С этого момента начались подлинные хождения по мукам, ведь Аджаю предстояло не только убедить участников рабочих групп Intel в перспективности данной идеи, но и заручиться поддержкой других производителей железа.


На многочисленные обсуждения, согласования и мозговые штурмы ушло почти полтора года. За это время к Аджаю присоединились Бала Кадамби, руководивший командой, ответственной за разработку PCI и Plug&Play, а позже занявший пост директора Intel по технологическим стандартам интерфейсов ввода/вывода, и Джим Паппас, эксперт по системам ввода/вывода. Летом 1994 года наконец-то удалось сформировать рабочую группу и приступить к более плотному взаимодействию с другими компаниями.

В течение последующего года Аджай и его команда встретились с представителями более 50 фирм, среди которых были как небольшие, узкоспециализированные предприятия, так и гиганты вроде Compaq, DEC, IBM и NEC. Работа кипела буквально в режиме 24/7: с раннего утра троица отправлялась на многочисленные совещания, а ночью встречалась в ближайшей закусочной, чтобы обсудить план действий на следующий день.

Возможно, кому-то такой стиль работы может показаться пустой тратой времени. Тем не менее все это принесло свои плоды: в результате было сформировано несколько многоплановых команд, куда входили инженеры из IBM и Compaq, специализирующиеся на создании компьютерных комплектующих, люди, занимавшиеся разработкой чипов из самой Intel и NEC, программисты, работавшие над созданием приложений, драйверов и операционных систем (в том числе из Microsoft), и множество других специалистов. Именно одновременная работа по нескольким фронтам помогла в итоге создать по-настоящему гибкий и универсальный стандарт.


Аджай Бхатт и Бала Кадамби на церемонии вручения Европейской премии изобретателя

Хотя команде Аджая удалось блестяще решить проблемы политического (добившись взаимодействия разнообразных компаний, в том числе являвшихся прямыми конкурентами) и технического (собрав под одной крышей множество экспертов в различных областях) характера, оставался еще один аспект, требующий пристального внимания, экономическая сторона вопроса. И здесь пришлось идти на существенные компромиссы. Так, например, именно стремление снизить себестоимость провода привело к тому, что привычный нам USB Type-A, который мы используем и по сей день, стал односторонним. Ведь для создания действительно универсального кабеля требовалось бы не просто изменить конструкцию коннектора, сделав его симметричным, но и вдвое увеличить количество токопроводящих жил, что привело бы и к удвоению стоимости провода. Зато теперь у нас есть нестареющий мем о квантовой природе USB.


На снижении стоимости настаивали и другие участники проекта. Джим Паппас в связи с этим любит вспоминать о звонке от Бетси Таннер из Microsoft, заявившей в один прекрасный день, что, к сожалению, компания намерена отказаться от использования интерфейса USB при производстве компьютерных мышек. Все дело в том, что пропускная способность 5 Мбит/с (именно такая скорость передачи данных планировалась изначально) была излишне высокой, и инженеры опасались, что не смогут уложиться в спецификации по электромагнитной интерференции, а значит, такая турбомышь может помешать нормальному функционированию как самого ПК, так и других периферических устройств.

На резонный довод об экранировании Бэтси ответила, что дополнительная изоляция приведет к удорожанию кабеля: по 4 цента сверху на каждый фут, или 24 цента на стандартный провод 1,8 метра (6 футов), что делает всю затею бессмысленной. Кроме того, кабель мышки должен оставаться достаточно гибким, чтобы не стеснять движения руки. Чтобы решить эту проблему, было принято решение добавить разделение на высокоскоростной (12 Мбит/с) и низкоскоростной (1,5 Мбит/с) режимы. Запас в 12 Мбит/с позволял использовать разветвители и хабы для одновременного подключения нескольких устройств на одном порту, а 1,5 МБит/с оптимально подходил для подключения к ПК мышек, клавиатур и других аналогичных девайсов.

Сам Джим считает эту историю камнем преткновения, который в конечном счете и обеспечил успех всего проекта. Ведь без поддержки Microsoft продвигать новый стандарт на рынке было бы на порядок труднее. К тому же найденный компромисс помог сделать USB значительно дешевле, а значит, и привлекательнее в глазах производителей периферического оборудования.

Что в имени тебе моем, или Безумный ребрендинг


И раз уж сегодня мы с вами обсуждаем USB-накопители, давайте заодно проясним ситуацию с версиями и скоростными характеристиками данного стандарта. Здесь все совсем не так просто, как может показаться на первый взгляд, ведь с 2013 года организация USB Implementers Forum приложила максимум усилий для того, чтобы окончательно запутать не только рядовых потребителей, но и профессионалов из мира IT.

Раньше все было достаточно просто и логично: у нас есть медленный USB 2.0 с максимальной пропускной способностью 480 Мбит/с (60 МБ/с) и в 10 раз более быстрый USB 3.0, у которого предельная скорость передачи данных достигает уже 5 Гбит/с (640 МБ/с). За счет обратной совместимости накопитель с USB 3.0 можно подключить в порт USB 2.0 (или наоборот), однако при этом скорость чтения и записи файлов будет ограничена 60 МБ/с, так как более медленное устройство будет выступать в роли бутылочного горлышка.

31 июля 2013 года USB-IF внесла в эту стройную систему изрядную путаницу: именно в этот день было объявлено о принятии новой спецификации USB 3.1. И нет, дело вовсе не в дробной нумерации версий, что встречалось и раньше (хотя справедливости ради стоит отметить, что USB 1.1 была доработанной версией 1.0, а не чем-то качественно новым), а в том, что USB Implementers Forum зачем-то решила переименовать и старый стандарт. Следите за руками:

  • USB 3.0 превратился в USB 3.1 Gen 1. Это чистой воды переименование: никаких улучшений произведено не было, да и максимальная скорость осталась все той же 5 Гбит/с и не битом больше.
  • По-настоящему новым стандартом стал USB 3.1 Gen 2: переход на кодирование 128b/132b (ранее использовалось 8b/10b) в режиме full-duplex позволил удвоить пропускную способность интерфейса и добиться впечатляющих 10 Гбит/с, или 1280 МБ/с.

Но этого ребятам из USB-IF показалось мало, так что они решили добавить и пару альтернативных названий: USB 3.1 Gen 1 стал SuperSpeed, а USB 3.1 Gen 2 SuperSpeed+. И как раз этот шаг вполне оправдан: розничному покупателю, далекому от мира компьютерной техники, куда проще запомнить броское название, нежели последовательность букв и цифр. А здесь все интуитивно: у нас есть сверхскоростной интерфейс, который, как можно заключить из названия, очень быстрый, и есть сверхскоростной+ интерфейс, который еще быстрее. Но зачем при этом было проводить столь специфический ребрендинг индексов поколений решительно непонятно.

Впрочем, нет предела несовершенству: 22 сентября 2017 года с публикацией стандарта USB 3.2 ситуация еще более усугубилась. Начнем с хорошего: двусторонний разъем USB Type-C, спецификации которого были разработаны еще для прошлого поколения интерфейса, позволил удвоить максимальную пропускную способность шины за счет использования дублирующих выводов в качестве отдельного канала передачи данных. Так появился USB 3.2 Gen 22 (почему его нельзя было назвать USB 3.2 Gen 3, опять же загадка), работающий на скорости вплоть до 20 Гбит/с (2560 МБ/с), который, в частности, нашел применение при производстве внешних твердотельных накопителей (именно таким портом оснащены высокоскоростные WD_BLACK P50, ориентированные на геймеров).


И все бы ничего, но, помимо введения нового стандарта, не заставило себя ждать и переименование предыдущих: USB 3.1 Gen 1 превратился в USB 3.2 Gen 1, а USB 3.1 Gen 2 в USB 3.2 Gen 2. Претерпели изменения даже маркетинговые названия, причем USB-IF отошли от ранее принятой концепции интуитивно понятно и никаких цифр: вместо того, чтобы обозначить USB 3.2 Gen 22 как, например, SuperSpeed++ или UltraSpeed, они решили добавить прямое указание на максимальную скорость передачи данных:

  • USB 3.2 Gen 1 стал SuperSpeed USB 5Gbps,
  • USB 3.2 Gen 2 SuperSpeed USB 10Gbps,
  • USB 3.2 Gen 22 SuperSpeed USB 20Gbps.

И как же разобраться с зоопарком стандартов USB? Чтобы облегчить вам жизнь, мы составили сводную табличку-памятку, с помощью которой сопоставить разные версии интерфейсов не составит особого труда.

Версия стандарта


Маркетинговое название


Скорость, Гбит/с


USB 3.0


USB 3.1


USB 3.2


Версия USB 3.1


Версия USB 3.2


USB 3.0


USB 3.1 Gen 1


USB 3.2 Gen 1


SuperSpeed


SuperSpeed USB 5Gbps


5



USB 3.1 Gen 2


USB 3.2 Gen 2


SuperSpeed+


SuperSpeed USB 10Gbps


10




USB 3.2 Gen 22



SuperSpeed USB 20Gbps


20



Многообразие USB-накопителей на примере продукции SanDisk


Но давайте вернемся непосредственно к предмету сегодняшнего обсуждения. Флешки стали неотъемлемой частью нашей с вами жизни, получив множество модификаций, иногда весьма причудливых. Наиболее полное представление о возможностях современных USB-накопителей позволяет получить портфолио компании SanDisk.

Все актуальные модели флеш-накопителей SanDisk поддерживают стандарт передачи данных USB 3.0 (он же USB 3.1 Gen 1, он же USB 3.2 Gen 1, он же SuperSpeed практически как в фильме Москва слезам не верит). Среди них можно найти как вполне классические флешки, так и более специализированные устройства. Например, если вы хотите обзавестись компактным универсальным накопителем, имеет смысл обратить внимание на линейку SanDisk Ultra.


SanDisk Ultra

Наличие шести модификаций различной емкости (от 16 до 512 ГБ) помогает подобрать наиболее оптимальный вариант в зависимости от ваших потребностей и не переплачивать за лишние гигабайты. Скорость передачи данных вплоть до 130 МБ/с позволяет достаточно быстро скачивать даже объемные файлы, а удобный раздвижной корпус надежно защищает коннектор от повреждений.

Поклонникам элегантных форм мы рекомендуем линейку USB-накопителей SanDisk Ultra Flair и SanDisk Luxe.


SanDisk Ultra Flair

Технически эти флешки полностью идентичны: обе серии характеризуются скоростью передачи данных до 150 МБ/с, а каждая из них включает в себя 6 моделей емкостью от 16 до 512 ГБ. Отличия кроются лишь в дизайне: Ultra Flair получил дополнительный конструктивный элемент из прочного пластика, тогда как корпус версии Luxe полностью выполнен из алюминиевого сплава.


SanDisk Luxe

Помимо эффектного дизайна и высокой скорости передачи данных, перечисленные накопители имеют и еще одну весьма интересную особенность: их USB-коннекторы являются прямым продолжением монолитного корпуса. Такой подход обеспечивает высочайший уровень защищенности флешки: случайно сломать подобный коннектор попросту невозможно.

Помимо полноразмерных накопителей, в коллекции SanDisk присутствуют и решения категории подключил и забыл. Речь идет, конечно же, о сверхкомпактных SanDisk Ultra Fit, размеры которых составляют всего 29,8 14,3 5,0 мм.


SanDisk Ultra Fit

Такой малыш едва выступает над поверхностью USB-разъема, что делает его идеальным решением для расширения хранилища клиентского устройства, будь то ультрабук, автомобильная аудиосистема, Smart-телевизор, игровая приставка или одноплатный компьютер.


Самыми же интересными в коллекции SanDisk можно назвать USB-накопители Dual Drive и iXpand. Оба семейства, несмотря на конструктивные различия, объединяет единая концепция: эти флешки получили по два порта разных типов, что позволяет использовать их для переноса данных между ПК или ноутбуком и мобильными гаджетами без дополнительных кабелей и переходников.

Накопители семейства Dual Drive предназначены для использования со смартфонами и планшетами, работающими под управлением операционной системы Android и поддерживающими технологию OTG. Сюда входят три линейки флешек.

Миниатюрные SanDisk Dual Drive m3.0, помимо USB Type-A, оснащены коннектором microUSB, что обеспечивает совместимость с девайсами прошлых лет, а также смартфонами начального уровня.


SanDisk Dual Drive m3.0

SanDisk Ultra Dual Type-C, как нетрудно догадаться по названию, обзавелись более современным двусторонним коннектором. Сама же флешка стала крупнее и массивнее, однако такая конструкция корпуса обеспечивает лучшую защиту, да и потерять устройство стало куда сложнее.


SanDisk Ultra Dual Type-C

Если же вы ищете нечто более элегантное, рекомендуем обратить внимание на SanDisk Ultra Dual Drive Go. В этих накопителях реализован тот же принцип, что и в упомянутых ранее SanDisk Luxe: полноразмерный USB Type-A является частью корпуса флешки, что исключает его поломку даже при неосторожном обращении. Коннектор USB Type-C, в свою очередь, хорошо защищен поворотным колпачком, на котором также предусмотрена проушина под брелок. Такая компоновка позволила сделать флешку по-настоящему стильной, компактной и надежной.


SanDisk Ultra Dual Drive Go

Серия iXpand полностью аналогична Dual Drive, за исключением того факта, что место USB Type-C занял фирменный коннектор Apple Lightning. Самым необычным устройством в серии можно назвать SanDisk iXpand: данная флешка имеет оригинальный дизайн в виде петли.


SanDisk iXpand

Смотрится эффектно, к тому же в получившуюся проушину можно продеть ремешок и носить накопитель, к примеру, на шее. Да и использовать такую флешку вместе с iPhone куда удобнее, нежели традиционную: при подключении большая часть корпуса оказывается позади смартфона, упираясь в его заднюю крышку, что помогает свести к минимуму вероятность повреждения разъема.


Если же подобный дизайн по тем или иным причинам вас не устраивает, имеет смысл посмотреть в сторону SanDisk iXpand Mini. Технически перед нами все тот же iXpand: модельный ряд также включает четыре накопителя на 32, 64, 128 или 256 ГБ, а максимальная скорость передачи данных достигает 90 МБ/с, чего вполне достаточно даже для просмотра 4K видео непосредственно с флешки. Разница заключается лишь в дизайне: петля исчезла, зато появился защитный колпачок для коннектора Lightning.


SanDisk iXpand Mini

Третий представитель славного семейства, SanDisk iXpand Go, является братом-близнецом Dual Drive Go: их размеры практически идентичны, к тому же оба накопителя получили поворотный колпачок, пусть и немного отличающийся по дизайну. Данная линейка включает в себя 3 модели: на 64, 128 и 256 ГБ.


SanDisk iXpand Go

Перечень продукции, выпускаемой под брендом SanDisk, отнюдь не ограничивается перечисленными USB-накопителями. Познакомиться с другими девайсами именитой марки вы можете на официальном портале Western Digital.
Подробнее..

Fujifilm и IBM создали ленточный накопитель объемом в 580 ТБ

17.12.2020 20:07:58 | Автор: admin

Похоже, что поговорка старый конь борозды не испортит не теряет актуальности и в IT старые и проверенные технологии служат верой и правдой. Более того, некоторые из них становятся основой для технологических прорывов. Как например, в случае ленточного накопителя объемом в 580 ТБ, созданного стараниями Fujifilm и IBM.

На данный момент это мировой рекорд пока что ни один носитель информации не может похвастаться такими же показателями. Максимальная емкость SSD, например, не превышает 100 ТБ, жестких дисков около 30 ТБ.


Разработчикам удалось добиться таких показателей благодаря увеличению плотности записи вплоть до 317 Гбит на квадратный дюйм. Этот показатель в 27 раз превышает рекорд для работающих сейчас ленточных накопителях, моделей, которые можно купить.

В качестве покрытия ленты инженеры использовали частицы феррита стронция вместо феррита бария, соединения, которое используется обычно. Права на эту разработку принадлежат Fujifilm.


Частицы феррита стронция имеют меньший размер, поэтому дорожки записи удалось до 56,2 нм. Правда, попутно пришлось создать новый механизм считывания/записи, прежде всего новую головку, которая не только может работать с узкими дорожками, но и обладает повышенной точностью позиционирования. Для того, чтобы на накопителе ленточного типа уместилось 580 ТБ информации, длина ленты должна составлять 1,255 км. Аналогичный объем информации равен 787 тыс. CD.

IBM и Fujifilm не впервые работают вместе. Несколько лет назад, в 2015 году, обе компании разработали накопитель объемом в 220 ТБ. Причем тогда в качестве покрытия ленты применялся феррит бария, а не стронция, как сейчас.

Почему именно магнитная лента?


Только она дает возможность увеличить в несколько раз объем файлового пространства, доступного для записи информации. Несмотря на то, что магнитная пленка была разработана в начале прошлого века, она весьма активно используется и сейчас для хранения данных.


Максимальный объем SSD, доступного для покупки в настоящий момент, составляет 100 ТБ. Это примерно в пять раз меньше, чем в случае накопителя на основе магнитной пленки. При этом стоимость SSD емкостью в 100 ТБ составляет около $40 000, так что даже крупные компании вряд ли будут активно закупать подобную систему. Правда, за $12 500 можно купить SSD объемом в 50 ТБ, но и это очень недешево.

Кстати, продолжительное время стандартом магнитных лет в индустрии был LTO-9, с возможностью хранения до 24 ТБ информации. Компания Spectra Logic в сентябре 2019 года продемонстрировала рекордную систему с возможностью увеличения объема до 1 эксабайта данных.

Подробнее..

Технологии магнитной записи HDD просто о сложном

21.10.2020 20:04:14 | Автор: admin

Первый в мире жесткий диск, IBM RAMAC 305, увидевший свет в 1956 году, вмещал лишь 5 МБ данных, а весил при этом 970 кг и по габаритам был сопоставим с промышленным рефрижератором. Современные корпоративные флагманы способны похвастаться емкостью уже в 20 ТБ. Только представьте себе: 64 года назад, для того чтобы записать такое количество информации, потребовалось бы свыше 4 миллионов RAMAC 305, а размеры ЦОДа, необходимого для их размещения, превысили бы 9 квадратных километров, тогда как сегодня для этого будет достаточно маленькой коробочки весом около 700 грамм! Во многом добиться столь невероятного повышения плотности хранения удалось благодаря совершенствованию методов магнитной записи.
В это сложно поверить, однако принципиально конструкция жестких дисков не меняется вот уже почти 40 лет, начиная с 1983 года: именно тогда свет увидел первый 3,5-дюймовый винчестер RO351, разработанный шотландской компанией Rodime. Этот малыш получил две магнитные пластины по 10 МБ каждая, то есть был способен вместить вдвое больше данных, чем обновленный ST-412 на 5,25 дюйма, выпущенный Seagate в том же году для персональных компьютеров IBM 5160.


Rodime RO351 первый в мире 3,5-дюймовый винчестер

Несмотря на инновационность и компактные размеры, на момент выхода RO351 оказался практически никому не нужен, а все дальнейшие попытки Rodime закрепиться на рынке винчестеров потерпели фиаско, из-за чего в 1991 году компания была вынуждена прекратить свою деятельность, распродав практически все имеющиеся активы и сократив штат до минимума. Однако стать банкротом Rodime оказалось не суждено: в скором времени к ней начали обращаться крупнейшие производители винчестеров, желающие приобрести лицензию на использование запатентованного шотландцами форм-фактора. В настоящее время 3,5 дюйма является общепринятым стандартом производства как потребительских HDD, так и накопителей корпоративного класса.

С появлением нейросетей, Deep Learning и интернета вещей (IoT) объем создаваемых человечеством данных стал лавинообразно расти. По оценкам аналитического агентства IDC, к 2025 году количество информации, генерируемой как самими людьми, так и окружающими нас девайсами, достигнет 175 зеттабайт (1 Збайт = 1021 байт), и это при том, что в 2019-м таковое составляло 45 Збайт, в 2016-м 16 Збайт, а в далеком 2006-м общий объем данных, произведенных за всю обозримую историю, не превышал 0,16 (!) Збайт. Справиться с информационным взрывом помогают современные технологии, среди которых не последнее место занимают усовершенствованные методы записи данных.

LMR, PMR, CMR и TDMR: в чем разница?


Принцип работы жестких дисков достаточно прост. Тонкие металлические пластины, покрытые слоем ферромагнитного материала (кристаллического вещества, способного сохранять намагниченность даже при отсутствии воздействия на него внешнего магнитного поля при температуре ниже точки Кюри) движутся относительно блока пишущих головок на большой скорости (5400 оборотов в минуту или более). При подаче электрического тока на пишущую головку возникает переменное магнитное поле, которое изменяет направление вектора намагниченности доменов (дискретных областей вещества) ферромагнетика. Считывание данных происходит либо за счет явления электромагнитной индукции (перемещение доменов относительно сенсора вызывает в последнем возникновение переменного электрического тока), либо за счет гигантского магниторезистивного эффекта (под действием магнитного поля изменяется электрическое сопротивление датчика), как это реализовано в современных накопителях. Каждый домен кодирует один бит информации, принимая логическое значение 0 или 1 в зависимости от направления вектора намагниченности.

Долгое время жесткие диски использовали метод продольной магнитной записи (Longitudinal Magnetic Recording, LMR), при котором вектор намагниченности доменов лежал в плоскости магнитной пластины. Несмотря на относительную простоту реализации, данная технология имела существенный недостаток: для того чтобы побороть коэрцитивность (переход магнитных частиц в однодоменное состояние), между треками приходилось оставлять внушительную буферную зону (так называемое guard space защитное пространство). Вследствие этого максимальная плотность записи, которой удалось добиться на закате данной технологии, составляла всего 150 Гбит/дюйм2.


В 2010 году LMR была практически полностью вытеснена PMR (Perpendicular Magnetic Recording перпендикулярная магнитная запись). Главное отличие данной технологии от продольной магнитной записи состоит в том, что вектор магнитной направленности каждого домена располагается под углом 90 к поверхности магнитной пластины, что позволило существенно сократить промежуток между треками.

За счет этого плотность записи данных удалось заметно увеличить (до 1 Тбит/дюйм2 в современных устройствах), при этом не жертвуя скоростными характеристиками и надежностью винчестеров. В настоящее время перпендикулярная магнитная запись является доминирующей на рынке, в связи с чем ее также часто называют CMR (Conventional Magnetic Recording обычная магнитная запись). При этом надо понимать, что между PMR и CMR нет ровным счетом никакой разницы это всего лишь другой вариант названия.


Изучая технические характеристики современных жестких дисков, вы также можете наткнуться на загадочную аббревиатуру TDMR. В частности, данную технологию используют накопители корпоративного класса Western Digital Ultrastar 500-й серии. С точки зрения физики TDMR (что расшифровывается как Two Dimensional Magnetic Recording двумерная магнитная запись) ничем не отличается от привычной нам PMR: как и прежде, мы имеем дело с непересекающимися треками, домены в которых ориентированы перпендикулярно плоскости магнитных пластин. Разница между технологиями заключается в подходе к считыванию информации.

В блоке магнитных головок винчестеров, созданных по технологии TDMR, на каждую пишущую головку приходятся по два считывающих сенсора, осуществляющих одновременное чтение данных с каждого пройденного трека. Такая избыточность дает возможность контроллеру HDD эффективно фильтровать электромагнитные шумы, появление которых обусловлено межтрековой интерференцией (Intertrack Interference, ITI).


Решение проблемы с ITI обеспечивает два чрезвычайно важных преимущества:

  1. снижение коэффициента помех позволяет повысить плотность записи за счет уменьшения расстояния между треками, обеспечивая выигрыш по общей емкости вплоть до 10% по сравнению с обычной PMR;
  2. в сочетании с технологией RVS и трехпозиционным микроактуатором, TDMR позволяет эффективно противостоять ротационной вибрации, вызванной работой винчестеров, что помогает добиться стабильного уровня производительности даже в наиболее сложных условиях эксплуатации.

Что такое SMR и с чем его едят?


Размеры пишущей головки примерно в 1,7 раза больше по сравнению с размерами считывающего сенсора. Столь внушительная разница объясняется достаточно просто: если записывающий модуль сделать еще более миниатюрным, силы магнитного поля, которое он сможет генерировать, окажется недостаточно для намагничивания доменов ферромагнитного слоя, а значит, данные попросту не будут сохраняться. В случае со считывающим сенсором такой проблемы не возникает. Более того: его миниатюризация позволяет дополнительно снизить влияние упомянутой выше ITI на процесс считывания информации.

Данный факт лег в основу черепичной магнитной записи (Shingled Magnetic Recording, SMR). Давайте разбираться, как это работает. При использовании традиционного PMR пишущая головка смещается относительно каждого предыдущего трека на расстояние, равное ее ширине + ширина защитного пространства (guard space).


При использовании черепичного метода магнитной записи пишущая головка смещается вперед лишь на часть своей ширины, поэтому каждый предыдущий трек оказывается частично перезаписан последующим: магнитные дорожки накладываются друг на друга подобно кровельной черепице. Такой подход позволяет дополнительно повысить плотность записи, обеспечивая выигрыш по емкости до 10%, при этом не отражаясь на процессе чтения. В качестве примера можно привести Western Digital Ultrastar DC HC 650 первые в мире 3.5-дюймовые накопители объемом 20 ТБ с интерфейсом SATA/SAS, появление которых стало возможным именно благодаря новой технологии магнитной записи. Таким образом, переход на SMR-диски позволяет повысить плотность хранения данных в тех же стойках при минимальных затратах на модернизацию IT-инфраструктуры.


Несмотря на столь значительное преимущество, SMR имеет и очевидный недостаток. Поскольку магнитные дорожки накладываются друг на друга, при обновлении данных потребуется перезапись не только требуемого фрагмента, но и всех последующих треков в пределах магнитной пластины, объем которой может превышать 2 терабайта, что чревато серьезным падением производительности.

Решить данную проблему помогает объединение определенного количества треков в обособленные группы, называемые зонами. Хотя такой подход к организации хранения данных несколько снижает общую емкость HDD (поскольку между зонами необходимо сохранять достаточные промежутки, препятствующие перезаписи треков из соседних групп), это позволяет существенно ускорить процесс обновления данных, так как теперь в нем участвует лишь ограниченное количество дорожек.


Черепичная магнитная запись предполагает несколько вариантов реализации:

  • Drive Managed SMR (SMR, управляемая диском)

Основным ее преимуществом является отсутствие необходимости в модификации программного и/или аппаратного обеспечения хоста, поскольку управление процедурой записи данных берет на себя контроллер HDD. Такие диски могут быть подключены к любой системе, в которой присутствует необходимый интерфейс (SATA или SAS), после чего накопитель будет сразу готов к работе.

Недостаток этого подхода заключается в изменчивости уровня производительности, в связи с чем Drive Managed SMR оказывается неподходящей для корпоративных приложений, в которых постоянство быстродействия системы является критически важным параметром. Тем не менее такие диски хорошо показывают себя в сценариях, предоставляющих достаточное время для выполнения фоновой дефрагментации данных. Так, например, DMSMR-накопители WD Red, оптимизированные для использования в составе малых NAS на 8 отсеков, станут отличным выбором для системы архивирования или резервного копирования, предполагающей долговременное хранение бэкапов.


  • Host Managed SMR (SMR, управляемая хостом)

Host Managed SMR наиболее предпочтительный вариант реализации черепичной записи для использования в корпоративной среде. В данном случае за управление потоками данных и операциями чтения/записи отвечает сама хост-система, задействующая для этих целей расширения интерфейсов ATA (Zoned Device ATA Command Set, ZAC) и SCSI (Zoned Block Commands, ZBC), разработанные комитетами INCITS T10 и T13.

При использовании HMSMR весь доступный объем накопителя разделяется на зоны двух типов: Conventional Zones (обычные зоны), которые используются для хранения метаданных и произвольной записи (по сути, играют роль кэша), и Sequential Write Required Zones (зоны последовательной записи), занимающие большую часть общей емкости жесткого диска, в которых данные записываются строго последовательно. Неупорядоченные данные сохраняются в области кэширования, откуда затем могут быть перенесены в соответствующую зону последовательной записи. Благодаря этому все физические сектора записываются последовательно в радиальном направлении и перезаписываются только после циклического переноса, что позволяет добиться стабильной и предсказуемой производительности системы. При этом HMSMR-диски поддерживают команды произвольного чтения аналогично накопителям, использующим стандартный PMR.

Host Managed SMR реализована в жестких дисках enterprise-класса Western Digital Ultrastar HC DC 600-й серии.


Линейка включает в себя SATA- и SAS-накопители высокой емкости, ориентированные на использование в составе гипермасштабных центров обработки данных. Поддержка Host Managed SMR существенно расширяет сферу применения таких винчестеров: помимо систем резервного копирования, они прекрасно подойдут для облачных хранилищ, CDN или стриминговых платформ. Высокая емкость жестких дисков позволяет существенно повысить плотность хранения (в тех же стойках) при минимальных затратах на апгрейд, а низкое энергопотребление (не более 0,29 Ватта на каждый терабайт сохраненной информации) и тепловыделение (в среднем на 5 C ниже, чем у аналогов) дополнительно сократить операционные расходы на обслуживание ЦОДа.

Единственным недостатком HMSMR является сравнительная сложность имплементации. Все дело в том, что на сегодняшний день ни одна операционная система или приложение не умеют работать с подобными накопителями из коробки, в силу чего для адаптации IT-инфраструктуры требуются серьезные изменения стека программного обеспечения. В первую очередь это касается, конечно же, самой ОС, что в условиях современных ЦОД, использующих многоядерные и многосокетные сервера, является достаточно нетривиальной задачей. Узнать подробнее о вариантах реализации поддержки Host Managed SMR можно на специализированном ресурсе ZonedStorage.io, посвященном вопросам зонального хранения данных. Собранные здесь сведения помогут предварительно оценить степень готовности вашей IT-инфраструктуры для перевода на зональные системы хранения.

  • Host Aware SMR (SMR, поддерживаемая хостом)

Устройства с поддержкой Host Aware SMR сочетают в себе удобство и гибкость Drive Managed SMR и высокую скорость записи Host Managed SMR. Такие накопители обратно совместимы с устаревшими системами хранения и могут функционировать без непосредственного контроля со стороны хоста, однако в этом случае, как и при работе с DMSMR-дисками, их производительность становится непредсказуемой.

Подобно Host Managed SMR, Host Aware SMR использует два типа зон: Conventional Zones для произвольной записи и Sequential Write Preferred Zones (зоны, предпочтительные для последовательной записи). Последние, в отличие от упомянутых выше Sequential Write Required Zones, автоматически переводятся в разряд обычных в том случае, если в них начинает вестись неупорядоченная запись данных.

Реализация SMR с поддержкой хоста предусматривает внутренние механизмы восстановления после непоследовательной записи. Неупорядоченные данные записываются в области кэширования, откуда диск может переносить информацию в зону последовательной записи, после того как будут получены все необходимые блоки. Для управления неупорядоченной записью и фоновой дефрагментацией диск использует таблицу косвенного обращения. Однако, если корпоративным приложениям требуется предсказуемая и оптимизированная производительность, достичь этого по-прежнему можно лишь в случае, когда хост берет на себя полное управление всеми потоками данных и зонами записи.
Подробнее..

Категории

Последние комментарии

  • Имя: Макс
    24.08.2022 | 11:28
    Я разраб в IT компании, работаю на арбитражную команду. Мы работаем с приламы и сайтами, при работе замечаются постоянные баны и лаги. Пацаны посоветовали сервис по анализу исходного кода,https://app Подробнее..
  • Имя: 9055410337
    20.08.2022 | 17:41
    поможем пишите в телеграм Подробнее..
  • Имя: sabbat
    17.08.2022 | 20:42
    Охренеть.. это просто шикарная статья, феноменально круто. Большое спасибо за разбор! Надеюсь как-нибудь с тобой связаться для обсуждений чего-либо) Подробнее..
  • Имя: Мария
    09.08.2022 | 14:44
    Добрый день. Если обладаете такой информацией, то подскажите, пожалуйста, где можно найти много-много материала по Yggdrasil и его уязвимостях для написания диплома? Благодарю. Подробнее..
© 2006-2024, personeltest.ru