Русский
Русский
English
Статистика
Реклама

Wd

Сжатие видео на пальцах как работают современные кодеки?

30.07.2020 00:17:36 | Автор: admin


Затраты на хранение данных зачастую становятся основным пунктом расходов при создании системы видеонаблюдения. Впрочем, они были бы несравнимо больше, если бы в мире не существовало алгоритмов, способных сжимать видеосигнал. О том, насколько эффективны современные кодеки, и какие принципы лежат в основе их работы, мы и поговорим в сегодняшнем материале.

Для большей наглядности начнем с цифр. Пускай видеозапись будет вестись непрерывно, в разрешении Full HD (сейчас это уже необходимый минимум, во всяком случае, если вы хотите полноценно использовать функции видеоаналитики) и в режиме реального времени (то есть, с фреймрейтом 25 кадров в секунду). Предположим также, что выбранное нами оборудование поддерживает аппаратное кодирование H.265. В этом случае при разных настройках качества изображения (высоком, среднем и низком) мы получим примерно следующие результаты.

Кодек


Интенсивность движения в кадре


Использование дискового пространства за сутки, ГБ


H.265 (Высокое качество)


Высокая


138


H.265 (Высокое качество)


Средняя


67


H.265 (Высокое качество)


Низкая


41


H.265 (Среднее качество)


Высокая


86


H.265 (Среднее качество)


Средняя


42


H.265 (Среднее качество)


Низкая


26


H.265 (Низкое качество)


Высокая


81


H.265 (Низкое качество)


Средняя


39


H.265 (Низкое качество)


Низкая


24



Но если бы сжатия видео не существовало в принципе, мы бы увидели совсем иные цифры. Попробуем разобраться, почему. Видеопоток представляет собой не что иное, как последовательность статичных картинок (кадров) в определенном разрешении. Технически каждый кадр является двумерным массивом, содержащим информацию об элементарных единицах (пикселях), формирующих изображение. В системе TrueColor для кодирования каждого пикселя требуется 3 байта. Таким образом, в приведенном примере мы бы получили битрейт:

19201080253/1048576 = ~148 Мб/с

Учитывая, что в сутках 86400 секунд, цифры выходят поистине астрономические:

14886400/1024=12487 ГБ

Итак, если бы мы записывали видео без сжатия в максимальном качестве при заданных условиях, то для хранения данных, полученных с одной единственной видеокамеры в течение суток нам бы потребовалось 12 терабайт дискового пространства. Но даже система безопасности квартиры или малого офиса предполагает наличие, как минимум, двух устройств видеофиксации, тогда как сам архив необходимо сохранять в течение нескольких недель или даже месяцев, если того требует законодательство. То есть, для обслуживания любого объекта, даже весьма скромных размеров, потребовался бы целый дата-центр!

К счастью, современные алгоритмы сжатия видео помогают существенно экономить дисковое пространство: так, использование кодека H.265 позволяет сократить объем видео в 90 (!) раз. Добиться столь впечатляющих результатов удалось благодаря целому стеку разнообразных технологий, которые давно и успешно применяются не только в сфере видеонаблюдения, но и в гражданском секторе: в системах аналогового и цифрового телевидения, в любительской и профессиональной съемке, и многих других ситуациях.

Наиболее простой и наглядный пример цветовая субдискретизация. Так называют способ кодирования видео, при котором намеренно снижается цветовое разрешение кадров и частота выборки цветоразностных сигналов становится меньше частоты выборки яркостного сигнала. Такой метод сжатия видеоданных полностью оправдан как с позиции физиологии человека, так и с точки зрения практического применения в области видеофиксации. Наши глаза хорошо замечают разницу в яркости, однако гораздо менее чувствительны к перепадам цвета, именно поэтому выборкой цветоразностных сигналов можно пожертвовать, ведь большинство людей этого попросту не заметит. В то же время, сложно представить, как в розыск объявляют машину цвета паука, замышляющего преступление: в ориентировке будет написано темно-серый, и это правильно, ведь иначе прочитавший описание авто даже не поймет, о каком оттенке идет речь.

А вот со снижением детализации все оказывается уже совсем не так однозначно. Технически квантование (то есть, разбиение диапазона сигнала на некоторое число уровней с последующим их приведением к заданным значениям) работает великолепно: используя данный метод, размер видео можно многократно уменьшить. Но так мы можем упустить важные детали (например, номер проезжающего вдалеке автомобиля или черты лица злоумышленника): они окажутся смазаны и такая запись будет для нас бесполезной. Как же поступить в этой ситуации? Ответ прост, как и все гениальное: стоит взять за точку отсчета динамические объекты, как все тут же становится на свои места. Этот принцип успешно используется со времен появления кодека H.264 и отлично себя зарекомендовал, открыв ряд дополнительных возможностей для сжатия данных.

Это было предсказуемо: разбираемся, как H.264 сжимает видео


Вернемся к таблице, с которой мы начали. Как видите, помимо таких параметров, как разрешение, фреймрейт и качество картинки решающим фактором, определяющим конечный размер видео, оказывается уровень динамичности снимаемой сцены. Это объясняется особенностями работы современных видеокодеков вообще, и H.264 в частности: используемый в нем механизм предсказания кадров позволяет дополнительно сжимать видео, при этом практически не жертвуя качеством картинки. Давайте посмотрим, как это работает.

Кодек H.264 использует несколько типов кадров:

  • I-кадры (от английского Intra-coded frames, их также принято называть опорными или ключевыми) содержат информацию о статичных объектах, не меняющихся на протяжении длительного времени.
  • P-кадры (Predicted frames, предсказанные кадры, также именуемые разностными) несут в себе данные об участках сцены, претерпевших изменения по сравнению с предыдущим кадром, а также ссылки на соответствующие I-кадры.
  • B-кадры (Bi-predicted frames, или двунаправленные предсказанные кадры) в отличие от P-кадров, могут ссылаться на I-, P- и даже другие B-кадры, причем как на предыдущие, так и на последующие.

Что это означает? В кодеке H.264 построение видеоизображения идет следующим образом: камера делает опорный кадр (I-кадр) и уже на его основе (поэтому он и называется опорным) производит вычитание из кадра неподвижных частей изображения. Таким образом создается P-кадр. Затем из этого второго кадра вычитается третий и также создается P-кадр с изменениями. Так формируется серия разностных кадров, которые содержат только изменения между двумя последовательными кадрами. В результате мы получаем такую цепочку:

[НАЧАЛО СЪЕМКИ] I-P-P-P-P-P-P-P-P-P-P-P-P-P- ...

Поскольку в процессе вычитания возможны ошибки, приводящие к появлению графических артефактов, то через какое-то количество кадров схема повторяется: вновь формируется опорный кадр, а вслед за ним серия кадров с изменениями.

-P-P-P-P-P-P-P-I-P-P-P-P-P-P-P ...

Полное изображение формируется путем наложения P-кадров на опорный кадр. При этом появляется возможность независимой обработки фона и движущиеся объектов, что позволяет дополнительно сэкономить дисковое пространство без риска упустить важные детали (черты лиц, автомобильные номера и т. д.). В случае же с объектами, совершающими однообразные движения (например, вращающимися колесами машин) можно многократно использовать одни и те же разностные кадры.


Независимая обработка статических и динамических объектов позволяет сэкономить дисковое пространство

Данный механизм носит название межкадрового сжатия. Предсказанные кадры формируются на основе анализа широкой выборки зафиксированных состояний сцены: алгоритм предвидит, куда будет двигаться тот или иной объект в поле зрения камеры, что позволяет существенно снизить объем записываемых данных при наблюдении за, например, проезжей частью.


Кодек формирует кадры, предсказывая, куда будет двигаться объект

В свою очередь, использование двунаправленных предсказанных кадров позволяет в несколько раз сократить время доступа к каждому кадру в потоке, поскольку для его получения будет достаточно распаковать только три кадра: B, содержащий ссылки, а также I и P, на которые он ссылается. В данном случае цепочку кадров можно изобразить следующим образом.

[НАЧАЛО СЪЕМКИ] I-B-P-B-P-B-P-B-P-B-P-B-P-B-P-B-P-

Такой подход позволяет существенно повысить скорость быстрой перемотки с показом и упростить работу с видеоархивом.

В чем разница между H.264 и H.265?




В H.265 используются все те же принципы сжатия, что и в H.264: фоновое изображение сохраняется единожды, а затем фиксируются лишь изменения, источником которых являются движущиеся объекты, что позволяет значительно снизить требования не только к объему хранилища, но и к пропускной способности сети. Однако в H.265 многие алгоритмы и методы прогнозирования движения претерпели значительные качественные изменения.

Так, обновленная версия кодека стала использовать макроблоки дерева кодирования (Coding Tree Unit, CTU) переменного размера с разрешением до 6464 пикселей, тогда как ранее максимальный размер такого блока составлял лишь 1616 пикселей. Это позволило существенно повысить точность выделения динамических блоков, а также эффективность обработки кадров в разрешении 4K и выше.

Кроме того, H.265 обзавелся улучшенным deblocking filter фильтром, отвечающим за сглаживание границ блоков, необходимым для устранения артефактов по линии их стыковки. Наконец, улучшенный алгоритм прогнозирования вектора движения (Motion Vector Predictor, MVP) помог заметно снизить объем видео за счет радикального повышения точности предсказаний при кодировании движущихся объектов, чего удалось достичь за счет увеличения количества отслеживаемых направлений: если ранее учитывалось лишь 8 векторов, то теперь 36.

Помимо всего перечисленного выше, в H.265 была улучшена поддержка многопоточных вычислений: квадратные области, на которые разбивается каждый кадр при кодировании, теперь могут обрабатываться независимо одна от другой. Появилась и поддержка волновой параллельной обработки данных (Wavefront Parallelel Processing, WPP), что также способствует повышению производительности сжатия. При активации режима WPP обработка CTU осуществляется построчно, слева направо, однако кодирование каждой последующей строки может начаться еще до завершения предыдущей в том случае, если данных, полученных из ранее обработанных CTU, для этого достаточно. Кодирование различных строк CTU с временной задержкой со сдвигом, наряду с поддержкой расширенного набора инструкций AVX/AVX2 позволяет дополнительно повысить скорость обработки видеопотока в многоядерных и многопроцессорных системах.

Флэш-карты для видеонаблюдения: когда значение имеет не только размер


И вновь вернемся к табличке, с которой мы начали сегодняшний разговор. Давайте подсчитаем, сколько дискового пространства нам понадобится в том случае, если мы хотим хранить видеоархив за последние 30 дней при максимальном качестве видеозаписи:

13830/1024 = 4

По нынешним меркам 4 терабайта для винчестера индустриального класса практически ничто: современные жесткие диски для видеонаблюдения имеют емкость до 14 терабайт и могут похвастаться рабочим ресурсом до 360 ТБ в год при MTBF до 1.5 миллионов часов. Что же касается карт памяти, то здесь все оказывается не так однозначно.

В IP-камерах флэш-карты играют роль резервных хранилищ: данные на них постоянно перезаписываются, чтобы в случае потери связи с видеосервером недостающий фрагмент видеозаписи можно было восстановить из локальной копии. Такой подход позволяет существенно повысить отказоустойчивость всей системы безопасности, однако при этом сами карты памяти испытывают колоссальные нагрузки.

Как видно из нашей таблицы, даже при низком качестве изображения и при условии минимальной активности в кадре, всего за сутки будет записано около 24 ГБ видео. А это значит, что 128-гигабайтная карточка будет полностью перезаписана менее чем за неделю. Если же нам требуется получать максимально качественную картинку, то все данные на таком носителе будут полностью обновляться раз в сутки! И это лишь при разрешении Full HD. А если нам понадобится картинка в 4K? В этом случае нагрузка вырастет практически в два раза (в заданных условиях видео в максимальном качестве потребует уже 250 ГБ).

При бытовом использовании подобное попросту невозможно, поэтому даже самая бюджетная карта памяти способна прослужить вам несколько лет к ряду без единого сбоя. А все благодаря алгоритмам выравнивания износа (wear leveling). Схематично их работу можно описать следующим образом. Пусть в нашем распоряжении есть новенькая флеш-карта, только что из магазина. Мы записали на нее несколько видеороликов, использовав 7 из 16 гигабайт. Через некоторое время мы удалили часть ненужных видео, освободив 3 гигабайта, и записали новые, объем которых составил 2 ГБ. Казалось бы, можно задействовать только что освободившееся место, однако механизм выравнивания износа выделит под новые данные ту часть памяти, которая ранее никогда не использовалась. Хотя современные контроллеры тасуют биты и байты куда более изощренно, общий принцип остается неизменным.



Напомним, что кодирование битов информации происходит путем изменения заряда в ячейках памяти за счет квантового туннелирования электронов сквозь слой диэлектрика, что вызывает постепенный износ диэлектрических слоев с последующей утечкой заряда. И чем чаще меняется заряд в конкретной ячейке, тем раньше она выйдет из строя. Выравнивание износа как раз направлено на то, чтобы каждая из доступных ячеек перезаписывалась примерно одинаковое количество раз и, таким образом, способствует увеличению срока службы карты памяти.

Нетрудно догадаться, что wear leveling перестает играть хоть сколько-нибудь значимую роль в том случае, если флэш-карта постоянно перезаписывается целиком: здесь на первый план уже выходит выносливость самих чипов. Наиболее объективным критерием оценки последней является максимальное количество циклов программирования/стирания (program/erase cycle), или, сокращенно, циклов P/E, которое способно выдержать флеш-память. Также достаточно точным и в данном случае наглядным (так как мы можем заранее рассчитать объемы перезаписи) показателем является коэффициент TBW (Terabytes Written). Если в технических характеристиках указан лишь один из перечисленных показателей, то вычислить другой не составит особого труда. Достаточно воспользоваться следующей формулой:

TBW = (Емкость Количество циклов P/E)/1000

Так, например, TBW флеш-карты емкостью 128 гигабайт, ресурс которой составляет 200 P/E, будет равен: (128 200)/1000 = 25,6 TBW.

Давайте считать дальше. Выносливость карт памяти потребительского уровня составляет 100300 P/E, и 300 это в самом лучшем случае. Опираясь на эти цифры, мы можем с достаточно высокой точностью оценить срок их службы. Воспользуемся формулой и заполним новую таблицу для карты памяти емкостью 128 ГБ. Возьмем за ориентир максимальное качество картинки в Full HD, то есть в сутки камера будет записывать 138 ГБ видео, как мы выяснили ранее.

Ресурс карты памяти, циклов P/E


TBW


Время наработки на отказ


100


12,8


3 месяца


200


25,6


6 месяцев


300


38,4


1 год



Хотите использовать карты на 64 ГБ или писать видео в 4K? Смело делите рассчитанные сроки на два: в среднем потребительские карты памяти придется менять раз в полгода, причем в каждой камере. То есть каждые 6 месяцев вам придется закупать новую партию флеш-карт, нести дополнительные расходы на сервисное обслуживание и, конечно же, подвергать опасности охраняемый объект, так как камеры придется выводить из эксплуатации на время замены.

Наконец, еще один момент, на который следует обратить пристальное внимание при выборе карты памяти, ее скоростные характеристики. В описании практически всех современных флеш-карт можно встретить запись вида: Производительность: до 100 МБ/с при чтении, до 90 МБ/с при записи; запись видео: C10, U1, V10. Здесь C10 и U1 означают не что иное, как класс скорости записи видео, причем если заглянуть в справочные материалы, то классам C10, U1 и V10 соответствует 10 МБ/с. Откуда разница в 9 раз и почему маркировка тройная? На самом деле все достаточно просто.

В рассмотренном примере 100 и 90 МБ/с это номинальная скорость, то есть максимально достижимая производительность карты в операциях последовательного чтения и записи при условии использования с совместимым оборудованием, которое само по себе обладает достаточной производительностью. А показатели C10, U1 и V1 (10 МБ/с) это минимальная устойчивая скорость передачи данных в наихудших условиях тестирования. Данный параметр необходимо учитывать при выборе карт для камер видеонаблюдения по той простой причине, что если он окажется ниже битрейта видеопотока, то это чревато появлением на записи графических артефактов и даже выпадением целых кадров. Очевидно, что в случае с охранными системами подобное недопустимо: любые дефекты картинки чреваты потерей критически важных данных например, улик, которые могли бы помочь при поимке злоумышленника.

Что же касается наличия сразу трех маркировок, то причины этого сугубо исторические. C10 относится к самой первой из созданных SD Card Association классификаций, которая была составлена еще в 2006 году, получив простое и незамысловатое название Speed Class. Появление классификации UHS Speed Class, на которую указывает маркировка U1, связано с созданием интерфейса Ultra High Speed, который сегодня используется в подавляющем большинстве флеш-карт. Наконец, последняя классификация, Video Speed Class (V1), была разработана SD Card Association в 2016-м в связи с распространением устройств, поддерживающих запись видео сверхвысоких разрешений (4K, 8K и 3D).

Поскольку перечисленные классификации частично пересекаются, мы подготовили для вас сравнительную таблицу, в которой скоростные характеристики флеш-карт сопоставлены между собой и соотнесены с видео различного разрешения.

Speed Class


UHS Speed Class


Video Speed Class


Минимальная устойчивая скорость записи


Разрешение видео


C2




2 МБ/с


Запись видео стандартного разрешения (SD, 720 на 576 пикселей)


C4




4 МБ/с


Запись видео высокой четкости (HD), включая Full HD (от 720p до 1080p/1080i)


C6



V6


6 МБ/с


C10


U1


V10


10 МБ/с


Запись видео Full HD (1080p) с фреймрейтом 60кадров в секунду



U3


V30


30 МБ/с


Запись видео с разрешением до 4K и фреймрейтом 60/120 кадров в секунду




V60


60 МБ/с


Запись видеофайлов с разрешением 8K и фреймрейтом 60/120 кадров в секунду




V90


90 МБ/с



Следует учитывать, что приведенные в таблице соответствия актуальны для любительских, полупрофессиональных и профессиональных видеокамер. В отрасли видеонаблюдения, где запись в реальном времени ведется с максимальной частотой 25 кадров в секунду, а для сжатия видеопотока применяются высокоэффективные кодеки H.264 и H.265, задействующие кодирование с предсказанием, в подавляющем большинстве случаев будет достаточно карт памяти, соответствующих классу U1/V10, так как битрейт в таких условиях практически никогда не превышает порог в 10 МБ/с.

Карты памяти WD Purple microSD для систем видеонаблюдения




С учетом всех перечисленных особенностей компания Western Digital разработала специализированную серию карт памяти WD Purple microSD, которая на данный момент включает в себя две продуктовые линейки: WD Purple QD102 и WD Purple SC QD312 Extreme Endurance. В первую вошли четыре накопителя объемом от 32 до 512 ГБ, во вторую три модели, на 64, 128 и 256 ГБ. По сравнению с потребительскими решениями, WD Purple были специально адаптированы под современные цифровые системы видеонаблюдения за счет внедрения ряда важных усовершенствований.

Главным преимуществом пурпурной серии является существенно больший по сравнению с бытовыми устройствами рабочий ресурс: карты линейки QD102 способны выдержать 1000 циклов программирования/стирания, тогда как QD312 уже 3000 циклов P/E, что позволяет многократно продлить срок их службы даже в режиме круглосуточной записи, и делает данные карточки идеально подходящими для эксплуатации на особо охраняемых объектах, где запись ведется в режиме 24/7. В свою очередь, соответствие классам скорости UHS Speed Class 1 и Video Speed Class 10 позволяет использовать карты WD Purple в камерах высокого разрешения, в том числе для записи в режиме реального времени.

Помимо этого, карты памяти WD Purple имеют и ряд других важных особенностей, о которых необходимо упомянуть:

  • влагостойкость (изделие способно выдержать погружение на глубину до 1 метра в пресную или соленую воду) и расширенный диапазон рабочих температур (от -25C до +85C) позволяют одинаково эффективно использовать карты WD Purple для оснащения как внутридомовых, так и уличных устройств видеофиксации независимо от погодных и климатических условий;
  • защита от воздействия статических магнитных полей с индукцией до 5000 Гс и устойчивость к сильной вибрации и ударам вплоть до 500 g полностью исключают вероятность утраты критически важных данных даже в случае повреждения видеокамеры;
  • функция удаленного мониторинга помогает оперативно отслеживать состояние каждой карты и эффективнее планировать проведение сервисных работ, а значит, дополнительно повысить надежность охранной инфраструктуры.

Для большей наглядности мы подготовили для вас сравнительную таблицу, в которой приведены основные характеристики карт памяти WD Purple.

Серия


WD Purple QD102


WD Purple QD312


Объем, ГБ


32


64


128


256


512


64


128


256


Форм-


фактор


microSDHC


microSDXC


Производи-тельность



До 100 МБ/с в операциях последовательного чтения,


до 65 МБ/с в операциях последовательной записи


Скоростной класс


U1/V10


Ресурс записи (P/E)



1000



3000


Ресурс записи (TBW)



32



64



128



256



512



192



384



768


Диапазон рабочих температур



От -25 C до 85 C


Гарантия


3 года


Подробнее..

Обратная сторона копирайта

22.04.2021 20:09:52 | Автор: admin

16 ноября 2012 года на сайте Республиканского исследовательского комитета (Republican Study Committee, или RSC), объединяющего более 170 членов палаты представителей США от республиканской партии, появился занимательный доклад. Документ провисел в открытом доступе не более суток его убрали под предлогом того, что он не соответствовал принятым стандартам RSC и не прошел всех согласований. Впоследствии доклад так и не вернулся на страницы сайта. О чем же говорилось в этом документе и почему его так поспешно изъяли из публичного доступа?

Таинственный доклад, с полным текстом которого по-прежнему можно ознакомиться на Scribd, представлял собой последовательную критику сложившейся системы авторского права и вскрывал основные недостатки копирайта в цифровую эпоху. Хотя авторы документа закономерно опирались на законодательство США, многие обозначенные в нем проблемы актуальны для всего мира. Кратко перечислим основные тезисы.

1. Копирайт наносит ущерб науке, задерживая ее дальнейшее развитие

Многие научные работы XX века защищены авторским правом и отсутствуют в свободном доступе. А между тем их могли бы использовать в своих изысканиях молодые ученые и совершать новые открытия, способствуя дальнейшему научно-техническому прогрессу.

2. Копирайт ограничивает доступность литературы

Технически все когда-либо созданные человечеством печатные тексты можно было бы оцифровать и выложить в открытый доступ, создав гигантскую цифровую библиотеку, в которой любой желающий смог бы отыскать нужное произведение на предпочитаемом языке. Однако появлению такого ресурса препятствует копирайт. Даже в эпоху стремительного развития цифровой дистрибуции вам все равно приходится пользоваться услугами традиционных библиотек. И хотя ряд учреждений оцифровывают доступный книжный фонд для лучшей сохранности и внутреннего использования, по закону они не имеют возможности публиковать цифровые копии литературных произведений в сети.

3. Ограничение развития различных отраслей искусства

Если бы срок защиты авторских прав был разумно ограничен, это стимулировало бы появление множества новых произведений на основе старых. Так, например, фанатское сообщество, сложившееся вокруг Звездных войн, получило бы возможность не только создавать собственный контент, развивающий популярную вселенную, но и монетизировать его, что потенциально могло бы подарить нам с вами куда более интересные и увлекательные фильмы, чем невнятная последняя трилогия.

Ограничение сроков действия копирайта пошло бы на пользу и такому направлению, как создание ремиксов. Данная проблема в большей степени актуальна для США, хотя имеет место и в ряде других стран. Согласно законодательству Соединенных Штатов Америки, диджей может свободно играть ремиксы лишь на живых выступлениях, тогда как запись альбомов для большинства независимых музыкантов является роскошью, которую они попросту не могут себе позволить, поскольку авторские выплаты правообладателям достигают 100 тысяч долларов за каждый используемый семпл.

По мнению авторов доклада, решить эти проблемы можно лишь путем радикального сокращения срока действия авторских прав, который не должен превышать 12 лет. Сейчас копирайт действует на протяжении всей жизни автора плюс в течение 70 лет после его смерти.

4. Цензура

Доступ к документам, на которые могут опираться историки и журналисты в своих исследованиях, может быть ограничен под предлогом защиты авторских прав, благодаря чему заинтересованная сторона сможет препятствовать появлению неугодных ей публикаций, имеющих историческое или общественное значение.

Книги, преданные забвению

Все перечисленные пункты достаточно очевидны и вряд ли требуют научного базиса для подтверждения, однако подобные труды существуют. Одной из самых ярких работ является исследование американского писателя, профессора Иллинойского университета Пола Хилда. В своих изысканиях он опирался на WorldCat крупнейшую в мире библиографическую базу данных, созданную Фредериком Гридли Килгуром еще в 1967 году и успешно развивающуюся и по сей день. Этот ресурс содержит свыше 240 миллионов записей практически обо всех видах произведений, когда-либо созданных на 470 языках мирах, что позволяет собрать весьма точную статистику.

Профессор Иллинойского университета, писатель Пол ХилдПрофессор Иллинойского университета, писатель Пол Хилд

Проанализировав сведения, представленные на WorldCat, ученый обнаружил интересную закономерность. По мере распространения грамотности и развития технологий в XX веке, количество ежегодно создаваемых печатных трудов значительно превысило показатели XIX века, причем это касается как художественной, так и научной литературы. Для сравнения: в 1980-х годах было издано в 8 раз больше новых книг, чем в 1880-х. С учетом такого распределения можно было бы ожидать, что в ассортименте магазинов книги, написанные в конце XX века, будут встречаться примерно в 8 раз чаще, нежели книги, впервые увидевшие свет в конце века XIX. Однако на деле распределение выглядит совершенно иначе.

Как видно из приведенного графика, шансы встретить в магазине книгу, написанную в период с 1820 по 1920 год, значительно выше, чем что-то более современное. Все дело в том, что произведения, увидевшие свет в этот временной период, уже получили статус общественного достояния и могут быть перепечатаны без дополнительных авторских отчислений или выкупа эксклюзивных прав у автора.

Продавать новые романы выгодно лишь в течение ограниченного периода времени: при наличии должной маркетинговой кампании охватить максимум целевой аудитории удается уже в первые год-два, затем же продажи существенно падают, поэтому выпуск дополнительных тиражей оказывается нецелесообразным. И хотя затраты на цифровую дистрибуцию несоизмеримо ниже по сравнению с издержками на печать бумажных книг, издателю все равно необходимо иметь лицензию на распространение соответствующего произведения, а приобретать таковую на срок более 2 лет опять же не имеет смысла, если только речь не идет о каких-то мегапопулярных тайтлах. С научными трудами все совсем печально: будучи слишком нишевыми, они и так плохо продаются, исчезая с книжных полок куда быстрее проходных дамских романов.

Из всего сказанного выше профессор делает неутешительный вывод:

Авторское право в том виде, к которому мы привыкли, способствует снижению уровня доступности книг. Существующая модель бизнеса стимулирует издателей продавать новые книги лишь в течение пары лет после релиза. Повторно книги возвращаются в магазины лишь по истечении авторских прав, притом в гораздо меньшем ассортименте.

Как видите, первые два пункта неудобного доклада о вреде копирайта имеют вполне научное обоснование. Причем проблема заключается не только в невозможности создания глобальной библиотеки, на что сетовал автор, но и в снижении доступности литературы в целом, обусловленном особенностями издательского бизнеса.

Устранение конкурентов: быстро, эффективно, законно

Справедливость же третьего тезиса можно с легкостью подтвердить многочисленными примерами из игровой индустрии. Вспомним тот же MERP (Middle-Earth Roleplaying Project) глобальную модификацию для Skyrim, разработчики которой поставили перед собой весьма амбициозную цель, пожелав не просто в точности воссоздать в виртуальном пространстве мир Средиземья, но и сделать настоящую RPG мечты во вселенной Властелина колец, где игрок мог бы примерить на себя роль Фродо Бэггинса и пройти нелегкий путь от Хоббитона до Ородруина, дабы уничтожить Кольцо Всевластия, или же оставить могущественный артефакт себе, попытавшись стать новым Властелином.

Разработка мода началась в 2008 году. Изначально небольшая команда энтузиастов взяла за основу движок Oblivion, однако после выхода следующей части Древних свитков ребята, оценив возможности обновленного Creation Kit, решили перенести свои наработки на новые рельсы. Возможно, этот проект никогда не дошел бы до релиза, разделив судьбу множества других фанатских долгостроев, застрявших на этапе вечной альфы, а может быть, однажды мы с вами действительно смогли бы поиграть в величайшую ролевую игру всех времен. Однако финал этой истории оказался куда прозаичнее: 31 августа 2012 года моддеры получили официальное письмо от юристов Warner Bros. Interactive Entertainment, в котором правообладатель потребовал прекратить дальнейшую работу над модификацией, пригрозив энтузиастам судом. Оно и понятно: на тот момент студия Monolith уже работала над Middle-earth: Shadow of Mordor, официальный анонс которой состоялся всего год спустя, и Warner Bros. не хотела конкуренции даже в виде бесплатного мода.

Похожая судьба ждала и мультиплеерный шутер Star Wars: Galaxy in Turmoil. Фанаты вселенной Звездных войн, опечаленные отменой Battlefront 3, решили создать собственный мультиплеерный шутер с нуля, взяв на вооружение игровой движок Unreal Engine 4. Разработчикам удалось довести проект до вполне играбельного состояния и даже выпустить в раннем доступе Steam, но однажды письмо счастья пришло и на их e-mail.

Electronic Arts, получившая эксклюзивные права на разработку игр по легендарной вселенной, оказалась недовольна появлением подобной игры: лишние конкуренты, особенно на фоне лутбоксового скандала, разворачивающегося вокруг нового Battlefront, который EA на старте всеми силами пыталась превратить в pay-2-win-проект, издателю были не нужны, тем более в виде абсолютно бесплатной игры.

Однако авторы Star Wars: Galaxy in Turmoil не сдались. Они полностью удалили все ассеты, так или иначе связанные с франшизой Звездных войн, переформатировав игру в научно-фантастический сетевой шутер с элементами киберпанка. Данный шаг помог уберечь проект от закрытия, но не от краха: без должного продвижения, которое было не по карману разработчикам, без громкого имени и статуса наследника того самого Battlefront, который так полюбился сообществу, игра перестала развиваться, растеряв львиную долю пользовательской базы.

Двухмерный файтинг My Little Pony: Fighting is Magic один из тех редких примеров, когда фанатская работа смогла выжить после релонча. Подобно создателям Star Wars: Galaxy in Turmoil, получив иск от Hasbro, авторы файтинга (команда из 9 человек, известная в сети под именем Mane6) полностью переработали оригинальную игру и привлекли необходимые для завершения разработки средства через краудфандинговую платформу Indiegogo, сумев добраться до полноценного релиза, который состоялся 30 апреля 2020 года. На этапе перезапуска проекта команда Mane6 нашла неожиданную поддержку в лице аниматора My Little Pony Лорен Фауст, которая помогла энтузиастам с созданием новых персонажей для файтинга в характерном визуальном стиле. Новая версия игры получила название Them's Fightin' Herds.

Впрочем, история Them's Fightin' Herds скорее исключение, чем правило. В Hasbro обратили внимание на проект слишком поздно: на момент, когда Mane6 получила официальное требование прекратить разработку, файтинг уже был достаточно известен в кругу ценителей и даже едва не вошел в перечень официальных дисциплин ежегодного киберспортивного турнира Evolution Championship Series благодаря уникальным движениям и комбо. Сложись обстоятельства иначе, игра канула бы в Лету, как и многие другие подобные проекты.

Продолжение Chrono Trigger под кодовым названием Crimson Echoes (Square Enix), ремейк Metal Gear Solid (Konami), MMO во вселенной покемонов PokeNet (Nintendo) перечислять отмененные по воле правообладателей фанатские проекты и их убийц можно бесконечно. И если мотивацию той же Nintendo еще можно понять (как ни крути, японский гигант старательно развивает принадлежащие ему франшизы), то Konami ведет себя подобно собаке на сене из поговорки, ведь во вселенных некогда знаковых Silent Hill и Metal Gear сегодня выходят лишь автоматы патинко.

Вот как выглядит официальный ремейк MGS 3 от KonamiВот как выглядит официальный ремейк MGS 3 от Konami

Но, так или иначе, все эти примеры наглядно доказывают правоту авторов упомянутого нами доклада о вреде копирайта в его нынешнем виде.

Правообладатели на страже нравственности

Четвертый же пункт претерпел в наше время весьма неожиданную трансформацию. Если авторы доклада говорили прежде всего о цензуре со стороны политических сил, стремящихся скрыть нелицеприятные факты о тех или иных событиях, то сегодня мы с вами сталкиваемся с таким явлением, как цензура корпоративная, которая зачастую оказывается куда более бессмысленной и беспощадной.

Обратимся к событиям лета 2020 года. 10 июня на фоне массовых протестов в США стриминговый сервис HBO Max снял с ротации нестареющую киноклассику Унесенные ветром. После закономерного недовольства подписчиков конгломерат WarnerMedia выпустил следующее заявление:

Унесенные ветром это продукт своего времени, изображающий в том числе некоторые из этнических и расовых предрассудков, которые, к сожалению, были распространены в американском обществе. Подобные расистские моменты были ошибочными тогда и неприемлемы сегодня. Мы считаем, что показ этого фильма без объяснения и осуждения этих моментов безответственен.

Все это противоречит ценностям WarnerMedia, поэтому, когда фильм вернется на HBO Max, он вернется с обсуждением его исторического контекста и осуждением подобных предрассудков. При этом кинолента будет представлена без изменений, ведь поступить иначе все равно что заявить, что этого никогда не существовало. Для создания более справедливого, равноправного и инклюзивного общества необходимо признать и понять собственную историю.

Вчерашняя классика может впасть в немилость по воле трендовВчерашняя классика может впасть в немилость по воле трендов

Спустя 15 дней фильм действительно вернулся в каталог HBO Max. Впрочем, иного исхода сложно было ожидать: вряд ли кто-то осмелился бы предать забвению картину, завоевавшую 8 статуэток Оскар и включенную в 1989 году в Национальный реестр фильмов США. Однако теперь перед началом фильма зрителям демонстрируется лекция профессора Чикагского университета кинематографии Жаклин Стюарт, повествующая о стереотипном изображении афроамериканцев в кино, а вторую часть картины предваряет запись круглого стола на тему Сложное наследие Унесенных ветром, состоявшегося на кинофестивале TCM в 2019 году.

А вот современным сериалам повезло куда меньше. Так, Netflix, BBC и BritBox отказались от проката скетч-шоу Маленькая Британия. Причиной этого послужило неподобающее поведение актеров, которые карикатурно изображали представителей других рас. Тот факт, что британские комики Мэтт Лукас и Дэвид Уильямс изначально стремились создать максимально неполиткорректное шоу, в котором бы высмеивались все возможные стереотипы и пороки общества (причем в первую очередь под удар попали коренные англичане), руководством стриминговых сервисов был благополучно проигнорирован. Впал в немилость даже документальный (!) сериал Полицейские, выходивший с 1989 года: телеканал Paramount Network объявил о закрытии шоу всего за 5 дней до премьеры 33-го сезона. Официальной причиной для этого послужило унижающее человеческое достоинство изображение афроамериканцев.

Если в нулевых над скетчами Лукаса и Уильямса смеялся весь мир, то сегодня их шоу считается аморальнымЕсли в нулевых над скетчами Лукаса и Уильямса смеялся весь мир, то сегодня их шоу считается аморальным

Не остался в стороне и Дисней, хотя медиагиганту и понадобилось для раскачки больше времени. В соответствии с новой политикой инклюзивности компания ввела ограничения на доступ к ряду классических полнометражных мультфильмов в стриминговом сервисе Disney+, которые долгие годы оставались визитной карточкой компании. Такие анимационные ленты, как Питер Пен, Думбо, Книга джунглей, Коты-аристократы, и ряд других произведений перестали отображаться в детских профилях, а их описания были дополнены предупреждениями о содержащихся в мультфильмах расовых и культурных стереотипах, существовавших во время создания произведений.

Целесообразность подобного поступка вызывает вопросы. Если вы еще не прочли манифест Диснея, то попробуйте навскидку вспомнить, что такого криминального было в перечисленных мультфильмах. Вряд ли, будучи ребенком, вы задумывались о том, что вороны из Думбо являются прообразом уличных комиков, высмеивающих африканцев в характерном гриме (так называемый блэкфейс), а имя их главаря и вовсе отсылка к Законам Джима Кроу времен расовой сегрегации в США. Это весьма тонкий момент, на который могут обратить внимание лишь взрослые, хорошо знающие историю.

Да и для того, чтобы отыскать расистский подтекст в песенке Короля Луи, блестяще исполненной джазовым музыкантом Луи Прима, надо очень постараться. Во всяком случае, на формирование мировоззрения ребенка это произведение уж точно никак не повлияет (ну разве что привьет вкус к хорошей музыке).

Впрочем, повышение возрастного рейтинга весьма мягкая мера, ведь Дисней уже не раз демонстрировал, на что способен в борьбе за нравственные устои общества. Достаточно вспомнить хотя бы релиз фильма Всплеск, в котором все сцены с обнаженной Дэрил Ханна, даже самые невинные, на которых и так не разглядеть каких-либо подробностей, были любовно зацензурены с помощью компьютерной графики (к слову, довольно низкого качества).

А еще раньше Диснея уличили в удалении целого эпизода из культового мультсериала Симпсоны, один из персонажей которого, Леон Камповски, считал себя Майклом Джексоном и разговаривал его голосом, однако совершенно не умел петь. Так что в случае с классическими мультфильмами все еще обошлось малой кровью.

Поиск глубинных причин подобных действий со стороны правообладателей не является целью сегодняшнего материала, тем более что все и так достаточно очевидно. С одной стороны, громкие заявления и демонстративные поступки способствуют расширению рынка сбыта за счет повышения лояльности потенциальных клиентов, придерживающихся определенных политических и социальных взглядов. В то же время отказ от спорного контента позволяет компаниям избегать судебных исков от представителей тех или иных сообществ, о чем, в частности, напрямую заявляла Sony.

Напомним, что еще в апреле 2019 года компания объявила об ужесточении контроля за контентом эротического характера в играх, выходящих на платформе PlayStation. В интервью The Wall Street Journal официальные представители Sony четко обозначили причины данного поступка:

Мы обеспокоены тем, что можем стать целью судебного преследования, социальных акций, а также понести репутационные потери, которые негативно отразятся на деятельности компании в будущем.

В своем стремлении угодить вокальному меньшинству Sony пустилась во все тяжкие, начав с цензуры обложек для дисковых изданий и дойдя в конечном счете до вырезания пикантных моментов даже из игр с рейтингом 18+.

Слева версия обложки для семейной консоли Nintendo Switch, справа для взрослой PlayStation 4Слева версия обложки для семейной консоли Nintendo Switch, справа для взрослой PlayStation 4

Новый регламент ударил по небольшим студиям. Все дело в том, что на первых порах у Sony вообще не было строгих критериев или письменного свода правил: ужесточение требований в отношении взрослого контента в играх вступило в силу неожиданно для всех, вскоре после череды скандалов, связанных с движением MeToo (судя по всему, именно они и послужили основной причиной столь скоропалительного пересмотра внутренней политики). И если крупные издатели вроде Capcom могли позволить себе выпускать специальные версии игр для консолей PlayStation, то у инди-разработчиков начались серьезные проблемы.

В Devil May Cry 5 мотоцикл Данте обзавелся мощными ксеноновыми фарами, призванными скрыть прелести ТришВ Devil May Cry 5 мотоцикл Данте обзавелся мощными ксеноновыми фарами, призванными скрыть прелести Триш

Трудности заключаются в том, что мы понятия не имеем, что нам скажут, до того как завершим работу над игрой и отправим ее на рассмотрение. Даже если еще несколько дней назад такой контент считался допустимым, это не значит, что завтра игру не отправят на доработку. Внесение корректив в готовый проект обходится очень дорого, к тому же мы терпим убытки из-за переноса релиза.

Здесь обозначена вторая по важности (после самого факта корпоративной цензуры) проблема постоянно меняющиеся правила игры. Те же Унесенные ветром снимались во времена действия Кодекса Американской ассоциации кинокомпаний, более известного как Кодекс Хейса (назван по имени Уильяма Харрисона Хейса, возглавлявшего ассоциацию в период с 1922 по 1945 год). Данный свод правил включал в себя 11 пунктов, соблюдение которых было обязательным, и еще 25 носящих рекомендательный характер. Хотя в этом перечне было немало странных (даже по тогдашним меркам) требований, если кинокартина им соответствовала, ее выпускали в прокат без каких-либо ограничений.

Уильям Харрисон Хейс главный борец за нравственность в Голливуде начала XX векаУильям Харрисон Хейс главный борец за нравственность в Голливуде начала XX века

Сегодня ситуация в корне отличается. Мы с вами точно не знаем, что может произойти в следующий момент, какие тренды станут актуальными, какие политические или культурные веяния зародятся завтра. Для независимых создателей контента, будь то игровые инди-студии, небольшие музыкальные коллективы или авторы независимого кино, это может оказаться фатальным: проект, на реализацию которого ушли годы, способен в одночасье превратиться в токсичный актив, с которым не захочет иметь дело ни один издатель, звукозаписывающий лейбл или стриминговый сервис. В таких условиях смогут выживать лишь максимально беззубые творения, стремящиеся угодить всем и, как правило, не имеющие ничего общего с понятием искусство.

Для нас же с вами как потребителей контента последствия будут также весьма печальными: в эпоху цифровой дистрибуции правообладатель способен отменить или искалечить любое неправильное произведение, вырезав неудобные моменты, и никто ничего не сможет с этим поделать. Увы, главным девизом современного бизнеса стала любимая фраза Беликова Как бы чего не вышло. В рамках превентивного damage-control правообладатели предпочитают заблаговременно избавляться от всего, что потенциально может принести репутационные и/или финансовые потери, а когда речь заходит о миллионах и даже миллиардах долларов, интересы конечного потребителя уже мало кого волнуют.

Мой магазин мои правила: ноу-хау от Ubisoft

Впрочем, помимо исчезновения тех или иных произведений из сервисов цифровой дистрибуции в силу истечения сроков действия прав на их распространение или в угоду современным трендам, существует и еще одна серьезная проблема, для обозначения которой лучше всего подойдет такой эпитет, как произвол издателя.

Ранее мы уже обращались к теме копирайта в цифровую эпоху применительно к онлайн-магазинам компьютерных игр, однако прошлая публикация была встречена читателями неоднозначно: кто-то решил, что мы критикуем конкретно Steam (хотя на самом деле мы критиковали сложившуюся модель дистрибуции в целом, при которой издатель может сделать с приобретенной вами игрой все, что посчитает нужным, в том числе изменить до неузнаваемости и даже отобрать), а кто-то не воспринял высказанные опасения всерьез. Но Ubisoft расставила все точки над i, убедительно доказав, что мы были правы, хотя компания и превзошла все наши самые смелые ожидания.

Еще 12 мая 2020 года издатель изменил текст пользовательского соглашения, в котором появился весьма интересный пункт 8.2, касающийся условий прекращения действия учетной записи, необходимой для использования сервисов Ubisoft. Согласно ему, компания может закрыть ваш аккаунт в том случае, если он был неактивен более 6 месяцев. Разумеется, ни о какой компенсации денежных средств, потраченных на игры, речи не идет, о чем прямо сказано в пункте 8.3.

Обновленное EULA вызвало жаркие споры, причем у французского издателя нашлось и немало защитников, утверждавших, что речь идет о профилях, заблокированных после взлома или выявления факта использования читов, и что, вообще, все эти соглашения пишутся так, чтобы в случае чего прикрыть издателя в юридическом поле, а на самом деле никто ничего удалять, конечно же, не будет.

Однако все оказалось куда прозаичнее: пункт 8.2 не имеет скрытых трактовок, и понимать все, что в нем изложено, следует буквально, в чем ряд пользователей уже смогли убедиться самолично, получив спустя полгода вот такие замечательные письма счастья.

С точки зрения бизнеса обосновать данный шаг легко. Лояльной аудитории Ubisoft, которая покупает и играет в игры издателя на постоянной основе, бояться нечего: они и так будут регулярно авторизовываться в сервисе и никогда не получат подобный email. В то же время это неплохой способ стимулировать к покупке тех, кто заходит в Uplay лишь время от времени (например, чтобы поиграть в Реймана или перепройти старых Принцев Персии), делать это чаще: возможно, в очередной раз запустив лаунчер, такой пользователь польстится на скидку и прикупит что-нибудь новенькое, а там, глядишь, распробует новых Ассасинов и станет приобретать по игре каждый год (а может быть, и во внутриигровой магазин занесет немного наличности).

Прозорливые читатели могут возразить: никакое соглашение, будь то публичная оферта или подписанный собственноручно бумажный договор, не могут противоречить действующему законодательству, а значит, EULA Ubisoft не имеет силы в подавляющем большинстве стран, так как идет вразрез с законом о защите прав потребителей. И это действительно так, но, чтобы вернуть заблокированный аккаунт или получить компенсацию, вам придется подать иск против весьма крупного и богатого издателя.

А теперь ответьте для себя на следующие вопросы. Попав в подобную ситуацию, вы пойдете в суд? Решив судиться, сможете ли вы найти единомышленников для подачи коллективного иска? Есть ли у вас на примете кто-либо из влиятельных персон (представитель законодательной власти или известная медийная личность), кто был бы заинтересован в подобном процессе (например, ради пиара или из идейных соображений) и взялся бы участвовать в таком разбирательстве, оказывая посильную помощь?

Современные реалии таковы, что, будь вы хоть сто раз правы, выиграть у корпорации с огромной армией профессиональных юристов процесс в одиночку, не обладая достаточными финансовыми возможностями, без поддержки сильных мира сего, вы никак не сможете. И далеко не факт, что, когда лично у вас отберут аккаунт с играми, фильмами, книгами или другим цифровым контентом, обстоятельства сложатся в вашу пользу. Не говоря уже о том, что такое противостояние может затянуться на много лет, в течение которых вы все еще не сможете пользоваться своей учетной записью и привязанным к ней контентом.

Если снять розовые очки, то в современных реалиях вы должны четко осознавать, что прибегая к услугам площадок вроде UPlay вы не покупаете цифровой контент, а берете его в аренду на условиях, навязанных издателем, и можете в любой момент лишиться всей вашей коллекции без возможности восстановления или возврата средств. Это объективное положение вещей. Все, что вам нужно, решить лично для себя, как вы относитесь к потребляемому продукту в целом. Если вы не имеете привычки возвращаться к ранее пройденным играм, просмотренным фильмам или прочитанным книгам и четко осознаете, что деньги, которые вы отдаете платформам цифровой дистрибуции, это плата за сервис, а не за игру, фильм или музыкальный альбом как сущность, то по гамбургскому счету вам не о чем волноваться.

В противном же случае вы должны понимать, что ваша коллекция игр, музыки, фильмов, книг это не более чем таблица в базе данных, которая вам не принадлежит и однажды может быть стерта или отредактирована по воле правообладателя. Единственный, кто способен гарантировать вам доступ к контенту, вы сами. Как же это сделать?

Спасение утопающих

Для начала стоит вспомнить о возможности приобретения контента на физических носителях. Хотя сегодня на золото уходит отнюдь не каждый фильм, музыкальный альбом или игра, это не значит, что их вообще перестали выпускать: оптические диски, винил и даже картриджи для консолей прошлых лет все еще можно отыскать на полках магазинов или на том же Ebay, если речь идет о каких-то раритетных изданиях.

Старый добрый винил в наше время становится как никогда актуаленСтарый добрый винил в наше время становится как никогда актуален

Помимо этого, вы можете использовать сервисы, которые позволяют приобрести цифровую копию того или иного произведения и пользоваться ею без онлайн-активации или привязки к аккаунту. Пусть подобных площадок не так много, но они существуют и зачастую способны по-настоящему удивить. Взять, к примеру, тот же Bandcamp: здесь представлены сотни уникальных в своей самобытности коллективов, которых не найти на Deezer и Spotify, к тому же, в отличие от популярных стриминговых сервисов, здесь вы можете скачать любые приобретенные композиции и альбомы в lossless-качестве.

Наконец, не стоит забывать о проектах вроде Public Domain Torrents, Legit Torrents и аналогичных. Названия этих площадок говорят сами за себя: здесь энтузиасты выкладывают фильмы, музыку, игры, имущественные авторские права на которые истекли или вообще никогда не существовали, то есть произведения, находящиеся в статусе общественного достояния. Копирование и распространение таких материалов является полностью легальным, так что, пользуясь услугами подобных площадок, вы не нарушаете действующее законодательство.

Сохранить же резервные копии полученного тем или иным способом цифрового контента вам поможет надежное сетевое хранилище и накопители Western Digital. На Хабре уже неоднократно выходили публикации, посвященные самостоятельной сборке NAS, так что вы сможете без труда отыскать не один десяток готовых рецептов. Что же касается накопителей для реализации подобного проекта, то лучшим выбором были и остаются жесткие диски WD Red Plus.

Данная линейка включает в себя девять моделей емкостью от 2 до 14 терабайт, предназначенных для эксплуатации в составе сетевых устройств хранения данных и вобравших в себя последние технологические достижения Western Digital. Ниже мы во всех подробностях рассмотрим каждую из используемых технологий, чтобы вы, уважаемые читатели, смогли по достоинству оценить предлагаемые нами решения.

  • Высокая надежность

Одна из особенностей жестких дисков WD Red Plus заключается в том, что парковка блока головок дисков осуществляется только при обесточивании NAS, поскольку параметр APM (Advanced Power Management) по умолчанию имеет значение 0. Параметр spindown (standby) timer также принимает нулевое значение: полная остановка мотора происходит лишь при отключении питания. Это позволяет, во-первых, сократить время отклика накопителя, а во-вторых, дополнительно продлить срок службы электродвигателя. И это при том, что привод блока головок может похвастаться ресурсом в 600 тысяч циклов парковки, что вдвое больше, чем у обычных винчестеров.

  • Платформа HelioSeal четвертого поколения

Жесткие диски WD Red Plus и WD Red Pro емкостью 8 терабайт и более созданы на базе платформы HelioSeal версии 4.0. Их корпуса абсолютно герметичны и заполнены инертным газом гелием, плотность которого практически в семь раз меньше плотности воздуха. Низкое сопротивление газовой среды дало возможность использовать более тонкие магнитные пластины, что позволило увеличить их количество, а снижение силы трения способствовало сокращению энергозатрат на раскрутку шпинделя. В свою очередь, уменьшение турбулентности помогло повысить точность позиционирования магнитных головок, благодаря чему удалось уменьшить зазор между ними и поверхностью блинов, а также сократить площадь треков, расположив их более компактно.

Как следствие, гелиевые накопители оказываются не только вместительнее, но и практически на 50% экономичнее и на 45C холоднее воздушных аналогов, что делает такие устройства идеальным решением для эксплуатации в составе сетевых хранилищ, работающих в режиме 24/7, а также ультракомпактных устройств серии My Cloud, потенциал системы охлаждения которых ограничен вследствие малых размеров корпуса.

  • Защита от вибрации

При вращении на каждую магнитную пластину действуют дисбалансирующие силы, причем одновременно в двух плоскостях: горизонтальной (блины смещаются в плоскости сечения оси шпинделя) и вертикальной (вектор приложен перпендикулярно, блок пластин как бы колеблется вверх-вниз). Чтобы нивелировать перечисленные эффекты, в заводских условиях проводится тщательная балансировка каждого устройства, в ходе которой подбирается оптимальная длина фиксирующих винтов. Помимо этого, мы используем систему демпферов и амортизаторов, которые эффективно гасят возникающую вибрацию. Данный комплекс мер получил название 3D Active Balance Plus.

Дополнительную надежность механизму придает технология StableTrac, предусматривающая двухстороннюю фиксацию вала электропривода.

Все это позволяет стабилизировать магнитные пластины, что также оказывает положительное влияние на точность позиционирования пишущих головок во время операций ввода/вывода.

  • Прошивка NASware 3.0

Фирменная микропрограмма Western Digital гарантирует совместимость накопителей с широким спектром материнских плат и дисковых контроллеров, что полностью исключает возникновение конфликтов между комплектующими на аппаратном уровне. Поддержка набора команд ATA Streaming Feature Set обеспечивает возможность параллельного выполнения операций чтения/записи за счет оптимизации использование кэш-памяти диска, благодаря чему вы сможете использовать NAS в качестве мультимедийного сервера, транслируя потоковое видео одновременно на несколько устройств и не опасаясь падения производительности системы хранения.

В свою очередь, поддержка технологии TLER (Time Limited Error Recovery) помогает дополнительно обезопасить вашу цифровую коллекцию за счет наличия обратной связи между накопителем и RAID-контроллером. Все дело в том, что даже при штатной работе жесткого диска неизбежно возникают ошибки считывания, обусловленные нестабильностью сектора или сбоем во время записи. В подобных случаях HDD действует согласно следующему алгоритму:

  • происходит повторная попытка записи в тот же сектор с последующим контрольным чтением;

  • если уровень сигнала по-прежнему остается низким, контроллер расценивает это как однозначный признак износа магнитного покрытия;

  • данные переносятся в другой сектор, а дефектный соответствующим образом помечается в дальнейшем при перезаписи он будет игнорироваться.

Схема отлично работает, когда речь идет об одиночных винчестерах, однако, если накопители объединены в массив, в дело вступает RAID-контроллер, который должен отслеживать состояние каждого устройства. Проблема в том, что во время коррекции ошибок диск не реагирует на отправляемые команды, и, если период латентности превышает 7 секунд (по умолчанию), диск исключается из массива, так как контроллер воспринимает такое молчание как признак отказа оборудования.

TLER решает данную проблему следующим образом. При выявлении ошибки инициируется стандартный алгоритм коррекции, однако, если уложиться в положенное время не удается, диск отправляет сигнал RAID-контроллеру. Последний фиксирует сообщение в журнале, откладывая процедуру исправления до более удачного момента (например, до простоя системы), что позволяет не только полностью исключить вероятность произвольного распада массива, но и дополнительно снизить нагрузку на систему хранения.

Все перечисленное делает жесткие диски семейства WD Red Plus практически идеальным решением для построения высокоемкого производительного NAS, который поможет сохранить ваши любимые фильмы, музыку, компьютерные игры, записи любимых шоу и другой цифровой контент и оградить вашу коллекцию от вероломных действий со стороны правообладателей.

Подробнее..

Ретроконсоль своими руками Часть1. Выбираем железо

27.04.2021 20:11:49 | Автор: admin

Нелегкая ситуация, сложившаяся на рынке видеокарт, отличный повод вспомнить о том, что компьютерные игры это вовсе не 4K, не волшебные лучи RTX и тем более не количество полигонов на кончике носа главного героя. Крепко сбитый, захватывающий игровой процесс вот то, что отличает хорошую видеоигру от плохой, а вовсе не качество графики. В наше время это сакральное знание во многом было утеряно: современные игроделы делают ставку на красивую картинку и аддиктивные механики, забывая о том, что игра прежде всего должна развлекать и приносить радость.

Впрочем, благодаря эмуляторам классических игровых систем, сегодня практически каждый может прикоснуться к удивительному миру ретроигр, создатели которых ставили во главу угла именно геймплей. Ну а самый идеологически верный способ это сделать собрать миниатюрную консоль на базе одноплатного компьютера. Справиться с подобной задачей сможет даже человек, далекий от мира DIY, благо все необходимое можно приобрести на AliExpress, а сам процесс сборки подобного девайса оказывается не намного сложнее сборки конструктора Лего.

В первой части данного материала мы поговорим о том, какие компоненты необходимы для сборки ретроконсоли, а вторую всецело посвятим выбору подходящей операционной системы и настройке программного обеспечения. Статья ориентирована на новичков, которые прежде не имели дела с подобными проектами.

Лучшая платформа для первых экспериментов

Тем, кто ранее никогда не имел дела с одноплатными компьютерами, мы настоятельно рекомендуем начинать с Raspberry Pi. Данная платформа успешно развивается с 2012года и обрела за это время массу поклонников по всему миру. Сегодня для малинки выпускается огромное количество разнообразных модулей, корпусов и периферии, а Интернет буквально переполнен пошаговыми туториалами, посвященными созданию ретроконсолей, а также решению типичных проблем, неизбежно возникающих при реализации подобных проектов. С учетом качества, дешевизны и достаточно высокой для устройств такого класса производительности, все перечисленное делает Raspberry Pi наиболее оптимальным выбором для новичка.

Но какую же модель предпочесть: наиболее актуальную Raspberry Pi 4B или же недорогую Raspberry Pi 3B? Ответ на этот вопрос зависит от того, во что именно вы собираетесь играть. Оба одноплатных компьютера прекрасно справляются с эмуляцией 8-, 16- и 32-битных консолей, демонстрируя устойчивый фреймрейт 60 кадров в секунду даже в самых технически навороченных играх для первой PlayStation. Однако, когда речь заходит о более мощных приставках, у 3B начинаются серьезные проблемы. Следующее сравнение наглядно демонстрирует разницу в производительности между третьим и четвертым поколениями малинки при эмуляции игр для Sega Dreamcast.

Разница видна невооруженным глазом. Если говорить о цифрах, то даже в наиболее тяжелых сценах фреймрейт на 4-й модели Raspberry Pi не опускается ниже 3235 кадров в секунду, чего вполне достаточно для комфортной игры, тогда как максимальный FPS достигает 5860 к/с. Третья модификация малинки, увы, не вытягивает игры для Dreamcast в принципе: FPS регулярно падает до неиграбельных 10 кадров в секунду, а в некоторых сценах можно заметить графические артефакты, причина которых кроется отнюдь не в низкой точности эмуляции, а в том, что SoC банально не успевает обрабатывать все имеющиеся в кадре объекты.

Аналогичным образом дела обстоят и с эмуляцией Nintendo 64, хотя там результаты значительно разнятся в зависимости от конкретной игры. Так, например, в Super Smash Bros. фреймрейт не опускается ниже 59 FPS, тогда как в Golden Eye средняя частота кадров колеблется у отметки 25 кадров в секунду, при этом геймплей сопровождается постоянными фризами.

А вот количество оперативной памяти (напомним, что Raspberry Pi 4B выпускается в трех версиях: с 2, 4 и 8 гигабайтами RAM на борту) закономерно не влияет на скорость эмуляции.

Сравнительные тесты наглядно показывают, что даже при работе с эмуляторами GameCube и PSP главной проблемой одноплатного компьютера оказывается именно низкая производительность CPU и видеоядра, но никак не объем оперативки.

Таким образом, если вы планируете использовать Raspberry Pi исключительно для игр, то можете дополнительно сэкономить, приобретя базовую версию с 2 гигабайтами RAM.

Корпус для ретроконсоли

Если вы являетесь счастливым обладателем 3D-принтера, то сможете самостоятельно создать для малинки подходящий корпус. В противном случае добро пожаловать на AliExpress. Здесь можно без труда найти десятки вариантов корпусов под Raspberry Pi любых модификаций, начиная от простых наборных коробочек из акрила и заканчивая продвинутыми решениями с продуманным охлаждением и контроллерами дополнительных портов. Базовый набор стоимостью около 500 рублей будет выглядеть примерно так.

В комплект, помимо самого корпуса, состоящего из нескольких акриловых пластин, уже входят радиаторы для чипов, миниатюрный кулер, крепежные винты и отвертка для сборки. В принципе, этого вполне хватит для использования Raspberry Pi в качестве игровой приставки. Жаль только, что в таком виде малинка не особо похожа на ретроконсоль и не вызывает того неуловимо-сладостного чувства, которое принято называть ностальгией. Впрочем, этот недостаток легко исправить.

На просторах маркетплейса можно отыскать и кастомные корпуса, стилизованные под игровые консоли прошлых лет. Одной из самых интересных таких моделей по соотношению цена/качество является Retroflag NESPi 4, создатели которой вдохновлялись легендарной Nintendo Entertainment System.

В набор, который обойдется вам в сумму от 3 до 3,5 тысячи рублей в зависимости от продавца, помимо самого корпуса, входят: кулер, две термопрокладки, отвертка, адаптер питания, кабель micro-HDMI для подключения ретроконсоли к монитору или телевизору, инструкция по сборке, а также картридж-переходник для 2,5-дюймового SATA SSD. Встроенный в корпус SATA-контроллер подключается к одному из разъемов USB 3.0 малинки, поэтому один из двух имеющихся на плате высокоскоростных портов будет всегда занят, что, впрочем, не является критичным для подобного проекта.

Поскольку интерфейс третьей версии обладает пропускной способностью 5 Гбит/с (то есть 640 МБ/с), твердотельный накопитель будет работать практически так же быстро, как и при прямом подключении к SATA-разъему материнской платы (для сравнения, максимальная производительность топового WD Blue 3D NAND составляет 560 МБ/с в операциях последовательного чтения и 530 МБ/с при записи файлов). А самое главное, у вас появится возможность подключать дополнительное хранилище под файлы на случай, если вы захотите собрать ультимативную коллекцию игр для PlayStation и Dreamcast или же использовать ретроконсоль в качестве видеоплеера. Подключить же такой картридж к ПК или ноутбуку можно с помощью стандартного переходника SATA-USB.

Retroflag предлагает и собственный адаптер для работы с картриджем. Стоит такое удовольствие около 1500 рублей, при этом его использование не дает каких-либо значимых преимуществ, кроме разве что светодиодного индикатора активности SSD.

Так что приобретать подобное чудо техники имеет смысл лишь в том случае, если вам важен дизайн. Ведь переходник выполнен в том же стиле, что и оригинальные чехлы для картриджей Nintendo Entertainment System, если не считать отсутствия товарного знака Nintendo, на использование которого у RetroFlag попросту нет прав.

Еще одной интересной особенностью данного корпуса является наличие отсека для хранения microSD-карт, который можно отыскать с обратной стороны консоли, он пригодиться в том случае, если вы планируете использовать несколько разных операционных систем поочередно.

Единственным недостатком этого корпуса можно назвать очень короткие провода для подключения к Raspberry Pi контроллеров внешних портов и вентилятора кулера, что несколько усложняет процедуру сборки. Впрочем, с этим недостатком вы столкнетесь лишь единожды во время установки одноплатного компьютера внутрь.

Клавиатура и мышь

Хотя для игр мы будем использовать геймпад, первичная настройка ретроконсоли потребует наличия полноценных устройств ввода. В принципе, к Raspberry Pi можно подключить любую стандартную USB-клавиатуру и мышь, благо одноплатный компьютер оснащен полноразмерными портами USB. Однако для большего удобства вы можете приобрести беспроводную мини-клавиатуру со встроенным тачпадом наподобие Rii i8.

Такое устройство не особо подходит для повседневного использования из-за своих скромных размеров, однако для периодического администрирования является практически идеальным вариантом, помогая в том числе сэкономить дополнительный USB-порт, которых у малинки и без того не очень много. Среди преимуществ данной модели также необходимо отметить наличие мультимедийных кнопок это позволяет использовать клавиатуру в качестве пульта ДУ при просмотре видео.

Геймпад в стиле ретро

Если вы привыкли к Dualshock 4 или Xbox One Controller, то сможете использовать для игр полюбившийся геймпад, благо популярные дистрибутивы операционных систем для ретроконсолей поддерживают перечисленные игровые манипуляторы из коробки. Желающие предаться ностальгии по полной программе также могут приобрести контроллеры, стилизованные под геймпады для консолей прошлых лет: на том же Aliexpress можно отыскать десятки разнообразных моделей на любой вкус и кошелек.

В качестве же своеобразной золотой середины между этими крайностями мы можем порекомендовать 8BitDo SN30 Pro+.

Компания 8BitDo хорошо зарекомендовала себя среди поклонников ретрогейминга, предлагая покупателям сравнительно недорогие, но при этом весьма качественные игровые манипуляторы. Модель SN30 Pro+ позиционируется как универсальный геймпад и совместима с операционными системами Windows, macOS, Android, корректно распознается RetroPie, Recalbox и Lakka и может использоваться даже в качестве замены Pro-контроллера для Nintendo Switch.

По дизайну SN30 Pro+ представляет собой нечто среднее между DualShock для PlayStation и геймпада SNES. Два аналоговых стика и полный набор кнопок позволяют использовать данный контроллер не только с любыми эмуляторами ретроконсолей, но и в современных играх. Среди интересных особенностей устройства необходимо отметить:

  • наличие аналоговых курков;

  • возможность написания собственных макросов с помощью фирменного ПО;

  • съемный аккумулятор, который при необходимости можно заменить на две пальчиковые батарейки;

  • расширенная поддержка (хотя релиз геймпада состоялся в 2019 году, обновления прошивки выпускаются до сих пор: последняя версия микропрограммы датируется 14 января 2021 года).

Заплатить за все это великолепие придется примерно 4 тысячи рублей. Если же вам не особо импонирует дизайн с рожками DualShock, вы можете заказать обычную версию геймпада без приставки плюс.

По размерам и форме такой геймпад приближен к контроллеру для Super Nintendo, технически ничем не отличаясь от своего старшего брата. Данная версия обойдется вам примерно на 500 рублей дешевле.

Выбираем карту памяти для ретроконсоли

С выбором карты памяти все отнюдь не так просто, как может показаться на первый взгляд. Прежде всего определимся с емкостью. Для установки и корректной работы операционной системы нам понадобится 16 ГБ дискового пространства, тогда как весь остальной доступный объем можно будет использовать для размещения самих игр. Таким образом, в минимальной конфигурации будет достаточно microSD-карты объемом 32 ГБ, но лишь в том случае, если круг ваших интересов ограничивается проектами 8/16-битной эпохи. С учетом того, что в течение жизненного цикла той же PlayStation One было выпущено около 8 тысяч проектов, средний объем каждого из которых составлял 400 МБ, полная коллекция игр для классической приставки Sony будет занимать более 3 терабайт, в то время как сборник игр для NES весит от силы 5060 МБ.

Впрочем, поскольку Raspberry Pi поддерживает стандарт SDXC, с дефицитом свободного места у вас точно не возникнет проблем: если обратиться к перечню протестированных моделей, то в нем можно найти даже SanDisk Extreme Pro на 512 ГБ.

Другое дело, что подобные карточки достаточно дороги. Так что если вы не собираетесь использовать свою ретроконсоль в качестве мультимедийного сервера, то их покупка является не особо рентабельной. В случае же приобретения упомянутого Retroflag NESPi 4, позволяющего подключать к малинке полноценные SATA SSD да еще и менять их, словно игровые картриджи, смысл в использовании карты памяти большой емкости и вовсе теряется.

Помимо объема, при выборе microSD-карты для Raspberry Pi следует обращать внимание на ее скоростные характеристики. И речь идет не только о скорости чтения/записи, но и о минимальном устойчивом количестве операций ввода-вывода в секунду (IOPS) показателе, который напрямую влияет на производительность флеш-карты при работе с приложениями. Поскольку мы с вами будем использовать микрокомпьютер в качестве ретроконсоли, нам будет вполне достаточно карты памяти уровня SanDisk Ultra.

Карты памяти данной линейки относятся к классам производительности C10, U1, A1. На практике это означает, что даже в самых неблагоприятных условиях скорость передачи данных между флеш-картой и одноплатным компьютером не будет опускаться ниже 10МБ/с (C10, U1), а минимальное устойчивое количество операций ввода-вывода составляет 1500 IOPS в операциях случайного чтения и 500 IOPS при записи файлов (A1). Поскольку эмуляторы ретроконсолей не особо требовательны к скорости системного накопителя, а сами дистрибутивы игр отличаются малым объемом, для наших нужд этого будет более чем достаточно. С учетом того, что в операциях последовательного чтения/записи производительность SanDisk Ultra достигает 100МБ/с, особых проблем с загрузкой новых игр также не возникнет, поскольку в среднем на передачу каждых 4 ГБ данных будет уходить не более 1 минуты.


Наша ретроконсоль практически готова. Дело за малым: осталось лишь установить подходящую операционную систему и произвести все необходимые настройки. О том, как это сделать, мы поговорим уже во второй части материала.

Подробнее..

Ретроконсоль своими руками Часть 2. Установка и настройка RetroPie

30.04.2021 20:15:00 | Автор: admin

В предыдущей статье мы подобрали все необходимые компоненты для сборки нашей самодельной ретроконсоли. Настало время вдохнуть в нее жизнь! В этом нам поможет RetroPie операционная система, основанная на Linux-дистрибутиве Raspbian OS и представляющая собой сборник эмуляторов разнообразных игровых приставок прошлых лет и удобный менеджер для работы с вашей игротекой в одном лице. Хотя это отнюдь не единственное из доступных решений, по нашему мнению, именно данная сборка лучше всего подходит новичку, так как требует минимальных навыков для базовой установки и настройки, отличаясь при этом стабильностью и достаточно широким спектром возможностей. Итак, приступим.

1. Подготовка microSD-карты

Первое, что необходимо сделать, установить RetroPie на карту памяти, которая будет исполнять роль системного накопителя. Объем карточки всецело зависит от того, как именно вы планируете использовать консоль. Если вы собираетесь играть исключительно в 8/16-битные проекты или запускать игры с внешних носителей (а такую возможность RetroPie также поддерживает), то вам вполне хватит SanDisk Ultra на 32 гигабайта. В противном же случае стоит приобрести microSD-карту емкостью 128256 ГБ: вряд ли вам понадобится хранить в памяти ретроконсоли все когда-либо выходившие игры для PlayStation и DreamCast, а для избранных релизов такого объема должно быть вполне достаточно.

Карты памяти данной серии относятся к классу A1 (Application Performance Class). Это означает, что даже в самых неблагоприятных условиях их производительность не опускается ниже 1500 IOPS при случайном чтении и 500 IOPS при записи файлов, при этом скорость передачи данных в последовательных операциях достигает 100МБ/с. Таким образом, с одной стороны, вы сможете достаточно быстро загружать в память консоли даже объемные ROMы, а с другой не будете испытывать проблем при работе с RetroPie или во время игр.

Если в вашем компьютере или ноутбуке отсутствует встроенный карт-ридер, для подключения флеш-карты вы можете воспользоваться SanDisk MobileMate USB 3.0. Благодаря компактным размерам устройства, его будет достаточно удобно использовать и с самой ретроконсолью, если у вас вдруг возникнет такая потребность.

Для установки RetroPie проще всего воспользоваться Raspberry Pi Imager инсталлятором с функцией автоматической загрузки дистрибутивов из сети, доступным в версиях для операционных систем Windows, Mac OS и Ubuntu. После подключения карты памяти к ПК или ноутбуку запустите утилиту, нажмите на CHOOSE OS, а затем выберите Emulation and game OS ---> RetroPie ---> RetroPie version_number (RPI 4/400).

Теперь кликните по CHOOSE SD CARD, выберите нужную флеш-карту и запустите установку RetroPie, нажав на кнопку WRITE. Дождитесь окончания процедуры.

2. Настройка геймпада

Установите карту памяти в microSD-слот Raspberry Pi, подключите геймпад через USB-кабель и включите ретроконсоль. Сразу после подачи питания инициируется процедура настройки системы, которая занимает в среднем около 1,52 минут.

По завершении всех операций на экране появится окно приветствия. Поскольку мы уже подключили геймпад по проводу, система автоматически его определит и предложит настроить. Для запуска мастера нажмите любую кнопку на контроллере.

Все, что требуется далее, последовательно нажимать нужные кнопки на геймпаде в соответствии с подсказками на экране.

Если вы затрудняетесь с выбором, предлагаем вашему вниманию стандартную раскладку для контроллеров семейства DualShock и их аналогов.

Примечание. В самом конце RetroPie попросит вас задать кнопку Hotkey. Лучше всего выбрать в качестве хоткея кнопку Home, так как она не задействуется в играх. Если на вашем геймпаде таковая отсутствует (например, вы используете реплику оригинального контроллера для SNES), то на ее роль вполне сгодится кнопка Select. Хоткеи открывают доступ к дополнительным функциям RetroArch/Libretro-based-эмуляторов, входящих в состав RetroPie. Список доступных комбинаций приведен в таблице ниже.

Комбинация клавиш

Команда

Хоткей + Start

Выход

Хоткей + Правый бампер

Сохранить игру

Хоткей + Левый бампер

Загрузить сохранение

Хоткей + Вправо

Следующий слот сохранения

Хоткей + Влево

Предыдущий слот сохранения

Хоткей + X

Внутриигровое меню

Хоткей + B

Сброс

Внутриигровое меню обеспечивает доступ к дополнительным функциям эмулятораВнутриигровое меню обеспечивает доступ к дополнительным функциям эмулятора

3. Активация полноэкранного режима

После первого включения вы наверняка обратите внимание на наличие черной рамки по краю экрана.

Давайте от нее избавимся.

1. Зайдите в меню CONFIGURATION, нажав кнопку A на геймпаде, и перейдите в раздел RASPI-CONFIG.

2. Выберите пункт 7 Advanced Options.

3. Зайдите в A2 Overscan.

4. Выберите No.

5. Нажмите Ok.

6. Нажмите Finish, чтобы завершить процесс настройки.

7. Система предложит выполнить перезагрузку, чтобы изменения вступили в силу.

После перезапуска RetroPie будет работать в полноэкранном режиме.

4. Подключение беспроводных девайсов по Bluetooth

RetroPie поддерживает большинство игровых контроллеров и беспроводных клавиатур, так что проблем с подключением у вас возникнуть не должно. Тем не менее давайте посмотрим, как это сделать, на примере геймпада 8BitDo SN30 Pro. Обратите внимание на то, что перед выполнением действий, описанных ниже, необходимо обновить прошивку девайса до актуальной с помощью утилиты с официального сайта производителя, а затем включить устройство, нажав одновременно кнопки Y + Start, и перевести его в режим сопряжения, нажав расположенную на верхнем торце геймпада кнопку Pair и удерживая ее в течение 3 секунд.

Теперь можно приступать к настройке.

1. Вновь зайдите в меню CONFIGURATION и перейдите в раздел BLUETOOTH.

2. Активируйте 8BitDo mapping hack.

Примечание. Mapping hack рекомендуется включать для всех геймпадов 8BitDo с версией микропрограммы ниже 4.0. Если вы используете, например, контроллер 8BitDo SN30 Pro+ с актуальной версией прошивки (5.01 на момент написания данного материала), просто пропустите этот шаг.

3. Перейдите в раздел Register and Connect to Bluetooth Device.

4. RetroPie инициализирует поиск доступных устройств, после чего выведет их перечень на экран. Выберите геймпад 8BitDo из списка.

5. На следующем шаге выберите опцию DisplayYesNo.

6. Система сообщит о том, что устройство было успешно зарегистрировано и подключено.

Аналогичным образом можно подключить и беспроводную клавиатуру. Кстати, она нам понадобится уже на следующем этапе.

5. Подключение ретроконсоли к WiFi

Чтобы иметь возможность обновлять программное обеспечение, устанавливать новые пакеты или копировать игры с ПК, используя сетевые папки, консоль необходимо подключить к домашней сети.

1. Как и ранее, зайдите в CONFIGURATION и выберите WiFi.

2. Далее зайдите в Network Options.

3. Перейдите в раздел Wi-fi.

4. Выберите вашу страну из списка.

5. Перейдите в раздел Connect to WiFi network.

6. Выберите свой роутер из списка доступных устройств.

7. Введите пароль для подключения к сети.

8. Raspberry Pi подключится к роутеру. Теперь на экране настройки WiFi в левом верхнем углу отобразится локальный IP-адрес устройства. Запишите его.

6. Загрузка игр и BIOS

Базовая настройка консоли завершена. Осталось загрузить в память устройства игры, и можно наслаждаться геймингом в стиле ретро! Сделать это можно прямо с ПК, находящегося в той же локальной сети. Наберите в строке проводника retropie или IP-адрес, присвоенный консоли роутером. На экране отобразятся доступные сетевые папки.

О предназначении каждого каталога легко догадаться по его названию:

  1. Папка bios предназначена для загрузки дампов BIOS игровых приставок, которые необходимы для функционирования некоторых эмуляторов.

  2. В папке configs хранятся конфигурационные файлы эмуляторов.

  3. Папка roms предназначена для загрузки образов игр.

  4. В папку splashscreens можно загрузить собственные заставки.

Каталоги bios и roms имеют идентичную структуру: в каждом из них вы найдете множество подпапок, названия которых соответствуют названиям эмуляторов, установленных в RetroPie. Благодаря этому в них очень удобно ориентироваться. Так, например, чтобы загрузить в память ретроконсоли сборник игр для Sega Mega Drive, достаточно перенести необходимые образы в подпапку genesis каталога roms, а игры для Nintendo Entertainment System необходимо скопировать в подпапку nes.

Перенеся образы игр в соответствующие папки, перезагрузите устройство. Теперь эмуляторы, для которых вы добавили игры, отобразятся в главном меню.

Если вы последовали нашему совету, приобретя корпус NESPi 4, то cможете подключать к ретроконсоли 2,5-дюймовый SSD, используя его в качестве хранилища ROMов. Для этого накопитель необходимо предварительно отформатировать и создать на нем папку с названием retropie.

После подключения к консоли, RetroPie распознает SSD в качестве внешнего хранилища и автоматически создаст все нужные папки и подпапки. По окончании процесса вы сможете загружать на твердотельный накопитель образы игр точно так же, как и на системную карту памяти, копируя ROMы в подпапки соответствующих эмуляторов. Данный способ подходит и для USB-накопителей.


На этом настройка RetroPie завершена. Теперь в вашем распоряжении имеется ультимативный игровой комбайн, способный заткнуть за пояс любую фирменную ретроконсоль вроде PlayStation Classic или NES Classic Mini. А при желании данный девайс можно без особого труда превратить в полноценный мультимедийный сервер. Но о том, как это сделать, мы расскажем как-нибудь в следующий раз.

Подробнее..

Поддержка устройств зонального хранения данных в различных версиях операционных систем на базе Linux

17.03.2021 20:18:15 | Автор: admin

В одной из предыдущих публикаций мы уже рассказывали о концепции зонального хранения данных и о том, какие преимущества обеспечивает эта технология. Но насколько готова ваша IT-инфраструктура к ее внедрению? Хотя работа над поддержкой устройств зонального хранения в операционных системах на базе Linux началась еще в 2014 году, некоторые дистрибутивы и по сей день оказываются неспособны полноценно работать с такими накопителями. Чтобы вам было проще сориентироваться, мы подготовили сегодняшний материал, в котором подробно рассмотрены особенности имплементации зонального хранения данных в различных версиях ядер и популярных дистрибутивах Linux.

Рекомендуемые версии ядер Linux


Впервые поддержка зональных блочных устройств хранения данных появилась в ядре Linux версии 4.10. Первоначально таковая была ограничена пользовательским интерфейсом ZBD (Zoned Block Device) на уровне блоков, возможностью управления очередью последовательной записи на уровне SCSI и нативной поддержкой файловой системы F2FS. В последующих версиях ядер появились дополнительные функции и инструменты, призванные оптимизировать работу с устройствами зонального хранения данных:

  • 4.13.0 добавлен маппер зональных блочных устройств dm-zoned;
  • 4.16.0 внедрена поддержка блочной инфраструктуры с несколькими очередями;
  • 5.6.0 добавлена поддержка файловой системы zonefs, позволяющей работать с отдельными зонами зональных блочных устройств как с обычными файлами;
  • 5.8.0 представлен общий интерфейс блочного уровня, поддерживающий операции записи Zone Append (добавление зоны); появилась возможность эмуляции этих операций на уровне SCSI с помощью обычных команд записи;
  • 5.9 добавлена поддержка набора команд NVMe ZNS (Zoned Name Spaces зональное пространство имен).

Хронологию перечисленных изменений легко проследить на представленной ниже схеме.


Учитывая сказанное выше, при выборе операционной системы следует отдавать предпочтение дистрибутиву, использующему последнюю стабильную версию ядра, поскольку она будет включать в себя все имеющиеся функции и инструменты для работы с зональными блочными устройствами, а также содержать исправления всех проблем и ошибок, известных на момент релиза. Если же вы планируете использовать LTS-версии Linux, то оптимальным выбором для вас станут дистрибутивы операционных систем на базе ядер 4.14, 4.19 и 5.4, так как к ним будут гарантированно применены бэкпорты всех патчей, выпущенных для основной, разрабатываемой в настоящий момент ревизии ядра.

Поддерживаемые дистрибутивы Linux


Предлагаем вашему вниманию сравнительные таблицы, которые помогут оценить уровень поддержки зональных блочных устройств в различных Linux-дистрибутивах, поставляемых с предварительно скомпилированными двоичными ядрами.

Fedora



Fedora операционная система, разрабатываемая сообществом Fedora Project под эгидой Red Hat. Впервые поддержку интерфейса ZBD данный дистрибутив получил в версии 26. Начиная с 27-й ревизии Fedora также включает в себя dm-zoned, скомпилированный как предварительно загружаемый модуль ядра. Последняя на сегодняшний день стабильная версия Fedora 33 обзавелась поддержкой набора команд NVMe ZNS.


Дистрибутив



Ядро


Поддерживаемые технологии


ZBD


dm-zoned


ZNS


Fedora 26 (EOL)


4.11


Да


Нет


Нет


Fedora 27 (EOL)


4.13


Да


Да


Нет


Fedora 28


4.16


Да


Да


Нет


Fedora 29


4.18


Да


Да


Нет


Fedora 30


5.0


Да


Да


Нет


Fedora 31


5.3


Да


Да


Нет


Fedora 32


5.6


Да


Да


Нет


Fedora 33


5.8


Да


Да


Да



Debian



Debian одна из первых Unix-подобных операционных систем, базирующихся на ядре Linux, оказавшая значительное влияние на развитие этого типа ОС в целом. Поддержка зональных блочных устройств появилась в данном дистрибутиве начиная с 10-й версии, получившей кодовое имя Buster.


Дистрибутив



Ядро


Поддерживаемые технологии


ZBD


dm-zoned


Debian 9 (Stretch)


4.9


Нет


Нет


Debian 10 (Buster)


4.19


Да


Да



Ubuntu



Ubuntu один из самых популярных бесплатных дистрибутивов Linux, код которого был изначально основан на Debian. Новые стабильные версии операционной системы выходят с периодичностью в 6 месяцев, а выпуски с долгосрочной поддержкой (LTS) каждые два года. Впервые возможность работы с зональными блочными устройствами через ZBD была реализована в версии 17.04 Zesty Zapus с переходом на ядро 4.10, а уже в следующем выпуске была добавлена поддержка dm-zoned.


Дистрибутив



Ядро


Поддерживаемые технологии


ZBD


dm-zoned


12.04 LTS (Precise Pangolin)


3.2


Нет


Нет


14.04 LTS (Trusty Tahr)


3.13


Нет


Нет


16.04 LTS (Xenial Xerus)


4.4


Нет


Нет


17.04 (Zesty Zapus)


4.10


Да


Нет


17.10 (Artful Aardvark)


4.13


Да


Да


18.04 LTS (Bionic Beaver)


4.15


Да


Да


18.10 (Cosmic Cuttlefish)


4.18


Да


Да


19.04 (Disco Dingo)


5.0


Да


Да


19.10 (Eoan Ermine)


5.3


Да


Да


20.04 LTS (Focal Fossa)


5.4


Да


Да


20.10 (Groovy Gorilla)


5.8


Да


Да



Red Hat Enterprise Linux



Red Hat Enterprise Linux операционная система от компании Red Hat, ориентированная на корпоративных пользователей. Ее отличительными особенностями являются расширенная коммерческая поддержка (до 10 лет с возможностью продления до 13 лет) и высокая стабильность работы, расплатой за которую являются крайне редкие глобальные обновления: даже наиболее актуальный на данный момент дистрибутив 8.3 базируется на ядре 4.180-240.

Хотя эта версия уже поддерживает ZBD и имеет в своем составе dm-zoned, в RHEL соответствующие опции по умолчанию отключены, поэтому работать с зональными устройствами из коробки не получится ядро придется предварительно перекомпилировать.


Дистрибутив



Ядро


Поддерживаемые технологии


ZBD


dm-zoned


RHEL 8


4.180-80


Нет


Нет


RHEL 8.1


4.180-147


Нет


Нет


RHEL 8.2


4.180-193


Нет


Нет


RHEL 8.3


4.180-240


Нет


Нет



Что же касается RHEL 6 и 7, то, поскольку перечисленные выпуски были основаны на ядрах 2.6.32 и 3.10 соответственно, они не способны корректно работать с зональными устройствами хранения данных.


Дистрибутив



Ядро


Поддерживаемые технологии


ZBD


dm-zoned


RHEL 6.0


2.6.32-71


Нет


Нет


RHEL 6.1


2.6.32-131


Нет


Нет


RHEL 6.2


2.6.32-220


Нет


Нет


RHEL 6.3


2.6.32-279


Нет


Нет


RHEL 6.4


2.6.32-358


Нет


Нет


RHEL 6.5


2.6.32-431


Нет


Нет


RHEL 6.6


2.6.32-504


Нет


Нет


RHEL 6.7


2.6.32-573


Нет


Нет


RHEL 6.8


2.6.32-642


Нет


Нет


RHEL 6.9


2.6.32-696


Нет


Нет


RHEL 6.10


2.6.32-754


Нет


Нет


RHEL 6 ELS+


2.6.32-754


Нет


Нет


RHEL 7.0


3.10.0-123


Нет


Нет


RHEL 7.1


3.10.0-229


Нет


Нет


RHEL 7.2


3.10.0-327


Нет


Нет


RHEL 7.3


3.10.0-514


Нет


Нет


RHEL 7.4


3.10.0-693


Нет


Нет


RHEL 7.5


3.10.0-862


Нет


Нет


RHEL 7.6


3.10.0-957


Нет


Нет


RHEL 7.7


3.10.0-1062


Нет


Нет


RHEL 7.8


3.10.0-1127


Нет


Нет


RHEL 7.9


3.10.0-1160


Нет


Нет



CentOS



CentOS операционная система, разрабатываемая сообществом на основе исходных кодов Red Hat Enterprise Linux. Нумерации дистрибутивов CentOS и RHEL, равно как и возможности соответствующих выпусков операционных систем, на 100% совпадают. Как и в Red Hat Enterprise Linux, поддержка зональных блочных устройств появилась в 8-й версии CentOS, однако для активации необходимых опций ядро придется самостоятельно перекомпилировать.

SUSE Linux Enterprise Server



SUSE Linux Enterprise Server (SLES) операционная система, ориентированная на корпоративных пользователей, которую разработала немецкая компания SUSE на базе одноименного дистрибутива. Основные версии SLES выходят с интервалом 23 года, тогда как пакеты обновлений выпускаются примерно каждые 12 месяцев. Полноценная поддержка зональных блочных устройств была добавлена в SUSE Linux Enterprise Server начиная с версии 12.4.


Дистрибутив



Ядро


Поддерживаемые технологии


ZBD


dm-zoned


11.3


3.0.76


Нет


Нет


11.4


3.0.101


Нет


Нет


12.0


3.12


Нет


Нет


12.1


3.12


Нет


Нет


12.2


4.4


Нет


Нет


12.3


4.4


Нет


Нет


12.4


4.12


Да


Да


15


4.12


Да


Да


15.1


4.12.14


Да


Да


15.2


5.3.18


Да


Да



openSUSE



openSUSE (ранее SUSE Linux и SuSE Professional) популярный дистрибутив Linux, разработка которого спонсируется SUSE Linux GmbH. В основе концепции openSUSE лежит создание удобных инструментов с открытым исходным кодом для разработчиков программного обеспечения и системных администраторов.

openSUSE получила поддержку интерфейса ZBD, необходимого для работы с зональными блочными хранилищами, начиная с версии Leap 15.0, а с переходом на ядро 5.3 в сборке Leap 15.2 к ней добавился dm-zoned.


Дистрибутив



Ядро


Поддерживаемые технологии


ZBD


dm-zoned


Leap 15.0


4.12


Да


Нет


Leap 15.1


4.12


Да


Нет


Leap 15.2


5.3


Да


Да


Tumbleweed


5.9+


Да


Да



Поддерживает ли ваша операционная система устройства зонального хранения данных?


Как сказано выше, интерфейс для работы с зональными блочными устройствами хранения данных (Zoned Block Device, ZBD), поддерживающий стандарты T10 ZBC и T13 ZAC, был добавлен в ядро Linux начиная с версии 4.10, поэтому первое, что необходимо сделать, проверить текущую версию ядра с помощью команды терминала uname. Например, при использовании дистрибутива Fedora 29 вывод данной команды будет выглядеть следующим образом:

uname -r5.0.13-200.fc29.x86_64

В нашем случае используется пятая версия ядра, в которую поддержка зональных устройств хранения уже добавлена. Однако, для того чтобы подобные накопители смогли взаимодействовать с операционной системой, ядро должно быть изначально скомпилировано с активным параметром CONFIG_BLK_DEV_ZONED.

Чтобы проверить, включена ли данная опция, можно обратиться напрямую к файлу конфигурации операционной системы, расположенному в директории /boot или /, либо воспользоваться командой:

cat /boot/config-`uname -r` | grep CONFIG_BLK_DEV_ZONED

или же

cat /lib/modules/`uname -r`/config | grep CONFIG_BLK_DEV_ZONED

Для ядер, экспортирующих параметры конфигурации через виртуальную файловую систему proc, можно использовать команды:

modprobe configscat /proc/config.gz | gunzip | grep CONFIG_BLK_DEV_ZONED

или

modprobe configszcat /proc/config.gz | grep CONFIG_BLK_DEV_ZONED

Если соответствующая опция активна, вы увидите следующий вывод:

CONFIG_BLK_DEV_ZONED=y

В случае же, если в терминале отобразится

CONFIG_BLK_DEV_ZONED=n

это будет означать, что поддержка зональных блочных устройств отключена и ядро необходимо предварительно перекомпилировать. Кстати, если перечисленные команды попробовать запустить в операционной системе, использующей ядро более раннее, чем 4.10, их вывод окажется пуст.

От параметра конфигурации CONFIG_BLK_DEV_ZONED зависит поддержка эмуляции зональных блочных устройств на уровне драйвера null_blk, поддержка подсистемы SCSI для накопителей ZBC и ZAC SMR, а также доступ к набору команд зонального пространства имен, необходимых для работы с NVMe SSD. Что же касается управления порядком команд записи, то здесь все оказывается немного сложнее.

Изначально (в ядрах с 4.10 по 4.15 включительно) данная функция была реализована на уровне ядра. Однако начиная с версии 4.16 управление порядком команд записи было передано планировщикам ввода-вывода блочного уровня deadline (работает с единственной очередью команд) и mq-deadline (реализация deadline с использованием blk-mq, поддерживает множественные очереди), использование которых стало обязательным для корректной работы зональных устройств хранения. Позднее, с релизом ядра 5.0, поддержка deadline была полностью упразднена и планировщик mq-deadline стал основным решением для работы с зональными устройствами хранения.

Таким образом, если вы используете операционную систему, базирующуюся на ядре 4.16 или более позднем, вам необходимо убедиться в том, что в качестве планировщика ввода-вывода выбран deadline или mq-deadline. Для этого достаточно воспользоваться следующей командой:

cat /sys/block/sdb/queue/scheduler[mq-deadline] kyber bfq none

Если по умолчанию используется другой планировщик, его можно сменить на нужный, введя команду:

echo deadline > /sys/block/sdb/queue/scheduler

или

echo mq-deadline > /sys/block/sdb/queue/scheduler

Теперь вы можете быть уверены в том, что используемая вами операционная система сможет адекватно взаимодействовать с зональными устройствами хранения данных.
Подробнее..

Практические кейсы по созданию IT-инфраструктуры на базе дисковых полок Western Digital Ultrastar

22.07.2020 22:18:15 | Автор: admin


В современном мире наиболее ценным активом является информация. Информация помогает оптимизировать бизнес-процессы, анализировать рынок и принимать стратегически важные решения, определяющие будущее вашей компании, и даже выстраивать доверительные отношения с клиентами, повышая их лояльность. Однако по мере роста объема обрабатываемых данных любое предприятие неизбежно сталкивается с проблемой нехватки места для их хранения. В ситуациях, когда на первый план выходят не вычислительные мощности, а объем доступного дискового пространства, наиболее рентабельным решением для масштабирования IT-инфраструктуры оказываются дисковые полки JBOD. Именно о них мы и поговорим в сегодняшнем материале.

Ключевые преимущества аппаратной платформы Ultrastar Data


Western Digital предлагает две модели JBOD-массивов, выпускаемых под брендом Ultrastar Data60 и Data102. Указанные модификации полностью идентичны с точки зрения реализованных в них технологий и отличаются друг от друга лишь емкостью, о чем красноречиво говорит числовой индекс в названии: младшая модель способна вместить 60 3.5-дюймовых SAS (12 Гб/с) или SATA (6 Гб/с) накопителей, тогда как флагман до 102 накопителей. Таким образом, одна дисковая полка Ultrastar Data60 позволяет хранить вплоть до 840 RAW-данных, а максимальная емкость Ultrastar Data102 может достигать уже 1.4 петабайта (при использовании жестких дисков Western Digital Ultrastar DC HC 530 емкостью 14 ТБ каждый). При этом 24 из доступных отсеков можно использовать для установки твердотельных накопителей с интерфейсом SAS или SATA, что позволяет достичь оптимального баланса между емкостью и производительностью, задействуя JBOD в сценариях, где на первый план выходит высокая доступность данных.

Проектируя дисковые полки серии Ultrastar Data, мы уделили особое внимание борьбе с негативным воздействием вибрации и высоких температур на функционирование системы. Результатом работы инженеров Western Digital стало появление сразу двух вспомогательных технологий, позволивших значительно улучшить эксплуатационные характеристики JBOD: IsoVibe и ArcticFlow. Рассмотрим каждую из них подробнее.

Технология подавления ротационной вибрации IsoVibe


IsoVibe призвана нивелировать пагубное влияние ротационной вибрации, возникающей при раскрутке шпинделя HDD, на производительность массива. Напомним, что при смещении магнитной головки с трека под действием внешних факторов, микроконтроллер диска вынужден инициировать процедуру позиционирования заново, из-за чего время чтения/записи данных значительно возрастает. Так, например, при воздействии на работающий винчестер ротационной вибрации с угловым ускорением в 50 радиан/сек2 потери производительности могут превысить порог в 70%. В случае с JBOD данная проблема встает еще более остро, так как в силу высокой плотности размещения накопителей в сравнительно компактном корпусе их взаимное влияние друг на друга многократно возрастает.

Технологические решения, реализованные в рамках IsoVibe, направлены на предотвращение распространения вибрации между отсеками дисковой полки, о чем можно догадаться уже по названию самой технологии, которое представляет собой акроним английского словосочетания изолирован от вибрации. Так, в ходе проектирования Ultrastar Data мы полностью отказались от использования винтовых креплений: теперь накопители фиксируются с помощью амортизированных мини-салазок, что не только упрощает процесс установки и замены дисков, но также позволяет значительно снизить эффект резонанса внутри корпуса и локализовать вибрацию в пределах одного отсека.


Амортизированные салазки помогают снизить уровень вибрации

Свою лепту вносят и вибрационно изолированные разъемы, расположенные на задней панели JBOD: здесь минимизировать распространение высокочастотных механических колебаний удалось за счет прорезей в печатной плате бэкплейна.


Прорези в PCB бэкплейна снижают распространение вибрации внутри JBOD

Дополняет картину интеллектуальная прошивка микроконтроллеров жестких дисков Western Digital Ultrastar, которые мы рекомендуем использовать вместе с JBOD-массивами, поддерживающая технологию RVS (Rotational Vibration Safeguard). Специализированный алгоритм отслеживает сигналы, поступающие со встроенных мультиаксиальных акселерометров и в режиме реального времени рассчитывает компенсационные усилия, необходимые для коррекции траектории движения блока магнитных головок.


Принцип работы технологии компенсации ротационной вибрации RVS

По сравнению с обычными HDD, накопители с поддержкой RVS обеспечивают практически 20-кратный выигрыш в производительности даже в наиболее сложных условиях эксплуатации.

Система охлаждения ArcticFlow


Другую известную проблему дисковых полок, а именно перегрев накопителей, расположенных в задних рядах, удалось успешно решить благодаря уникальной архитектуре шасси, получившей торговое название ArcticFlow. Как и в случае с вибрацией, когда речь заходит о воздушном охлаждении, основной проблемой становится слишком плотное расположение накопителей в несколько рядов. А поскольку в большинстве моделей воздушный поток циркулирует в направлении от передней панели шасси кзади, пройдя сквозь первые ряды, воздух нагревается, вследствие чего эффективность охлаждения задних рядов существенно снижается.

В Ultrastar Data данная проблема решена следующим образом. Дисковая полка разделена на две зоны охлаждения (по 4 ряда в каждой), изолированные друг от друга. Воздушные потоки, обеспечивающие вентиляцию передней зоны, отводятся из корпуса по обводным воздуховодам, огибающим задний отсек по бокам. Что же касается задних рядов, то для их охлаждения предусмотрен отдельный воздуховод, расположенный по центру, воздух из которого поступает непосредственно к задним рядам накопителей, с 5-го по 8-ой. Кроме того отдельный поток холодного воздуха подводится непосредственно к блокам питания и модулям I/O, расположенным позади.


Схема циркуляции воздуха внутри дисковых полок Ultrastar Data

Такая конструкция помогла достичь действительно впечатляющих результатов. ArcticFlow позволила существенно сократить разницу температур между передней и задней зонами: разброс между ними не превышает 10C. При использовании накопителей Ultrastar, созданных на базе платформы HelioSeal четвертого поколения (более подробно о технологиях, применяемых при производстве жестких дисков для ЦОД, вы можете прочитать в материале Ярче звезд), на самом горячем участке, которым является 8-ой ряд, вплотную прилегающий к отсекам блоков питания, максимальная температура HDD не поднимается выше 49C. При этом на охлаждение каждого из них тратится в среднем 1.6 Вт электроэнергии, что в два раза меньше, чем у конкурирующих моделей.



Таким образом, ArcticFlow решает одновременно 3 задачи:

  1. эффективное охлаждение помогает продлить сроки эксплуатации накопителей, установленных в JBOD, а также полностью исключает вероятность их выхода из строя вследствие перегрева;
  2. отпадает потребность в установке мощных, высокоскоростных кулеров, что также помогает снизить общий уровень вибрации, негативно отражающейся как на состоянии аппаратуры, так и на ее производительности;
  3. меньшее энергопотребление позволяет значительно сократить операционные расходы на обслуживание дата-центра, оборудованного JBOD Ultrastar.

Построение облачной инфраструктуры с применением дисковых полок Ultrastar на примере компании Acronis


Кому же подойдут дисковые полки Western Digital Ultrastar? Первое, что приходит в голову облачные сервисы, оперирующие огромными массивами данных. По мере расширения бизнеса такие компании неизбежно сталкиваются с экспоненциальным ростом затрат на масштабирование и поддержку IT-инфраструктуры, которые оказываются тем больше, чем сложнее организована последняя.

В частности, подобные проблемы характерны для интенсивно развивающихся предприятий, использующих SaaS-based модель предоставления облачных услуг: стремясь угнаться за меняющимся рынком и при этом сохранить рентабельность, многие из них используют одновременно несколько разрозненных решений. На первых парах такой подход действительно способен обеспечить определенные выгоды, но в отдаленной перспективе это приводит к существенном росту издержек на управление, обслуживание и дальнейшее масштабирование существующей инфраструктуры.

Здесь весьма показательным является опыт Acronis, специализирующейся на предоставлении облачных решений в сфере кибербезопасности для корпоративных и частных клиентов. На сегодняшний день компании принадлежат 14 дата-центров в разных уголках нашей планеты, мощности которых в своей работе задействуют свыше 500 тысяч предприятий.


Стремясь увеличить емкость хранилищ данных и при этом оптимизировать затраты на их обслуживание, Acronis столкнулись с рядом существенных трудностей, вызванных отсутствием унифицированной аппаратной платформы. Компания обратилась за помощью к своему давнему технологическому партнеру DIAWAY. Для прогнозирования капитальных и операционных расходов системный интегратор создал доскональную финансовую модель на ближайшие 5 лет. Сравнив предложения, представленные на современном рынке, специалисты DIAWAY пришли к выводу, что наиболее оптимальным вариантом для реализации подобного проекта станут гибридные хранилища Western Digital Ultrastar Data60 и Data102.

В этом году компания завершила перевод облачной инфраструктуры на дисковые полки Ultrastar, и по словам Алекса Бейка, директора по глобальным техническим операциям Acronis, этот шаг в полной мере себя оправдал. Миграция на новую платформу обеспечила ряд важнейших преимуществ, среди которых необходимо выделить:

  • Снижение TCO

Благодаря переходу на гибридные хранилища Ultrastar, Acronis удалось добиться существенного сокращения капитальных и эксплуатационных расходов: стоимость хранения данных в пересчете на терабайт информации снизилась более, чем на 25%.

  • Повышение надежности систем хранения

Передовые технологии охлаждения и виброизоляции, воплощенные в JBOD-массивах Ultrastar, в сочетании с резервируемыми блоками питания и I/O-модулями с возможностью горячей замены, помогли существенно повысить отказоустойчивость как самих дисковых полок, так и всей инфраструктуры хранения данных в целом.

  • Простота обслуживания

Стандартизация глобальной архитектуры позволила упростить планирование дальнейшего увеличения емкости системы хранения данных и оптимизировать управление обширной IT-инфраструктурой Acronis: сегодня специалисты компании используют унифицированные инструменты и алгоритмы для решения поставленных задач, а при необходимости они могут в любой момент обратиться за помощью к инженерам Western Digital.

Примеры развертывания системы резервного копирования на базе Western Digital Ultrastar Data60 и программного обеспечения от Veeam Software


Впрочем, не стоит думать, что дисковые полки Ultrastar ориентированы сугубо на крупные компании и облачных провайдеров: JBOD-массивы способны стать незаменимым инструментом и в арсенале представителей малого и среднего бизнеса. Речь идет, прежде всего, о создании высокоемких и производительных систем резервного копирования, для организации которых мы предлагаем готовую связку в виде Ultrastar Data60/102 и программного обеспечения, разработанного одним из наших стратегических партнеров Veeam Software, специализирующихся на создании комплексных решений в сфере резервного копирования данных.


Девиз компании It just works! говорит сам за себя: Veeam стремится создавать простые, эффективные, а главное, надежные продукты из разряда настроил и забыл, и у них это действительно хорошо получается. Не случайно в 2019 году общее количество клиентов компании превысило 375 тысяч, а ее годовой оборот перевалил за отметку в 1 миллиард долларов США.

В ходе проектирования системы резервного копирования на базе дисковых полок Ultrastar и программного обеспечения Veeam наибольшую эффективность демонстрируют два подхода:

  • on-premises резервные копии создаются и хранятся на базе собственного ЦОД предприятия;
  • гибридная модель on-premises + cloud tier на стороне клиента хранятся только актуальные резервные копии, которые могут понадобиться здесь и сейчас для восстановления работоспособности производственной среды, тогда как более старые бэкапы автоматически переносятся в облако.


Каждый из них обладает своими преимуществами. Комбинация self-hosted и облачных решений позволяет без труда масштабировать IT-инфраструктуру по мере необходимости благодаря подключению объектных хранилищ Amazon S3, Azure Blob Storage, IBM Cloud Object Storage, или любых других S3-совместимых сервисов, и дополнительно экономить на долговременном хранении данных, также оставляя возможность для disaster recovery в случае возникновения аварийных ситуаций. On-premises же гарантирует быстрое восстановление любых когда-либо созданных резервных копий, независимость от внешних факторов, высокий уровень приватности и соответствие местному законодательству в том случае, если деятельность компании так или иначе связана с обработкой персональных данных клиентов.

Проще всего продемонстрировать эффективность связки программного обеспечения Veeam и гибридных хранилищ Western Digital на конкретных примерах. Мы выбрали два наиболее показательных кейса из нашей обширной практики.

Кейс 1


Клиент

В роли заказчика выступил крупный европейский производитель бытовых товаров с годовым оборотом более 500 миллионов евро, офисы и производственные мощности которого расположены в разных странах ЕС и в Китае. Штат компании насчитывает около 1800 постоянных сотрудников, а IT-инфраструктура представлена 8 центрами обработки данных по всему миру.

Проблема

Программно-аппаратный комплекс, используемый заказчиком для создания резервных копий, перестал адекватно справляться с возложенной на него задачей в связи с многократно возросшей нагрузкой, так как не обладал достаточной пропускной способностью. Помимо этого, наблюдались определенные проблемы с обработкой задач, связанных с процедурой дедупликации, что приводило к частым сбоям в ходе резервного копирования.

Поиск решения

Специалисты IT-отдела заказчика пришли к выводу, что обновление существующей инфраструктуры резервного копирования является нерентабельным, в связи с чем было принято решение о переходе на новую архитектуру, что позволило бы не только сэкономить, но и решить проблему масштабирования в будущем. Для организации системы резервного копирования было выбрано гибридное хранилище Ultrastar Data60 от Western Digital, управляемое программным обеспечением Veeam Backup & Replication 9.5, Veeam Backup для Microsoft Office 365 и Microsoft Windows Storage Spaces (входит в состав Windows Server 2016).

Конфигурация

Итоговая аппаратная конфигурация состояла из сервера HPE Proliant DL360 G9, оснащенного парой контроллеров Broadcom 9480-8i8e MegaRAID, обслуживающих модули ввода-вывода Ultrastar Data60. Каждый RAID-контроллер был подключен к назначенному порту I/O-модуля с помощью 4-канального HD MiniSAS-кабеля (P/N 1EX0329), обеспечивая полосу пропускания до 9,6 ГБ/с на контроллер.


Серверная платформа HPE Proliant DL360 G9

Дисковое хранилище было развернуто с 60-ю 12-терабайтными SAS HDD Ultrastar таким образом, его общая емкость составила 720 ТБ. С помощью зонирования T10, Ultrastar Data60 был логически разделен на две зоны по 30 дисков в каждой, так, чтобы каждый контроллер видел диски, назначенные только для определенных портов. В группах из 30 накопителей команда ИТ-специалистов создала несколько наборов томов с чередованием, которые были сгруппированы в единый общий том с помощью Windows Storage Spaces. Один из таких томов использовался для инкрементного резервного копирования, в то время как другой содержал полный образ резервной копии, который был дополнительно сжат с использованием функции дедупликации Windows Server.

Результаты

Связка 1 сервер + 2 RAID-контроллера + 1 Ultrastar Data60 обошлась заказчику существенно дешевле по сравнению с выделенным устройством резервного копирования, поддерживающим внутреннюю дедупликацию. В будущем данную платформу можно будет без труда масштабировать путем последовательного подключения новых дисковых полок (до четырех штук) без необходимости модернизации серверной платформы.

Кейс 2


Клиент


GreenPower крупное предприятие, специализирующееся на производстве натуральных витаминных комплексов и пищевых добавок. Компании принадлежит торговая марка Dr. Hittich, а ее штаб-квартира находится в Керкраде (Нидерланды).

Проблема

GreenPower нуждались в надежном и эффективном решении для резервного копирования. Изначально для этих целей использовались сервера на 24/36 отсеков, а общее дисковое пространство, отведенное под бэкапы, составляло 108 терабайт. Когда данного объема перестало хватать, перед компанией встала проблема масштабирования IT-инфраструктуры. Серверы хранения данных большей емкости оказались слишком дороги, поэтому от их приобретения пришлось отказаться. В свою очередь, идея с регулярной заменой заполненных дисков на пустые показала свою полную несостоятельность: такой подход не мог обеспечить нужный уровень доступности резервных копий, а ошибки при маркировке изъятых дисков регулярно приводили к сложностям при восстановлении данных и даже к их утрате.

Конфигурация

Было решено реализовать систему резервного копирования на базе двух серверов с программным обеспечением Veeam Backup & Replication 9.5 и двух дисковых полок Ultrastar Data60 от Western Digital. В каждое гибридное хранилище были установлены 60 SAS HDD Ultrastar емкостью 6, 8 и 10 терабайт.


Жесткие диски для ЦОД Ultrastar DC HC330 емкостью 10 терабайт

Жесткие диски были сконфигурированы в несколько наборов RAID-массивов, управляемых Windows Storage Spaces. Для дедупликации данных встроенными средствами программного обеспечения Microsoft было создано несколько виртуальных дисков типа Thin (такой подход позволил обойти ограничение в 64 ТБ). Как и в первом примере, доступное дисковое пространство было разделено на два логических тома, один из которых использовался для создания полных бэкапов, тогда как второй был предназначен для инкрементного резервного копирования.

Результаты

Переход на платформу хранения данных Ultrastar Data60 помог значительно снизить затраты на логистику, а в пересчете на терабайт информации, приобретение дисковых полок оказалось значительно более выгодным решением по сравнению с закупкой полноценных серверов: поскольку за счет использования функции дедупликации данных Microsoft Windows Server 2016 удается экономить около 1250 терабайт на каждые 378 ТБ физического дискового пространства, емкости одной такой полки с учетом текущих потребностей компании, хватит на 6 лет ежедневного создания резервных копий.

Не менее важным преимуществом оказалось и значительное повышение производительности системы резервного копирования: создание и восстановление бэкапов происходит на скорости не менее 1 ГБ/с. Это исключает возникновение ситуаций, когда Windows Server не успевает завершить дедупликацию данных в существующих резервных копиях до создания новых. Ранее подобные коллизии приводили к значительному снижению производительности всей системы, однако новая платформа позволила забыть о них раз и навсегда.
Подробнее..

Лучший в своем классе история появления стандарта шифрования AES

05.08.2020 22:05:40 | Автор: admin


C мая 2020 года в России стартовали официальные продажи внешних винчестеров WD My Book, поддерживающих аппаратное шифрование AES с 256-битным ключом. В силу законодательных ограничений, ранее подобные устройства можно было приобрести лишь в зарубежных интернет-магазинах электроники либо на сером рынке, однако теперь обзавестись защищенным накопителем с фирменной 3-летней гарантией от Western Digital может любой желающий. В честь этого знаменательного события мы решили сделать небольшой экскурс в историю и разобраться, как появился Advanced Encryption Standard и чем же он так хорош по сравнению с конкурирующими решениями.

Долгое время официальным стандартом симметричного шифрования в США являлся DES (Data Encryption Standard стандарт шифрования данных), разработанный компанией IBM и внесенный в перечень Федеральных стандартов обработки информации в 1977 году (FIPS 46-3). В основу алгоритма легли наработки, полученные в ходе исследовательского проекта под кодовым названием Lucifer. Когда 15 мая 1973 года Национальное бюро стандартов США объявило о проведении конкурса, целью которого стало создание стандарта шифрования для госучреждений, американская корпорация включилась в криптографическую гонку с третьей версией Люцифера, использовавшей обновленную сеть Фейстеля. И наряду с другими конкурсантами потерпела фиаско: ни один из алгоритмов, представленных на первый конкурс, не соответствовал строгим требованиям, сформулированным экспертами НБС.



Разумеется, в IBM не могли просто так смириться с поражением: когда 27 августа 1974 года конкурс был перезапущен, американская корпорация вновь подала заявку, представив улучшенную версию Lucifer. На сей раз у жюри не оказалось ровным счетом ни одной претензии: проведя грамотную работу над ошибками, IBM успешно устранила все недочеты, так что придраться оказалось не к чему. Одержав убедительную победу, Люцифер сменил имя на DES и уже 17 марта 1975 года был издан в Федеральном реестре.

Однако в ходе открытых симпозиумов, организованных в 1976 году с целью обсуждения нового криптографического стандарта, DES подвергся жесткой критике со стороны экспертного сообщества. Причиной этого стали изменения, внесенные в алгоритм специалистами АНБ: в частности, была уменьшена длина ключа до 56 бит (изначально Lucifer поддерживал работу с 64- и 128-битными ключами), а также изменена логика работы блоков перестановки. По мнению криптографов, улучшения не имели смысла и единственное, к чему стремилось Агентство национальной безопасности, внедряя модификации, получить возможность беспрепятственно просматривать зашифрованные документы.

В связи с перечисленными обвинениями, при Сенате США была создана специальная комиссия, целью работы которой стала проверка обоснованности действий АНБ. В 1978 году по итогам расследования был опубликован доклад, в котором сообщалось следующее:

  • представители АНБ участвовали в доработке DES лишь косвенно, при этом их вклад касался только изменения работы блоков перестановки;
  • окончательная версия DES оказалась более устойчивой к взлому и криптографическому анализу, чем предыдущая, так что внесенные изменения были обоснованы;
  • длины ключа 56 бит более чем достаточно для подавляющего большинства приложений, ведь для взлома такого шифра потребуется суперкомпьютер стоимостью как минимум несколько десятков миллионов долларов, а поскольку у обычных злоумышленников и даже профессиональных хакеров подобных ресурсов нет, то и беспокоиться не о чем.

Выводы комиссии частично подтвердились в 1990 году, когда израильские криптографы Эли Бихам и Ади Шамир, работая над концепцией дифференциального криптоанализа, провели большое исследование блочных алгоритмов, в числе которых оказался и DES. Ученые пришли к выводу, что новая модель перестановок оказалась намного более устойчивой к атакам, чем изначальная, а значит, АНБ действительно помогло ликвидировать несколько дыр в алгоритме.


Ади Шамир

В то же время ограничение на длину ключа оказалось проблемой, и притом весьма серьезной, что в 1998 году убедительно доказала общественная организация Electronic Frontier Foundation (EFF) в рамках эксперимента DES Challenge II, проведенного под эгидой RSA Laboratory. Специально для взлома DES был построен суперкомпьютер, получивший кодовое название EFF DES Cracker, над созданием которого трудились Джон Гилмор, сооснователь EFF и руководитель проекта DES Challenge, и Пол Кочер, основатель компании Cryptography Research.


Процессор EFF DES Cracker

Разработанная ими система смогла успешно подобрать ключ к зашифрованному образцу методом простого перебора всего за 56 часов, то есть менее чем за трое суток. Для этого DES Cracker потребовалось проверить около четверти всех возможных комбинаций, а это значит, что даже при самом неблагоприятном стечении обстоятельств на взлом уйдет около 224 часов, то есть не более 10 суток. При этом стоимость суперкомпьютера, с учетом затраченных на его проектирование средств, составила всего 250 тысяч долларов. Нетрудно догадаться, что сегодня взломать подобный шифр еще проще и дешевле: мало того, что железо стало куда мощнее, так еще и благодаря развитию интернет-технологий хакеру вовсе не обязательно покупать или арендовать необходимое оборудование вполне достаточно создать ботнет из зараженных вирусом ПК.

Данный эксперимент наглядно продемонстрировал, насколько DES морально устарел. А поскольку на тот момент алгоритм использовался в составе практически 50% решений в области шифрования данных (по оценке все той же EFF), вопрос о поиске альтернативы встал как никогда остро.

Новые вызовы новый конкурс




Справедливости ради стоит сказать, что поиски замены для Data Encryption Standard начались практически одновременно с подготовкой EFF DES Cracker: Национальный институт стандартов и технологий (NIST) США еще в 1997 году объявил о запуске конкурса алгоритмов шифрования, призванного выявить новый золотой стандарт криптобезопасности. И если в былые времена аналогичное мероприятие проводилось исключительно для своих, то, памятуя о неудачном опыте 30-летней давности, в NIST решили сделать конкурс полностью открытым: в нем могли принять участие любая компания и любое частное лицо, независимо от места дислокации или гражданства.

Такой подход оправдал себя еще на этапе отбора претендентов: среди авторов, подавших заявку на участие в конкурсе Advanced Encryption Standard, оказались и всемирно известные криптологи (Росс Андерсон, Эли Бихам, Ларс Кнудсен), и небольшие IT-компании, специализирующиеся на кибербезопасности (Counterpane), и крупные корпорации (немецкая Deutsche Telekom), и образовательные учреждения (Лёвенский католический университет, Бельгия), а также стартапы и небольшие фирмы, о которых мало кто слышал за пределами их стран (например, Tecnologia Apropriada Internacional из Коста-Рики).

Интересно, что в этот раз в NIST утвердили всего два основных требования к алгоритмам-участникам:

  • блок данных должен иметь фиксированный размер 128 бит;
  • алгоритм должен поддерживать как минимум три размера ключей: 128, 192 и 256 бит.

Добиться такого результата было сравнительно просто, но, как говорится, дьявол кроется в деталях: вторичных требований оказалось куда больше, а соответствовать им было куда сложней. Между тем именно на их основе рецензенты NIST и проводили отбор конкурсантов. Вот каким критериям должны были соответствовать претенденты на победу:

  1. способность противостоять любым криптоаналитическим атакам, известным на момент проведения конкурса, включая атаки по сторонним каналам;
  2. отсутствие слабых и эквивалентных ключей шифрования (под эквивалентными подразумеваются такие ключи, которые, хотя и имеют значительные отличия друг от друга, приводят к получению идентичных шифров);
  3. скорость шифрования стабильна и примерно одинакова на всех актуальных платформах (от 8- до 64-битных);
  4. оптимизация под многопроцессорные системы, поддержка распараллеливания операций;
  5. минимальные требования к объему оперативной памяти;
  6. отсутствие ограничений для использования в стандартных сценариях (в качестве основы для построения хэш-функций, ГПСЧ и т. д.);
  7. структура алгоритма должна быть обоснованной и простой для понимания.

Последний пункт может показаться странным, однако, если поразмыслить, он не лишен смысла, ведь хорошо структурированный алгоритм гораздо проще анализировать, к тому же в нем куда сложнее спрятать закладку, с помощью которой разработчик мог бы получить неограниченный доступ к зашифрованным данным.

Прием заявок на конкурс Advanced Encryption Standard продлился полтора года. Всего в нем приняли участие 15 алгоритмов:

  1. CAST-256, разработанный канадской компанией Entrust Technologies на базе CAST-128, созданного Карлайлом Адамсом и Стаффордом Таваресом;
  2. Crypton, созданный криптологом Че Хун Лим из южнокорейской компании Future Systems, занятой в сфере кибербезопасности;
  3. DEAL, концепт которого изначально предложил датский математик Ларс Кнудсен, а впоследствии его идеи развил Ричард Аутербридж, который и подал заявку на участие в конкурсе;
  4. DFC, совместный проект Парижской высшей педагогической школы, Национального центра научных исследований Франции (CNRS) и телекоммуникационной корпорации France Telecom;
  5. E2, разработанный под эгидой крупнейшей телекоммуникационной компании Японии Nippon Telegraph and Telephone;
  6. FROG, детище коста-риканской компании Tecnologia Apropriada Internacional;
  7. HPC, придуманный американским криптологом и математиком Ричардом Шреппелем из Университета Аризоны;
  8. LOKI97, созданный австралийскими криптографами Лоуренсом Брауном и Дженнифер Себерри;
  9. Magenta, разработанный Майклом Якобсоном и Клаусом Хубером для немецкой телекоммуникационной компании Deutsche Telekom AG;
  10. MARS от компании IBM, в создании которого принимал участие Дон Копперсмит один из авторов Lucifer;
  11. RC6, написанный Роном Ривестом, Мэттом Робшау и Рэем Сиднеем специально для конкурса AES;
  12. Rijndael, созданный Винсентом Рэйменом и Джоан Даймон из Лёвенского католического университета;
  13. SAFER+, разработанный калифорнийской корпорацией Cylink совместно с Национальной академией наук Республики Армения;
  14. Serpent, созданный Россом Андерсоном, Эли Бихамом и Ларсом Кнудсеном;
  15. Twofish, разработанный исследовательской группой Брюса Шнайера на базе криптографического алгоритма Blowfish, предложенного Брюсом еще в 1993 году.

По итогам первого тура были определены 5 финалистов, среди которых оказались Serpent, Twofish, MARS, RC6 и Rijndael. Члены жюри нашли изъяны практически у каждого из перечисленных алгоритмов, кроме одного. Кто же оказался победителем? Немного продлим интригу и для начала рассмотрим основные достоинства и недостатки каждого из перечисленных решений.

MARS


В случае с богом войны эксперты отметили идентичность процедуры шифрования и дешифровки данных, однако этим его преимущества и ограничились. Алгоритм IBM вышел на удивление прожорливым, что делало его неподходящим для работы в условиях ограниченных ресурсов. Наблюдались проблемы и с распараллеливанием вычислений. Для эффективной работы MARS нуждался в аппаратной поддержке 32-битного умножения и вращения на переменное число бит, что опять же накладывало ограничения на перечень поддерживаемых платформ.

MARS также оказался достаточно уязвим к атакам по времени и энергопотреблению, имел проблемы с расширением ключей на лету, а его чрезмерная сложность затрудняла анализ архитектуры и создавала дополнительные проблемы на этапе практической реализации. Одним словом, на фоне других финалистов MARS выглядел настоящим аутсайдером.

RC6


Алгоритм унаследовал часть преобразований от своего предшественника, RC5, тщательно исследованного ранее, что в сочетании с простой и наглядной структурой делало его полностью прозрачным для экспертов и исключало наличие закладок. К тому же RC6 демонстрировал рекордные скорости обработки данных на 32-битных платформах, а процедуры шифрования и дешифровки были реализованы в нем абсолютно идентично.

Однако алгоритм имел те же проблемы, что и упомянутый выше MARS: тут и уязвимость к атакам по сторонним каналам, и зависимость производительности от поддержки 32-битных операций, а также проблемы с параллельными вычислениями, расширением ключей и требовательность к аппаратным ресурсам. В связи с этим на роль победителя он никак не годился.

Twofish


Twofish оказался довольно шустрым и хорошо оптимизированным для работы на маломощных устройствах, отлично справлялся с расширением ключей и предполагал несколько вариантов реализации, что позволяло тонко адаптировать его под конкретные задачи. В то же время две рыбки оказались уязвимы к атакам по сторонним каналам (в частности, по времени и потребляемой мощности), не особо дружили с многопроцессорными системами и отличались чрезмерной сложностью, что, кстати, сказалось и на скорости расширения ключа.

Serpent


Алгоритм имел простую и понятную структуру, что существенно упрощало его аудит, был не особо требователен к мощностям аппаратной платформы, имел поддержку расширения ключей на лету и сравнительно легко поддавался модификации, чем выгодно отличался от своих оппонентов. Несмотря на это, Serpent был в принципе самым медленным из финалистов, к тому же процедуры шифровки и дешифровки информации в нем кардинально отличались и требовали принципиально разных подходов к реализации.

Rijndael


Rijndael оказался чрезвычайно близок к идеалу: алгоритм в полной мере удовлетворял требованиям NIST, при этом не уступая, а по совокупности характеристик заметно превосходя конкурентов. Слабых мест у Рейндала было лишь два: уязвимость к атакам по энергопотреблению на процедуру расширения ключа, что является весьма специфичным сценарием, и определенные проблемы с расширением ключа на лету (данный механизм работал без ограничений лишь у двух конкурсантов Serpent и Twofish). Кроме того, по оценкам экспертов, Рейндал имел несколько меньший запас криптостойкости, чем Serpent, Twofish и MARS, что, впрочем, с лихвой компенсировалось устойчивостью к подавляющему большинству разновидностей атак по сторонним каналам и широким спектром вариантов реализации.

Категория


Serpent


Twofish


MARS


RC6


Rijndael


Криптостойкость


+


+


+


+


+


Запас криптостойкости


++


++


++


+


+


Скорость шифрования при программной реализации


-




+


+


Скорость расширения ключа при программной реализации



-




+


Смарт-карты с большим объемом ресурсов


+


+


-



++


Смарт-карты с ограниченным объемом ресурсов



+


-



++


Аппаратная реализация (ПЛИС)


+


+


-



+


Аппаратная реализация (специализированная микросхема)


+



-


-


+


Защита от атак по времени выполнения и потребляемой мощности


+



-


-


+


Защита от атак по потребляемой мощности на процедуру расширения ключа






-


Защита от атак по потребляемой мощности на реализации в смарт-картах



+


-



+


Возможность расширения ключа на лету


+


+





Наличие вариантов реализации (без потерь в совместимости)


+


+




+


Возможность параллельных вычислений






+



По совокупности характеристик Рейндал на голову опережал конкурентов, так что результат финального голосования оказался вполне закономерен: алгоритм одержал уверенную победу, получив 86 голосов за и лишь 10 против. Serpent занял почетное второе место с 59 голосами, тогда как Twofish расположился на третьей позиции: за него вступился 31 член жюри. Вслед за ними следовал RC6, завоевав 23 голоса, а MARS закономерно оказался на последней строчке, получив лишь 13 голосов за и 83 против.

2 октября 2000 года Rijndael был объявлен победителем конкурса AES, по традиции сменив название на Advanced Encryption Standard, под которым он и известен в настоящее время. Процедура стандартизации продлилась около года: 26 ноября 2001 года AES был внесен в перечень Федеральных стандартов обработки информации, получив индекс FIPS 197. Новый алгоритм высоко оценили и в АНБ, а с июня 2003 года Агентство национальной безопасности США даже признало AES с 256-битным ключом шифрования достаточно надежным для обеспечения безопасности документов категории совершенно секретно.

Внешние накопители WD My Book с поддержкой аппаратного шифрования AES-256


Благодаря сочетанию высокой надежности и производительности, Advanced Encryption Standard быстро обрел мировое признание, став одним из самых популярных в мире алгоритмов симметричного шифрования и войдя в состав множества криптографических библиотек (OpenSSL, GnuTLS, Linux's Crypto API и др.). В настоящее время AES широко используется в приложениях корпоративного и пользовательского уровня, а его поддержка реализована во множестве разнообразных устройств. В частности, именно аппаратное шифрование AES-256 применяется во внешних накопителях Western Digital семейства My Book для обеспечения защиты сохраненных данных. Давайте познакомимся с этими девайсами поближе.



Линейка настольных жестких дисков WD My Book включает шесть моделей различной емкости: на 4, 6, 8, 10, 12 и 14 терабайт, что позволяет подобрать устройство, оптимально подходящее под ваши потребности. По умолчанию внешние HDD используют файловую систему exFAT, что обеспечивает совместимость с широким спектром операционных систем, включая Microsoft Windows 7, 8, 8.1 и 10, а также Apple macOS версии 10.13 (High Sierra) и выше. Пользователи ОС Linux имеют возможность смонтировать винчестер с помощью драйвера exfat-nofuse.

Подключение My Book к компьютеру осуществляется с помощью высокоскоростного интерфейса USB 3.0, обратно совместимого с USB 2.0. С одной стороны, это позволяет передавать файлы на максимально возможной скорости, ведь пропускная способность USB SuperSpeed составляет 5 Гбит/с (то есть 640 МБ/с), чего оказывается более чем достаточно. В то же время функция обратной совместимости обеспечивает поддержку практически любых устройств, выпущенных за последние 10 лет.



Хотя My Book и не требует установки дополнительного программного обеспечения благодаря технологии автоматического определения и конфигурирования периферических устройств Plug and Play, мы все же рекомендуем воспользоваться фирменным программным пакетом WD Discovery, который поставляется в комплекте с каждым устройством.



В состав набора вошли следующие приложения:

WD Drive Utilities


Программа позволяет получить актуальную информацию о текущем состоянии накопителя на основе данных S.M.A.R.T. и проверить жесткий диск на наличие битых секторов. Помимо этого, с помощью Drive Utilities можно оперативно уничтожить все сохраненные на вашем My Book данные: при этом файлы будут не просто стерты, но и полностью перезаписаны несколько раз, так что восстановить их по завершении процедуры уже не удастся.

WD Backup


Используя эту утилиту, можно настроить резервное копирование по заданному расписанию. Стоит сказать, что WD Backup поддерживает работу с Google Drive и Dropbox, при этом позволяя выбирать при создании бэкапа любые возможные сочетания источник-цель. Таким образом, вы можете настроить автоматический перенос данных с My Book в облако либо импортировать нужные файлы и папки из перечисленных сервисов как на внешний винчестер, так и на локальную машину. Помимо этого, предусмотрена возможность синхронизации с аккаунтом в социальной сети Facebook, что позволяет автоматически создавать резервные копии фотографий и видеозаписей из вашего профиля.

WD Security


Именно с помощью этой утилиты можно ограничить доступ к накопителю паролем и управлять шифрованием данных. Все, что для этого потребуется, указать пароль (его максимальная длина может достигать 25 символов), после чего вся информация на диске будет зашифрована, а доступ к сохраненным файлам сможет получить лишь тот, кто знает кодовую фразу. Для большего удобства WD Security позволяет создать список доверенных устройств, при подключении к которым My Book будет разблокироваться автоматически.

Подчеркнем, что WD Security лишь предоставляет удобный визуальный интерфейс для управления криптографической защитой, тогда как шифрование данных осуществляется самим внешним накопителем на аппаратном уровне. Такой подход обеспечивает целый ряд важных преимуществ, а именно:

  • за создание ключей шифрования отвечает аппаратный генератор случайных чисел, а не ГПСЧ, что помогает добиться высокой степени энтропии и повысить их криптографическую стойкость;
  • в ходе процедуры шифрования и дешифровки криптографические ключи не выгружаются в оперативную память компьютера, равно как и не создаются временные копии обрабатываемых файлов в скрытых папках системного диска, что помогает свести к минимуму вероятность их перехвата;
  • скорость обработки файлов никак не зависит от производительности клиентского устройства;
  • после активации защиты шифрование файлов будет осуществляться автоматически, на лету, не требуя дополнительных действий со стороны пользователя.

Все вышеперечисленное гарантирует безопасность данных и позволяет практически полностью исключить вероятность хищения конфиденциальной информации. С учетом дополнительных возможностей накопителя это делает My Book одним из лучших защищенных хранилищ среди доступных на российском рынке.
Подробнее..

История изобретения флешки в лицах и занимательных фактах

21.09.2020 22:05:33 | Автор: admin

Случаи, когда изобретатель создает сложное электротехническое устройство с нуля, полагаясь при этом исключительно на собственные изыскания, чрезвычайно редки. Как правило, те или иные девайсы рождаются на стыке сразу нескольких технологий и стандартов, созданных разными людьми в разное время. Для примера возьмем банальную флешку. Это портативный носитель данных, выполненный на базе энергонезависимой памяти NAND и оснащенный встроенным USB-портом, который используется для подключения накопителя к клиентскому устройству. Таким образом, чтобы понять, как подобный девайс в принципе мог появиться на рынке, необходимо проследить историю изобретения не только самих чипов памяти, но и соответствующего интерфейса, без которого привычных нам флешек попросту бы не существовало. Давайте же попробуем это сделать.

Полупроводниковые запоминающие устройства, поддерживающие стирание записанных данных, появились почти полвека назад: первое EPROM было создано израильским инженером Довом Фроманом еще в 1971 году.


Дов Фроман, разработчик EPROM

Инновационные для своего времени ПЗУ достаточно успешно применялись в ходе производства микроконтроллеров (например, Intel 8048 или Freescale 68HC11), однако оказались решительно непригодны для создания портативных накопителей. Главной проблемой EPROM была слишком сложная процедура стирания информации: для этого интегральную схему необходимо было облучить в ультрафиолетовом спектре. Работало это следующим образом: фотоны УФ-излучения придавали избыточным электронам энергию, достаточную для рассеивания заряда на плавающем затворе.


В чипах EPROM были предусмотрены специальные окошки для стирания данных, закрытые кварцевыми пластинами

Это добавляло два существенных неудобства. Во-первых, стереть данные на таком чипе в адекватные сроки можно было лишь с помощью достаточно мощной ртутной лампы, и даже в этом случае процесс занимал несколько минут. Для сравнения: обычная люминесцентная лампа удаляла бы информацию в течение нескольких лет, а если оставить такую микросхему под прямыми солнечными лучами, то на ее полную очистку потребовались бы недели. Во-вторых, даже если бы этот процесс удалось хоть как-то оптимизировать, избирательное удаление конкретного файла было все равно невозможным: информация на EPROM стиралась целиком.

Перечисленные проблемы были решены в следующем поколении чипов. В 1977 году Элай Харари (кстати, впоследствии основавший SanDisk, вошедшую в число крупнейших мировых производителей носителей данных, выполненных на базе флеш-памяти), используя технологию автоэлектронной эмиссии, создал первый прототип EEPROM ПЗУ, в котором стирание данных, как и программирование, осуществлялось сугубо электрически.


Элай Харари, основатель SanDisk, держащий в руках одну из первых SD-карт

Принцип действия EEPROM был практически идентичен таковому у современной NAND-памяти: в качестве носителя заряда использовался плавающий затвор, а перенос электронов сквозь слои диэлектрика осуществлялся благодаря туннельному эффекту. Сама организация ячеек памяти представляла собой двумерный массив, что уже позволяло записывать и удалять данные адресно. Кроме того, EEPROM обладал весьма неплохим запасом прочности: каждая ячейка могла быть перезаписана вплоть до 1 миллиона раз.

Но и здесь все оказалось отнюдь не так радужно. Чтобы получить возможность стирать данные электрически, в каждую ячейку памяти пришлось внедрить дополнительный транзистор, управляющий процессом записи и стирания. Теперь на каждый элемент массива приходилось 3 проводника (1 проводник столбцов и 2 проводника строк), из-за чего усложнялась разводка компонентов матрицы и возникали серьезные проблемы с масштабированием. А значит, о создании миниатюрных и емких устройств не могло быть и речи.

Поскольку готовая модель полупроводниковой ПЗУ уже существовала, дальнейшие научные изыскания продолжились с прицелом на создание микросхем, способных обеспечить более плотное хранение данных. И таковые увенчались успехом в 1984 году, когда Фудзио Масуока, работавший в корпорации Toshiba, представил прототип энергонезависимой флеш-памяти на международной конференции International Electron Devices Meeting, проходившей в стенах Института инженеров электротехники и электроники (IEEE).


Фудзио Масуока, отец флеш-памяти

Кстати, само название придумал вовсе не Фудзио, а один из его коллег, Сёдзи Ариидзуми, которому процесс стирания данных напомнил сияющую вспышку молнии (от английского flash вспышка). В отличие от EEPROM, флеш-память была основана на МОП-транзисторах с дополнительным плавающим затвором, расположенным между p-слоем и управляющим затвором, что позволило отказаться от лишних элементов и создавать действительно миниатюрные чипы.

Первыми коммерческими образцами флеш-памяти стали микросхемы Intel, выполненные по технологии NOR (Not-Or), производство которых было запущено в 1988 году. Как и в случае с EEPROM, их матрицы представляли собой двумерный массив, в котором каждая ячейка памяти находилась на пересечении строки и столбца (соответствующие проводники подключались к разным затворам транзистора, а исток к общей подложке). Однако уже в 1989 году Toshiba представила собственную версию флеш-памяти, получившую название NAND. Массив имел аналогичную структуру, но в каждом его узле вместо одной ячейки теперь располагалось несколько последовательно включенных. Кроме того, в каждой линии использовалось два МОП-транзистора: управляющий, расположенный между разрядной линией и столбцом ячеек, и транзистор заземления.

Более высокая плотность компоновки помогла увеличить емкость чипа, однако при этом усложнился и алгоритм чтения/записи, что не могло не отразиться на скорости передачи информации. По этой причине новая архитектура так и не смогла полностью вытеснить NOR, нашедшую применение в создании встраиваемых ПЗУ. В то же время именно NAND оказалась идеально подходящей для производства портативных накопителей данных SD-карт и, разумеется, флешек.

К слову, появление последних стало возможным лишь в 2000 году, когда стоимость флеш-памяти достаточно снизилась и выпуск подобных устройств для розничного рынка мог окупиться. Первым в мире USB-накопителем стало детище израильской компании M-Systems: компактную флешку DiskOnKey (что можно перевести, как диск-на-брелке, поскольку на корпусе устройства было предусмотрено металлическое кольцо, позволявшее носить флешку вместе со связкой ключей) разработали инженеры Амир Баном, Дов Моран и Оран Огдан. За миниатюрный девайс, способный вместить 8 МБ информации и заменявший собой пяток 3,5-дюймовых дискет, в то время просили $50.


DiskOnKey первая в мире флешка от израильской компании M-Systems

Интересный факт: на территории США у DiskOnKey был официальный издатель, в роли которого выступала IBM. Локализованные флешки ничем не отличались от оригинальных, за исключением логотипа на лицевой части, из-за чего многие ошибочно приписывают создание первого USB-накопителя именно американской корпорации.


DiskOnKey, IBM Edition

Вслед за оригинальной моделью буквально через пару месяцев свет увидели более вместительные модификации DiskOnKey на 16 и 32 МБ, за которые просили уже $100 и $150 соответственно. Несмотря на дороговизну, сочетание компактных размеров, вместительности и высокой скорости чтения/записи (которая оказалась примерно в 10 раз выше, чему у стандартных дискет) пришлось по вкусу множеству покупателей. И с этого момента флешки начали свое триумфальное шествие по планете.

Один в поле воин: битва за USB


Впрочем, флешка не была бы флешкой, не появись пятью годами ранее спецификация Universal Serial Bus именно так расшифровывается привычная нам аббревиатура USB. И историю зарождения данного стандарта можно назвать чуть ли не более интересной, чем изобретение самой флеш-памяти.

Как правило, новые интерфейсы и стандарты в IT являются плодом тесного сотрудничества крупных предприятий, зачастую даже конкурирующих между собой, но вынужденных объединить усилия ради создания унифицированного решения, которое позволило бы существенно упростить разработку новых продуктов. Так произошло, например, с картами памяти формата SD: первая версия Secure Digital Memory Card была создана в 1999 году при участии SanDisk, Toshiba и Panasonic, причем новый стандарт оказался настолько удачным, что удостоился титула отраслевого спустя всего год. Сегодня же SD Card Association насчитывает свыше 1000 компаний-участников, инженеры которых занимаются разработкой новых и развитием существующих спецификаций, описывающих разнообразные параметры флеш-карт.



И с первого взгляда история USB полностью идентична тому, что происходило со стандартом Secure Digital. Чтобы сделать персональные компьютеры более дружелюбными по отношению к рядовому пользователю, производителям железа требовался, помимо прочего, универсальный интерфейс для работы с периферией, поддерживающий горячее подключение и не нуждающийся в дополнительной настройке. Кроме того, создание унифицированного стандарта позволило бы избавиться от зоопарка портов (COM, LPT, PS/2, MIDI-port, RS-232 и т. д.), что в перспективе помогло бы существенно упростить и удешевить разработку нового оборудования, а также внедрение поддержки тех или иных устройств.

На фоне перечисленных предпосылок ряд компаний-разработчиков компьютерных комплектующих, периферии и софта, крупнейшими из которых были Intel, Microsoft, Philips и US Robotics, объединились в попытке найти тот самый общий знаменатель, который бы устроил всех действующих игроков, каковым в итоге и стал USB. Популяризации же нового стандарта во многом поспособствовала Microsoft, добавившая поддержку интерфейса еще в Windows 95 (соответствующий патч входил в состав Service Release 2), а затем внедрившая необходимый драйвер в релизную версию Windows 98. В то же время на железном фронте подмога пришла, откуда не ждали: в 1998 году свет увидел iMac G3 первый компьютер все в одном от Apple, в котором для подключения устройств ввода и другой периферии (за исключением микрофона и наушников) использовались исключительно USB-порты. Во многом такой разворот на 180 градусов (ведь в то время Apple делала ставку на FireWire) был обусловлен возвращением Стива Джобса на пост СЕО компании, состоявшимся годом ранее.


Оригинальный iMac G3 первый USB-компьютер

На самом же деле рождение универсальной последовательной шины проходило куда более мучительно, а само по себе появление USB во многом является заслугой отнюдь не мегакорпораций и даже не одного научно-исследовательского отдела, действующего в составе той или иной компании, а вполне конкретного человека инженера Intel индийского происхождения по имени Аджай Бхатт.


Аджай Бхатт, главный идеолог и создатель интерфейса USB

Еще в 1992 году Аджай задумался о том, что персональный компьютер не особо оправдывает собственное название. Даже такая простая с первого взгляда задача, как подключение принтера и печать документа, требовала от пользователя определенной квалификации (хотя, казалось бы, зачем офисному работнику, от которого требуется создать отчет или ведомость, разбираться в мудреных технологиях?) либо вынуждала обращаться к профильным специалистам. И если все оставить как есть, ПК никогда не станет массовым продуктом, а значит, и о том, чтобы выйти за пределы цифры в 10 миллионов пользователей по всему миру, не стоит и мечтать.

Понимание необходимости некоей стандартизации на тот момент было и у Intel, и у Microsoft. В частности, изыскания в этой области привели к появлению шины PCI и концепции Plug&Play, а значит, инициатива Бхатта, который решил сосредоточить усилия именно в сфере поиска универсального решения для подключения периферии, должна была быть воспринята положительно. Но не тут-то было: непосредственный начальник Аджая, выслушав инженера, заявил, что эта задача настолько сложна, что на нее не стоит тратить время.

Тогда Аджай стал искать поддержку в параллельных группах и нашел таковую в лице одного из заслуженных исследователей Intel (Intel Fellow) Фреда Поллака, известного на тот момент благодаря работе в качестве ведущего инженера Intel iAPX 432 и ведущего архитектора Intel i960, который и дал проекту зеленый свет. Однако это было лишь начало: реализация столь масштабной задумки стала бы невозможна без участия других игроков рынка. С этого момента начались подлинные хождения по мукам, ведь Аджаю предстояло не только убедить участников рабочих групп Intel в перспективности данной идеи, но и заручиться поддержкой других производителей железа.


На многочисленные обсуждения, согласования и мозговые штурмы ушло почти полтора года. За это время к Аджаю присоединились Бала Кадамби, руководивший командой, ответственной за разработку PCI и Plug&Play, а позже занявший пост директора Intel по технологическим стандартам интерфейсов ввода/вывода, и Джим Паппас, эксперт по системам ввода/вывода. Летом 1994 года наконец-то удалось сформировать рабочую группу и приступить к более плотному взаимодействию с другими компаниями.

В течение последующего года Аджай и его команда встретились с представителями более 50 фирм, среди которых были как небольшие, узкоспециализированные предприятия, так и гиганты вроде Compaq, DEC, IBM и NEC. Работа кипела буквально в режиме 24/7: с раннего утра троица отправлялась на многочисленные совещания, а ночью встречалась в ближайшей закусочной, чтобы обсудить план действий на следующий день.

Возможно, кому-то такой стиль работы может показаться пустой тратой времени. Тем не менее все это принесло свои плоды: в результате было сформировано несколько многоплановых команд, куда входили инженеры из IBM и Compaq, специализирующиеся на создании компьютерных комплектующих, люди, занимавшиеся разработкой чипов из самой Intel и NEC, программисты, работавшие над созданием приложений, драйверов и операционных систем (в том числе из Microsoft), и множество других специалистов. Именно одновременная работа по нескольким фронтам помогла в итоге создать по-настоящему гибкий и универсальный стандарт.


Аджай Бхатт и Бала Кадамби на церемонии вручения Европейской премии изобретателя

Хотя команде Аджая удалось блестяще решить проблемы политического (добившись взаимодействия разнообразных компаний, в том числе являвшихся прямыми конкурентами) и технического (собрав под одной крышей множество экспертов в различных областях) характера, оставался еще один аспект, требующий пристального внимания, экономическая сторона вопроса. И здесь пришлось идти на существенные компромиссы. Так, например, именно стремление снизить себестоимость провода привело к тому, что привычный нам USB Type-A, который мы используем и по сей день, стал односторонним. Ведь для создания действительно универсального кабеля требовалось бы не просто изменить конструкцию коннектора, сделав его симметричным, но и вдвое увеличить количество токопроводящих жил, что привело бы и к удвоению стоимости провода. Зато теперь у нас есть нестареющий мем о квантовой природе USB.


На снижении стоимости настаивали и другие участники проекта. Джим Паппас в связи с этим любит вспоминать о звонке от Бетси Таннер из Microsoft, заявившей в один прекрасный день, что, к сожалению, компания намерена отказаться от использования интерфейса USB при производстве компьютерных мышек. Все дело в том, что пропускная способность 5 Мбит/с (именно такая скорость передачи данных планировалась изначально) была излишне высокой, и инженеры опасались, что не смогут уложиться в спецификации по электромагнитной интерференции, а значит, такая турбомышь может помешать нормальному функционированию как самого ПК, так и других периферических устройств.

На резонный довод об экранировании Бэтси ответила, что дополнительная изоляция приведет к удорожанию кабеля: по 4 цента сверху на каждый фут, или 24 цента на стандартный провод 1,8 метра (6 футов), что делает всю затею бессмысленной. Кроме того, кабель мышки должен оставаться достаточно гибким, чтобы не стеснять движения руки. Чтобы решить эту проблему, было принято решение добавить разделение на высокоскоростной (12 Мбит/с) и низкоскоростной (1,5 Мбит/с) режимы. Запас в 12 Мбит/с позволял использовать разветвители и хабы для одновременного подключения нескольких устройств на одном порту, а 1,5 МБит/с оптимально подходил для подключения к ПК мышек, клавиатур и других аналогичных девайсов.

Сам Джим считает эту историю камнем преткновения, который в конечном счете и обеспечил успех всего проекта. Ведь без поддержки Microsoft продвигать новый стандарт на рынке было бы на порядок труднее. К тому же найденный компромисс помог сделать USB значительно дешевле, а значит, и привлекательнее в глазах производителей периферического оборудования.

Что в имени тебе моем, или Безумный ребрендинг


И раз уж сегодня мы с вами обсуждаем USB-накопители, давайте заодно проясним ситуацию с версиями и скоростными характеристиками данного стандарта. Здесь все совсем не так просто, как может показаться на первый взгляд, ведь с 2013 года организация USB Implementers Forum приложила максимум усилий для того, чтобы окончательно запутать не только рядовых потребителей, но и профессионалов из мира IT.

Раньше все было достаточно просто и логично: у нас есть медленный USB 2.0 с максимальной пропускной способностью 480 Мбит/с (60 МБ/с) и в 10 раз более быстрый USB 3.0, у которого предельная скорость передачи данных достигает уже 5 Гбит/с (640 МБ/с). За счет обратной совместимости накопитель с USB 3.0 можно подключить в порт USB 2.0 (или наоборот), однако при этом скорость чтения и записи файлов будет ограничена 60 МБ/с, так как более медленное устройство будет выступать в роли бутылочного горлышка.

31 июля 2013 года USB-IF внесла в эту стройную систему изрядную путаницу: именно в этот день было объявлено о принятии новой спецификации USB 3.1. И нет, дело вовсе не в дробной нумерации версий, что встречалось и раньше (хотя справедливости ради стоит отметить, что USB 1.1 была доработанной версией 1.0, а не чем-то качественно новым), а в том, что USB Implementers Forum зачем-то решила переименовать и старый стандарт. Следите за руками:

  • USB 3.0 превратился в USB 3.1 Gen 1. Это чистой воды переименование: никаких улучшений произведено не было, да и максимальная скорость осталась все той же 5 Гбит/с и не битом больше.
  • По-настоящему новым стандартом стал USB 3.1 Gen 2: переход на кодирование 128b/132b (ранее использовалось 8b/10b) в режиме full-duplex позволил удвоить пропускную способность интерфейса и добиться впечатляющих 10 Гбит/с, или 1280 МБ/с.

Но этого ребятам из USB-IF показалось мало, так что они решили добавить и пару альтернативных названий: USB 3.1 Gen 1 стал SuperSpeed, а USB 3.1 Gen 2 SuperSpeed+. И как раз этот шаг вполне оправдан: розничному покупателю, далекому от мира компьютерной техники, куда проще запомнить броское название, нежели последовательность букв и цифр. А здесь все интуитивно: у нас есть сверхскоростной интерфейс, который, как можно заключить из названия, очень быстрый, и есть сверхскоростной+ интерфейс, который еще быстрее. Но зачем при этом было проводить столь специфический ребрендинг индексов поколений решительно непонятно.

Впрочем, нет предела несовершенству: 22 сентября 2017 года с публикацией стандарта USB 3.2 ситуация еще более усугубилась. Начнем с хорошего: двусторонний разъем USB Type-C, спецификации которого были разработаны еще для прошлого поколения интерфейса, позволил удвоить максимальную пропускную способность шины за счет использования дублирующих выводов в качестве отдельного канала передачи данных. Так появился USB 3.2 Gen 22 (почему его нельзя было назвать USB 3.2 Gen 3, опять же загадка), работающий на скорости вплоть до 20 Гбит/с (2560 МБ/с), который, в частности, нашел применение при производстве внешних твердотельных накопителей (именно таким портом оснащены высокоскоростные WD_BLACK P50, ориентированные на геймеров).


И все бы ничего, но, помимо введения нового стандарта, не заставило себя ждать и переименование предыдущих: USB 3.1 Gen 1 превратился в USB 3.2 Gen 1, а USB 3.1 Gen 2 в USB 3.2 Gen 2. Претерпели изменения даже маркетинговые названия, причем USB-IF отошли от ранее принятой концепции интуитивно понятно и никаких цифр: вместо того, чтобы обозначить USB 3.2 Gen 22 как, например, SuperSpeed++ или UltraSpeed, они решили добавить прямое указание на максимальную скорость передачи данных:

  • USB 3.2 Gen 1 стал SuperSpeed USB 5Gbps,
  • USB 3.2 Gen 2 SuperSpeed USB 10Gbps,
  • USB 3.2 Gen 22 SuperSpeed USB 20Gbps.

И как же разобраться с зоопарком стандартов USB? Чтобы облегчить вам жизнь, мы составили сводную табличку-памятку, с помощью которой сопоставить разные версии интерфейсов не составит особого труда.

Версия стандарта


Маркетинговое название


Скорость, Гбит/с


USB 3.0


USB 3.1


USB 3.2


Версия USB 3.1


Версия USB 3.2


USB 3.0


USB 3.1 Gen 1


USB 3.2 Gen 1


SuperSpeed


SuperSpeed USB 5Gbps


5



USB 3.1 Gen 2


USB 3.2 Gen 2


SuperSpeed+


SuperSpeed USB 10Gbps


10




USB 3.2 Gen 22



SuperSpeed USB 20Gbps


20



Многообразие USB-накопителей на примере продукции SanDisk


Но давайте вернемся непосредственно к предмету сегодняшнего обсуждения. Флешки стали неотъемлемой частью нашей с вами жизни, получив множество модификаций, иногда весьма причудливых. Наиболее полное представление о возможностях современных USB-накопителей позволяет получить портфолио компании SanDisk.

Все актуальные модели флеш-накопителей SanDisk поддерживают стандарт передачи данных USB 3.0 (он же USB 3.1 Gen 1, он же USB 3.2 Gen 1, он же SuperSpeed практически как в фильме Москва слезам не верит). Среди них можно найти как вполне классические флешки, так и более специализированные устройства. Например, если вы хотите обзавестись компактным универсальным накопителем, имеет смысл обратить внимание на линейку SanDisk Ultra.


SanDisk Ultra

Наличие шести модификаций различной емкости (от 16 до 512 ГБ) помогает подобрать наиболее оптимальный вариант в зависимости от ваших потребностей и не переплачивать за лишние гигабайты. Скорость передачи данных вплоть до 130 МБ/с позволяет достаточно быстро скачивать даже объемные файлы, а удобный раздвижной корпус надежно защищает коннектор от повреждений.

Поклонникам элегантных форм мы рекомендуем линейку USB-накопителей SanDisk Ultra Flair и SanDisk Luxe.


SanDisk Ultra Flair

Технически эти флешки полностью идентичны: обе серии характеризуются скоростью передачи данных до 150 МБ/с, а каждая из них включает в себя 6 моделей емкостью от 16 до 512 ГБ. Отличия кроются лишь в дизайне: Ultra Flair получил дополнительный конструктивный элемент из прочного пластика, тогда как корпус версии Luxe полностью выполнен из алюминиевого сплава.


SanDisk Luxe

Помимо эффектного дизайна и высокой скорости передачи данных, перечисленные накопители имеют и еще одну весьма интересную особенность: их USB-коннекторы являются прямым продолжением монолитного корпуса. Такой подход обеспечивает высочайший уровень защищенности флешки: случайно сломать подобный коннектор попросту невозможно.

Помимо полноразмерных накопителей, в коллекции SanDisk присутствуют и решения категории подключил и забыл. Речь идет, конечно же, о сверхкомпактных SanDisk Ultra Fit, размеры которых составляют всего 29,8 14,3 5,0 мм.


SanDisk Ultra Fit

Такой малыш едва выступает над поверхностью USB-разъема, что делает его идеальным решением для расширения хранилища клиентского устройства, будь то ультрабук, автомобильная аудиосистема, Smart-телевизор, игровая приставка или одноплатный компьютер.


Самыми же интересными в коллекции SanDisk можно назвать USB-накопители Dual Drive и iXpand. Оба семейства, несмотря на конструктивные различия, объединяет единая концепция: эти флешки получили по два порта разных типов, что позволяет использовать их для переноса данных между ПК или ноутбуком и мобильными гаджетами без дополнительных кабелей и переходников.

Накопители семейства Dual Drive предназначены для использования со смартфонами и планшетами, работающими под управлением операционной системы Android и поддерживающими технологию OTG. Сюда входят три линейки флешек.

Миниатюрные SanDisk Dual Drive m3.0, помимо USB Type-A, оснащены коннектором microUSB, что обеспечивает совместимость с девайсами прошлых лет, а также смартфонами начального уровня.


SanDisk Dual Drive m3.0

SanDisk Ultra Dual Type-C, как нетрудно догадаться по названию, обзавелись более современным двусторонним коннектором. Сама же флешка стала крупнее и массивнее, однако такая конструкция корпуса обеспечивает лучшую защиту, да и потерять устройство стало куда сложнее.


SanDisk Ultra Dual Type-C

Если же вы ищете нечто более элегантное, рекомендуем обратить внимание на SanDisk Ultra Dual Drive Go. В этих накопителях реализован тот же принцип, что и в упомянутых ранее SanDisk Luxe: полноразмерный USB Type-A является частью корпуса флешки, что исключает его поломку даже при неосторожном обращении. Коннектор USB Type-C, в свою очередь, хорошо защищен поворотным колпачком, на котором также предусмотрена проушина под брелок. Такая компоновка позволила сделать флешку по-настоящему стильной, компактной и надежной.


SanDisk Ultra Dual Drive Go

Серия iXpand полностью аналогична Dual Drive, за исключением того факта, что место USB Type-C занял фирменный коннектор Apple Lightning. Самым необычным устройством в серии можно назвать SanDisk iXpand: данная флешка имеет оригинальный дизайн в виде петли.


SanDisk iXpand

Смотрится эффектно, к тому же в получившуюся проушину можно продеть ремешок и носить накопитель, к примеру, на шее. Да и использовать такую флешку вместе с iPhone куда удобнее, нежели традиционную: при подключении большая часть корпуса оказывается позади смартфона, упираясь в его заднюю крышку, что помогает свести к минимуму вероятность повреждения разъема.


Если же подобный дизайн по тем или иным причинам вас не устраивает, имеет смысл посмотреть в сторону SanDisk iXpand Mini. Технически перед нами все тот же iXpand: модельный ряд также включает четыре накопителя на 32, 64, 128 или 256 ГБ, а максимальная скорость передачи данных достигает 90 МБ/с, чего вполне достаточно даже для просмотра 4K видео непосредственно с флешки. Разница заключается лишь в дизайне: петля исчезла, зато появился защитный колпачок для коннектора Lightning.


SanDisk iXpand Mini

Третий представитель славного семейства, SanDisk iXpand Go, является братом-близнецом Dual Drive Go: их размеры практически идентичны, к тому же оба накопителя получили поворотный колпачок, пусть и немного отличающийся по дизайну. Данная линейка включает в себя 3 модели: на 64, 128 и 256 ГБ.


SanDisk iXpand Go

Перечень продукции, выпускаемой под брендом SanDisk, отнюдь не ограничивается перечисленными USB-накопителями. Познакомиться с другими девайсами именитой марки вы можете на официальном портале Western Digital.
Подробнее..

Облака сгущаются чем cloud-сервисы опасны для игровой индустрии?

04.09.2020 22:23:02 | Автор: admin

Cloud-сервисы стали неотъемлемой частью жизни современного человека. Но понятие облака отнюдь не ограничивается возможностью по мановению ока создавать резервные копии фотографий, сделанных в отпуске, или координировать действия с коллегами с помощью интеллектуальной CRM. Сейчас облачные технологии стали проникать в самые неожиданные отрасли например, в такую сферу, как видеоигры. Если раньше каждый, кто хотел приобщиться к удивительному миру виртуальных развлечений, должен был обзавестись производительным ПК или игровой консолью, то сегодня при наличии стабильного интернет-соединения любой желающий может поиграть в свежий AAA-релиз чуть ли не на калькуляторе.

Впрочем, если копнуть глубже, то окажется, что cloud-гейминг является вовсе не такой уж и выгодной штукой, как рассказывают ангажированные эксперты и блогеры всех мастей. Более того, в отдаленной перспективе именно cloud-гейминг способен привести к окончательной смерти игровой индустрии в том виде, в котором мы с вами ее некогда полюбили. Давайте разбираться.

На сегодняшний день существует несколько десятков сервисов облачного гейминга, использующих различные модели взаимодействия с конечным потребителем. Перечислять их все не имеет смысла, да это и не является целью сегодняшнего материала. Куда интереснее посмотреть на конкретных примерах, насколько выгодным будет их использование с точки зрения игрока. Мы выбрали три наиболее популярные платформы из числа официально доступных на российском рынке и сравнили их возможности и цены на аренду вычислительных мощностей.

LoudPlay




  • Максимальное качество видеопотока: Full HD, 60 FPS, настройки графики выставляются вручную самим пользователем.
  • Оплата: почасовая (65 рублей в час), возможность покупки фиксированных пакетов со скидкой (5 часов 300 рублей, 15 часов 800 рублей, 30 часов 1500 рублей).
  • Поддерживаемые платформы: Windows 10.

Подход LoudPlay является наиболее интересным: подписчикам сервиса предоставляется виртуальная машина с операционной системой Windows 10 и предустановленными лаунчерами популярных цифровых магазинов игр. Но при желании вы можете установить любое другое приложение (например, для работы с 3D-графикой) либо, так сказать, воспользоваться народной демоверсией, благо владельцы сервиса не забыли и о торрент-клиенте.

PlayKey




  • Максимальное качество видеопотока: Full HD, 60 FPS, настройки графики выставляются автоматически (заявлены средневысокие для AAA-тайтлов).
  • Оплата: почасовая, базовая ставка 160 рублей за два часа, скидки за объем (100 часов обойдутся в 6 тысяч рублей).
  • Поддерживаемые платформы: Steam, Origin, Battle.net, Epic Games Store, Uplay, Riot Games, Bethesda, Gaijin, Wargaming, Mail.ru.

Здесь используется несколько иной подход: вы подключаете к сервису свой аккаунт в Steam, Origin или другом цифровом магазине из списка поддерживаемых и после этого сможете играть в любую приобретенную игру (дистрибутивы популярных тайтлов уже установлены на серверах, однако если вашей игры среди них нет, придется подождать ее загрузки). Использовать какие-либо сторонние приложения вы не сможете: PlayKey позиционируется как сугубо игровая платформа и прямого доступа к виртуальным машинам не предоставляет.

GFN (GeForce Now)




  • Максимальное качество видеопотока: 4K, 60 FPS, максимальные настройки графики, включая RTX.
  • Оплата: 999 рублей в месяц, 4999 рублей за полгода либо 9999 рублей за год.
  • Поддерживаемые платформы: Steam, Epic Games Store, Uplay, Riot Games, Wargaming, Mail.ru.

На сегодняшний день это самое выгодное предложение из всех доступных. За 999 рублей в месяц вы получаете возможность играть с разрешением до 4K на ультранастройках графики, при этом единственным ограничением является длительность одной сессии не более 6 часов подряд (по истечении этого срока необходимо подключиться к сервису заново). Среди недостатков можно выделить сравнительно скудную библиотеку: в GFN вы сможете играть только в игры из каталога платформы.

Теперь давайте прикинем годовые затраты на облачный гейминг в каждом из перечисленных сервисов. Для этого выделим три условные категории игроков:

  • казуал в среднем играет не более 1 часа в день, то есть 365 часов в год;
  • хардкорщик играет не менее 3 часов в день, или 1095 часов в год;
  • игроман готов уделять играм по 5 часов в день, или 1825 часов в год.

Приступим к подсчетам. В случае с почасовой оплатой наиболее выгодным вариантом для всех перечисленных категорий геймеров станет приобретение игрового времени максимальными пакетами. Таким образом, затраты на LoudPlay мы считаем исходя из цены 1500 рублей за 30 часов, а на PlayKey отталкиваясь от ставки 6000 рублей за 100 часов за основное время. При покупке дополнительного времени учитываются пакеты меньшего размера, что делает подсчет более реалистичным. Например, казуал купит 3 максимальных пакета в течение года + 1 пакет на 50 часов + 1 пакет на 15 часов. Округлять результаты мы будем в меньшую сторону (опять же, ради реализма), ведь даже заядлый геймер не сможет играть каждый день по 5 часов: учебу, работу и домашние дела никто не отменял. На выходе получаем следующие цифры.

Игрок


Время, ч


LoudPlay


PlayKey


GFN


Казуал


365


18 тыс. руб.


22 тыс. руб.




9999 руб.


Хардкорщик


1095


54 тыс. руб.


66 тыс. руб.


Игроман


1825


90 тыс. руб.


110 тыс. руб.



Что же мы видим? Если говорить о сервисах с почасовой оплатой, то для хардкорщика и игромана их использование оказывается крайне невыгодным. Не будем забывать, что помимо подписки придется потратиться и на ПК начального уровня, который, при условии сборки с нуля из новых, качественных комплектующих, обойдется еще тысяч в 20. Но за 74 тысячи (столько суммарно потратит хардкорщик на LoudPlay + ПК) можно купить вполне приличный игровой компьютер, который точно не придется апгрейдить еще пару-тройку лет как минимум, а за 130 тысяч и вовсе порадовать себя 4K-геймингом, чего ни LoudPlay, ни PlayKey предложить не могут. В случае с казуалом все выглядит не так однозначно. С другой стороны, на третий год затраты такого игрока превысят 90 тысяч рублей, а за эти деньги можно собрать машину, которой точно хватит на 3 года комфортной игры в Full HD, да еще и с запасом.

Сервис nVidia выбивается из общей канвы: 10 тысяч в год, шестичасовые игровые сессии, да еще 4K звучит и правда заманчиво! Но, как говорится, всегда есть варианты. Давайте прикинем, в какую сумму можно уложиться при сборке бюджетного игрового ПК, и уже тогда будем оценивать, насколько выгодным является это предложение.

Бюджетный игровой ПК 2020: дешево и сердито


Байки про игровой ПК за 300 тысяч рублей, который придется обновлять каждые полгода, не имеют ничего общего с реальностью: сегодня вполне приличную машину можно собрать тысяч этак за 5060, и этого вполне хватит, чтобы наслаждаться отменной картинкой (конечно, если не гнаться за 120 FPS в 4K, которые так активно навязывают нам маркетологи). Научно-технический прогресс неумолим: покупая компьютер сегодня, вы получаете куда большую вычислительную мощность в пересчете на каждый вложенный рубль, нежели 10 лет назад. И многие комплектующие, которые некогда были уделом энтузиастов, сегодня доступны подавляющему большинству людей.

Поскольку Western Digital специализируется на разработке носителей данных, мы рассмотрим динамику изменения цен на примере SSD. Хотя сегодня твердотельный накопитель является неотъемлемой частью любого игрового ПК (обычный HDD попросту не справится со стримингом десятков гигабайт текстур), долгое время покупка такого устройства считалась роскошью. Пускай SSD и могли похвастаться производительностью, в несколько раз превышающей возможности традиционных винчестеров, для рядового потребителя их приобретение оставалось малорентабельным из-за высокой удельной стоимости в пересчете на единицу хранения данных.

Так, на момент релиза терабайтные модели с интерфейсом SATA предлагались по базовой цене $325 за штуку, что по сегодняшнему курсу составило бы 24 700 рублей. Учитывая, что за эту цену можно было приобрести предтоповую (а то и топовую) видеокарту, выбор был явно не в пользу SSD. Но время шло, технологии производства флеш-памяти совершенствовались, объемы выпуска чипов росли, и приблизительно в конце 2018 года цены на такие накопители уже находились в пределах от 130 до 162 долларов. Более того, они продолжают падать, несмотря на коронакризис и даже прошлогодний сбой энергоснабжения в Йоккаити, где расположена одна из крупнейших фабрик по производству полупроводниковых компонентов Kioxia, что повлекло за собой повреждение дорогостоящего оборудования и снижение темпов производства.


Ночная панорама города-фабрики Йоккаити завораживает...

Сегодня приобрести тот же WD Blue 3D NAND на 1 ТБ можно за 85008700 рублей, то есть примерно за $115 (здесь не стоит забывать о колебаниях курса, вызванных непростой экономической ситуацией в мире, в противном случае цена накопителя оказалась бы еще ниже). Среди SATA SSD эта модель является топовой, демонстрируя скорость передачи данных в операциях последовательного чтения вплоть до 560 МБ/с (более чем в 2 раза выше по сравнению с винчестерами, потолком для которых является значение 250 МБ/с), что является максимальным показателем для устройств данного класса.


WD Blue 3D NAND SSD емкостью 1 терабайт

Аналогичным образом дела обстоят и в сегменте высокопроизводительных твердотельных накопителей, ориентированных на профессионалов и геймеров. Для примера возьмем тот же WD Blue SN550. Перед нами полноценный NVMe SSD, задействующий все четыре линии PCI Express 3.0, предоставляемые данным интерфейсом, способный похвастаться скоростью записи до 1950 МБ/с и скоростью чтения вплоть до 2400 МБ/с, который без труда справится с любыми приложениями для работы с контентом, включая профессиональные фоторедакторы, программы для монтажа видео, работы с 3D-графикой или проектирования. При этом цена на такое устройство на момент написания статьи колеблется от 10 до 11,5 тысячи рублей за терабайтную версию и от 6 500 до 6 900 рублей за версию на 500 гигабайт. То есть, если сравнивать с SATA-накопителем, будет достаточно доплатить от 1500 до 2500 рублей, чтобы получить в 4 раза большую производительность.


WD Blue SN550 идеальный баланс цены и производительности

Если же добавить еще тысячу-полторы сверху, то мы выходим на топовый WD_BLACK SN750, который демонстрирует скорость передачи данных до 3430 МБ/с в операциях чтения и до 2600 МБ/с в операциях записи. Столь высокая производительность гарантирует не только быструю загрузку локаций и отсутствие фризов даже в самых тяжелых (или плохо оптимизированных) играх, но и позволяет скачивать дистрибутивы размером в сотни гигабайт буквально за считанные минуты (разумеется, при достаточной пропускной способности вашего интернет-соединения).


WD_BLACK SN750 быстрый и надежный

На момент написания данной статьи средняя цена WD_BLACK SN750 на 500 гигабайт составляет около 88,5 тысячи рублей. Установка такого накопителя в бюджетный игровой компьютер может показаться расточительной, однако на деле подобное вложение средств является весьма выгодным вы получите в свое распоряжение действительно ультимативный SSD, который запросто переживет не один апгрейд. Все дело в том, что в WD_BLACK SN750 используется флеш-память TLC 3D NAND последнего поколения, поэтому TBW моделей на 500 гигабайт достигает 300 терабайт перезаписи. Таким образом, даже если предположить, что вы каким-то чудом будете расходовать 5 терабайт в месяц, что нереально даже для самого отпетого игромана, то ресурса накопителя хватит на 5 лет бесперебойной работы. А при средней нагрузке в 2,5 терабайта в месяц (что тоже маловероятно, но все же ближе к реальности) такой SSD прослужит вам не менее 10 лет.

При этом если раньше под такой накопитель требовалась материнская плата за 10+ тысяч рублей, то сегодня за 5,56,5 тысячи рублей можно приобрести ту же ASRock B450M Pro4-F с разъемом Ultra M.2, который берет линии PCIe не от чипсета, а непосредственно от процессора, что, ко всему прочему, позволяет минимизировать уровень задержки сигнала и наслаждаться производительностью SN750 без каких-либо ограничений. Кстати, и сам по себе накопитель имеет туз в рукаве: с помощью бесплатного сервисного ПО модель SSD WD_BLACK можно перевести в игровой режим, отключив энергосберегающие функции группы Autonomous Power State Transitions и, таким образом, добиться стабильной работы даже под высокой нагрузкой за счет минимизации задержек при первичном обращении к сохраненным данным.


Материнская плата ASRock B450M Pro4-F

Добавим сюда боксовую версию Ryzen 5 3300X (1011 тысяч рублей), 16 ГБ оперативной памяти частотой 3200 МГц (два модуля по 8 ГБ обойдутся вам в плюс-минус 5 тысяч рублей), жесткий диск WD Blue на 1 ТБ под файлы (около 3,5 тысячи), блок питания на 500 ватт (качественный БП с активным PFC и сертификатом 80+ Bronze будет стоить порядка 34 тысяч), а также видеокарту nVidia GTX 1660 Super (1921 тысяча в зависимости от модификации) и бюджетный корпус по вкусу (2,53,5 тысячи) и на выходе получим вполне достойную конфигурацию в пределах 5560 тысяч рублей, которая позволит запускать на высоких/максимальных настройках любые современные игры в Full HD и потенциала которой хватит на ближайшие 23 года. А если качество графики для вас не столь важно и на первом месте находится именно стабильный фреймрейт, сборку можно удешевить еще тысяч на 10 (здесь все зависит от того, в какие игры вы планируете играть).


На базе AMD Ryzen можно собрать недорогой, но производительный ПК

Теперь вернемся к нашим выкладкам. Чтобы использовать тот же GFN (а на сегодняшний день это наиболее рентабельный сервис из доступных на рынке), вам понадобится ПК за 20 тысяч, как мы и писали ранее (здесь будет справедливо ориентироваться на новые комплектующие, потому что, если закупаться для нашей игровой сборки на Avito, она получится еще дешевле). Однако три года подписки потребуют еще 30 тысяч рублей, так что на выходе мы получим приблизительно ту же сумму за вычетом таких неприятностей, как инпутлаг, ожидание подключения в прайм-тайм на выходных и праздниках, рассыпающееся изображение или внезапное исчезновение интересной вам игры из списка поддерживаемых. Также вы не будете ограничены рамками игротеки, предлагаемой сервисом.

Конечно, бюджетный игровой компьютер не вытянет 60 FPS в разрешении 4K, тогда как GFN формально предлагает такую возможность (сможете ли вы ею воспользоваться, зависит от места вашего проживания и качества интернет-соединения). С другой стороны, покупать 4K-монитор только для того, чтобы подключить к нему стриминговый проигрыватель, по меньшей мере странно. Если вы можете позволить себе такой аппарат, то, очевидно, сможете собрать и достойную игровую платформу, а значит, использование GFN вновь оказывается бессмысленным.

А знаете, что могло бы повысить привлекательность облачного гейминга? Конечно же, предоставление по подписке не только вычислительных мощностей, но и самих игр, как это реализовано в рамках той же EA Play Pro или Xbox Ultimate Pass. По деньгам это было бы действительно выгодно, даже если бы размер абонентской платы возрос на 50%. Вот только вряд ли нам с вами понравятся подобные игры.

Смерть в облаках: как cloud-гейминг изменит игровую индустрию?



Словно подбитый истребитель из Ace Combat, игровая индустрия неумолимо сваливается в штопор

Представим себе на минуточку светлое будущее, в котором на рынке безраздельно доминирует облачный гейминг, а на консолях и ПК играют разве что ценители ретро, ведь новые игры в привычном нам понимании не выходят даже в цифре, не говоря уже о физических носителях. Технические ограничения тем или иным образом удалось преодолеть, так что теперь любой желающий может за скромную абонентскую плату наслаждаться топовыми AAA-проектами даже на калькуляторе в 16K (у нас светлое будущее все-таки), причем в стоимость подписки входит и доступ к любой игре из каталога сервиса. Что это? Утопия? Сбывшаяся в отдельно взятой нише мечта о счастье для всех, даром, и пусть никто не уйдет обиженным? Отнюдь нет. Давайте порассуждаем, к чему может привести подобное положение вещей.

Проблема 1: Я слишком беден, чтобы экономить на играх


Наиболее близким аналогом облачных игровых сервисов можно назвать онлайн-кинотеатры. С их появлением фильмы и сериалы на Blu-Ray практически канули в Лету, да и приобрести цифровые версии ряда тайтлов сегодня уже нельзя, так как единственный выбор, который предоставляют пользователю большинство онлайн-сервисов, смотреть по подписке или не смотреть вовсе. Согласно статистическим данным, собранным компанией Sandvine, в период с 2011 по 2015 год отмечалось резкое падение популярности пиринговых файлообменных сетей: с 52 до 26% в США и с 59 до 21% в Евросоюзе. Снижение доли пиратского трафика произошло именно за счет низкого интереса пользователей сети Интернет к раздачам фильмов и сериалов, что коррелирует с интенсивным развитием стриминговых сервисов, благодаря которым лицензионный видеоконтент поначалу стал действительно доступным. Однако в период с 2015 по 2018 год маятник качнулся в обратную сторону, и доля пиратского трафика вернулась к прежним показателям. Причиной же этого стала жесточайшая конкуренция между онлайн-кинотеатрами.

Казалось бы, от соперничества крупных игроков потребитель должен только выиграть. Но это утверждение перестает работать, когда речь заходит о развлекательном контенте вообще и о фильмах в частности. Чтобы привести зрителей на свою платформу, компаниям Netflix, Disney или Apple вовсе не обязательно оптимизировать инфраструктуру хранения данных, вкладываться в разработку новых моделей доставки видеоконтента, чтобы удешевить подписку, или создавать продвинутые нейросети, которые будут с высокой точностью рекомендовать человеку шоу, всецело отвечающие его вкусам. Конечно, изыскания в перечисленных направлениях также ведутся, но главная ставка делается на эксклюзивы. В этом и кроется причина роста популярности торрентов.


Иногда конкуренция не приносит пользы конечному потребителю

Как выяснили в Sandvine, среднестатистический житель Америки или Европы подписан на 1, максимум 2 стриминговых сервиса и благополучно скачивает все остальное. А дело в том, что из-за выпуска эксклюзивных проектов в разных жанрах всего $9,99 в месяц превращаются в 50, а то и все 100 для каждого активного потребителя видеоконтента, ведь иного легального способа посмотреть все интересующие человека фильмы или сериалы (например, купив) попросту не существует. И платформы облачного гейминга, получи они карт-бланш на дистрибуцию, наверняка пойдут по аналогичному пути.

Кто-то может возразить: Чтобы поиграть в эксклюзивы, я просто буду оформлять подписку на разные сервисы поочередно. На этот счет можете не беспокоиться: провайдеры cloud-сервисов найдут способы сделать так, чтобы вам это было невыгодно. Где-то будет использоваться пряник (вроде особых плюшек или 50-процентной скидки на годовую подписку), а где-то кнут (к примеру, все ваши сохранения будут удаляться спустя неделю после приостановки абонемента). В общем, как и в других сферах, платформодержатели станут вовсю эксплуатировать FOMO-синдром (синдром упущенной выгоды, который выражается в боязни упустить что-то интересное), и никуда вы от этого не денетесь. Да и отдушины в виде торрентов уже не будет: если видеопоток можно тем или иным образом перехватить, то поиграть, не имея доступа к дистрибутиву, если таковые останутся сугубо в облаках, вы никак не сможете.

Проблема 2: Где моды, Лебовски?



Ничего необычного, просто Линк путешествует по Скайриму

Одной из самых сильных сторон ПК-гейминга является моддинг. Если одни модификации лишь добавляют в игру забавные скины, то другие, напротив, могут кардинально менять баланс, добавлять новые аспекты геймплея или огромные пласты контента, предлагая игрокам принципиально новый опыт. Но в случае с переходом игр в облака это направление фанатского творчества может умереть, и вот почему:

  • Исчезновение неофициальных модов

Моддеры смогут получить доступ к той или иной игре лишь в том случае, если сами разработчики позаботятся о создании SDK. Пощупать дистрибутив и сделать собственный инструментарий ни один моддер не сможет, равно как не сможет и создавать модификации, взаимодействующие с игрой непосредственно в оперативной памяти компьютера.

  • Тотальная цензура

В современных реалиях крупные издатели и платформодержатели из опасений как бы чего не вышло бросаются во все тяжкие, насаждая тотальную цензуру в угоду вокальному меньшинству. Ярким примером этого можно назвать поступок Sony, которая стала цензурить эротический контент в играх 18+, объяснив это тем, что не хочет погрязнуть в исках или оказаться жертвой травли. Нетрудно догадаться, что при наличии полного контроля над модификациями под нож попадут любые фанатские творения, не соответствующие представлениям правообладателя о рамках дозволенного.

  • Отсутствие кроссоверов

По этой же причине стоит ожидать исчезновения и модов-кроссоверов, добавляющих в игру персонажей из других произведений. Если для условного фантастического боевика кто-то создаст модификацию, добавляющую в игру азари или кроганов, платформодержатель почти наверняка не допустит публикации такого мода просто из опасений судебного разбирательства с Electronic Arts, которой принадлежат права на Mass Effect. Ведь одно дело, когда вы устанавливаете мод на свой компьютер, и совсем другое, когда речь идет об облачном гейминге, где провайдер является фактически распространителем контента.

Если же быть реалистом, то единственное, что разрешат делать разработчикам модов крупные издатели, это добавлять различные скины, маунтов, танцы и эмоции. Не больше. О том, чтобы позволить кому-то со стороны вмешиваться в геймплей или баланс, и речи быть не может, даже если говорить о The Elder Scrolls, где фанатское творчество исконно играло ключевую роль в обеспечении популярности серии. Почему? Переходим к проблемам 3 и 4.

Проблема 3: Игра по чужим правилам


Тем, кто играл в азиатские MMORPG, такая ситуация отлично знакома. Будучи совсем зеленым новичком, вы играете в безопасном загончике, проходите квесты один за другим, прокачиваете своего персонажа и чувствуете себя хозяином ситуации, тем самым избранным, о котором говорилось в пророчестве и которому все по плечу. Так продолжается до тех пор, пока вы не достигнете определенного уровня, после чего вас отправляют в огромный открытый мир. И вот вы, ничего не подозревая, подбегаете к точке, отмеченной на карте, где, по словам NPC, должен находиться лагерь гоблинов, и беспомощно наблюдаете, как персонаж 100+ уровня, буквально уничтоживший вас одним ударом, снимает с вашего трупа легендарную броню, с огромным трудом добытую в самом первом подземелье. А как вы хотели? Здесь у нас Free PVP как никак! Впрочем, на этом ваши беды не кончаются: воскреснув в ближайшем городе, вы обнаруживаете дебафф в 50% на получение опыта.


Хотел пофармить? Сначала придется пройти через этих ребят

Если отбросить маркетинговую чепуху про хардкор, превозмогание, суровый мир для настоящих ценителей жанра, то, с точки зрения издателя, подобный гейм-дизайн преследует единственную цель вынудить вас потратить как можно больше денег. Ведь во внутриигровом магазине всего за $4,99 вы можете приобрести защитный амулет, который не даст противнику обобрать ваше тело (разумеется, одноразовый), а также зелье очищения, снимающее с вашего персонажа штраф к получаемому опыту. Вас заведомо ставят в такие условия, чтобы вы были вынуждены платить для более-менее комфортной игры, и Free PVP является самым лучшим стимулом, благо абсолютно в любом проекте отыщется достаточно желающих поиздеваться над новичками. Наверное, единственной MMORPG, где нуб может противостоять ветерану, используя знания механик, является EVE Online: особенности геймплея позволяют игроку избегать засад и на равных сражаться с более сильным (с точки зрения прокачки и вооружения) противником. Но это исключение лишь подтверждает правило.


EVE Online единственная MMORPG, где тащат острый ум и прямые руки

Но при чем здесь облачные сервисы и одиночные игры? спросите вы. Порочные практики из азиатских MMORPG уже давно перекочевали в ряд сингловых проектов. Взять хотя бы Assassins Creed: Odyssey: здесь вам и paywall (выполняй все побочные квесты, иначе отстанешь по уровню и не сможешь убить даже рядового наемника), и таймсейверы для тех, кто не хочет гриндить, и эксклюзивные предметы во внутриигровом магазине, которые невозможно достать игровым путем.


Assassins Creed: Odyssey: любой каприз за ваши деньги

Внедрение PVP, которое будет вызывать дискомфорт у игрока, является вполне логичным шагом, благо примеры реализации механик player-vs-player в синглах также существуют.

В играх серии Souls PVP весьма органично вписывается в концепцию игровой вселенной: существует множество параллельных миров, границы между которыми истончились, чем и могут воспользоваться как герои, так и злодеи. Вы можете вторгнуться в чужой мир, подключившись к сессии другого игрока, чтобы сразиться с ним или же, напротив, помочь в убийстве очередного босса. Однако если эта механика вас не устраивает и вы желаете насладиться атмосферой темного фэнтези в полном одиночестве, то можете просто перевести клиент Steam в офлайн-режим.


Хотя Dark Souls является сингловым проектом, в нем нашлось место и для PVP

Вот только, если игра находится на серверах cloud-сервиса, отключиться от сети вы не сможете, даже если очень сильно этого захотите. Впрочем, чтобы поиграть с комфортом, всегда можно приобрести специальный оберег, который стабилизирует ткань мироздания и препятствует вторжению злоумышленников в вашу реальность, всего за $4,99. Конечно же, силы артефакта будут со временем истощаться, так что каждые три часа придется покупать новый. Но ведь оно того стоит, не так ли?

И не надо думать, что подобные практики никогда не затронут крупные AAA-проекты. Во-первых, уже затронули, пусть и не в той мере, как в азиатских MMORPG, но это лишь вопрос времени. Во-вторых, в мобильных играх можно встретить куда более жесткие схемы монетизации и ничего: люди тратят сотни (и тысячи, и даже миллионы) долларов, считая это абсолютно нормальным. Так что в случае с большими играми все упирается в фактор времени: нужно лишь подождать, пока подрастет поколение игроков, которые и слыхом не слыхивали об играх, где костюмы даются в качестве бонуса за прохождение, сюжет целостный и не требует покупки отдельных квестов по цене до от стоимости самой игры, а геймплей сбалансирован таким образом, чтобы приносить игроку удовольствие, а не вынуждать платить еще больше. Ну а в-третьих, в модели игр по подписке издатели неизбежно станут закручивать гайки. И вот почему.

Проблема 4: Нужно больше золота!


Портал GameRevolution провел весьма интересное исследование, посвященное тому, как люди проходят видеоигры, на примере 12 тайтлов. Цифры говорят сами за себя.

Игра


Доля игроков, прошедших игру до конца


Detroit: Become Human


61,7%


God of War


53,6%


Marvels Spider-Man


50,3%


Yakuza Kiwami 2


49,1%


Uncharted 4: A Thiefs End


41,7%


Darksiders 3


37,9%


Far Cry 5


35,8%


Persona 5


34,8%


Assassins Creed Odyssey


24,6%


Red Dead Redemption 2


22%


Dead Cells


15%


Crash Bandicoot


12,6%



Оказывается, даже топовые эксклюзивы PlayStation, вокруг которых традиционно кипит ажиотаж, проходят в среднем лишь 50% владельцев, тогда как менее распиаренные релизы не могут похвастаться даже такими цифрами.


Пройти Uncharted могут не только лишь все. Мало кто может это сделать...

Когда речь заходит о традиционной модели дистрибуции на физических носителях или в цифре, с точки зрения издателя, процент прохождений не играет какой-либо значимой роли, ведь человек уже заплатил $60 (или $120, если речь идет об Ultra Premium Elite First Day Edition). Конечно, было бы здорово, чтобы игрок приобрел все DLC и потратился во внутриигровом магазине (при наличии такового), но базовая сделка в любом случае уже заключена и свои деньги издатель получил.

В случае же с подпиской издателю будет начисляться определенный процент от прибыли платформы, который будет тем выше, чем больше людей играют в ту или иную игру и чем дольше они это делают. Это неизбежно выльется в еще более навязчивую, чем это реализовано сейчас, эксплуатацию аддиктивных механик, в искусственное затягивание прохождения, а также в использование более грубых методов монетизации вроде описанного выше принудительного PVP, дабы успеть получить с игрока как можно больше денег в ограниченный промежуток времени на тот случай, если увлечь его надолго не удастся. Как следствие, крупные проекты с действительно интересным и разнообразным геймплеем вымрут как класс и в конечном счете мы получим нечто вроде тех же мобильных игр, только в безумно дорогой и красивой обертке.

Что же имеем на выходе? Как бы пафосно это ни прозвучало, игнорируя сервисы облачного гейминга, отдавая предпочтение традиционным платформам, будь то ПК или консоли, и отказываясь от модели предоставления доступа к играм по подписке, мы с вами голосуем рублем за оздоровление игровой индустрии, за возможность играть в будущем в добротные, оригинальные сингловые проекты, а не безликие клоны, весь геймплей которых сводится к бесконечному гринду. И поверьте, это стоит того, чтобы подождать пару-тройку месяцев, подкопив на игровой ПК, благо с нынешним уровнем производительности комплектующих это не так уж и сложно.
Подробнее..

Количество VS качество главные проблемы игр с открытым миром

05.02.2021 20:16:55 | Автор: admin

В последние годы игры с открытым миром стали чрезвычайно популярны. Подобные проекты есть практически у каждого крупного издателя, да и независимые разработчики не отстают, благо современные технологии существенно упростили процесс создания бескрайних виртуальных просторов. Но, как говорится, важен не размер, а умение пользоваться. Зачастую сама модель openworld оказывается неуместной, ломая нарратив и разрушая атмосферу даже в том случае, когда все прочие аспекты игры выполнены на достаточно высоком уровне. Сегодня мы попробуем разобраться, почему так происходит и где пролегает тонкая грань между отвратительным и великолепным открытым миром.

Конфликт геймплея и повествования


Давайте не будем теоретизировать впустую, а рассмотрим типичные ошибки гейм-дизайна на примере конкретных тайтлов разных лет. Для начала вернемся в прошлое и вспомним Vampire the Masquerade: Bloodlines, предоставляющую нам уникальную возможность почувствовать себя в шкуре новообращенного вампира. Перед нами яркий пример отличной RPG с ужасным открытым миром.

Рекламный постер Vampire the Masquerade: Bloodlines

Ролевая система VtMB отлично проработана. Каждый квест в игре уникален и имеет несколько вариантов прохождения, а большинство заданий радуют игрока неожиданными сюжетными поворотами, заставляющими совершенно иначе взглянуть на происходящее и кардинально поменять свое отношение к участникам событий (причем это касается как основной сюжетной линии, так и побочных).

Тереза или Жанетт? Судьба этой парочки в ваших руках

Огромное влияние на геймплей оказывает и первоначальное создание персонажа: от выбора клана зависят уникальные особенности нашего протагониста, а распределение очков навыков и тактика дальнейшей прокачки (получить все умения, как в современных проектах, лишь пытающихся казаться ролевыми, но на деле таковыми не являющимися, здесь не выйдет) определяют дальнейший стиль игры и отыгрыш выбранной роли.

И хотя основной сюжет Bloodlines можно завершить часов за 20, а полное прохождение занимает 40 часов максимум, если игра вас зацепит, вы проведете в ней и 100, и 200, и 1000 часов, ведь благодаря развитой ролевой составляющей каждое новое прохождение не будет похожим на все предыдущие.

Играя за уродливых носферату, вы не сможете общаться с обычными людьми и будете вынуждены перемещаться по канализации

Реализацию же самого открытого мира иначе, чем отвратительной, не назовешь. Действие Vampire the Masquerade: Bloodlines происходит в ночном Лос-Анджелесе. Город разделен на четыре района: Санта-Моника, Голливуд, Даунтаун и Чайна-таун, каждый из которых представляет собой обособленный загончик, который мы никак не сможем покинуть благодаря невидимым стенам, что само по себе негативно сказывается на погружении. Перемещаться между районами можно единственным способом используя такси, которое будет услужливо ожидать нас на одном и том же месте в каждой локации. Кстати, никаких машин по улицам не ездит, и, хотя все действо по понятным причинам происходит ночью, когда движение не столь оживленное, полное отсутствие автотрафика выглядит странно.

Автомобили в игре встречаются, но только на парковках и в катсценах

Местные жители представляют собой безмозглых болванчиков, которые большую часть времени перемещаются по жестко заданным зацикленным маршрутам, хотя еще в вышедшей двумя годами ранее Gothic 2 каждый NPC имел собственное расписание и достаточно внушительный набор действий, что делало компьютерных персонажей, да и мир в целом, куда более живым.

Хоринис маленький, но по-настоящему живой портовый город из Gothic 2

Каких-то побочных активностей, не связанных с квестами, здесь попросту нет: все, что может делать главный герой, питаться от прохожих и находить новых квестодателей. Или устроить бойню, что фатально скажется на прохождении: нарушение маскарада является самым страшным грехом для вампира, и жестокая кара со стороны сородичей не заставит себя ждать. Ах да, еще можно потанцевать в ночном клубе, хотя здешние танцы больше напоминают эпилептические конвульсии.

Да и сам openworld получился излишне камерным: локации весьма компактны, и все точки интереса на них расположены рядом друг с другом, что лишь усиливает чувство нереальности происходящего. Можно подумать, что наш протагонист стал участником дорогого спектакля: какими бы шикарными ни были декорации, ограниченное пространство театра разрушает все иллюзии.

Тем более символично выглядит тот факт, что основной сюжет начинается в заброшенном театре

Пример Vampire the Masquerade: Bloodlines наглядно демонстрирует, что само по себе наличие открытого мира еще ничего не решает. Игра стала культовой именно благодаря проработанной ролевой системе и вопреки многим другим аспектам, среди которых не последнее место занимал и довольно неказистый открытый мир.

Когда важна каждая мелочь


Но как же выглядит идеальный openworld? Быть может, он должен быть наполнен мельчайшими деталями или предлагать игроку разнообразный дополнительный контент? А может быть, будет достаточно реалистичной графики и взаимодействия с окружением? На самом деле ни то, ни другое, ни третье, и все сразу. В идеале открытый мир должен гармонично переплетаться с историей, сеттингом и геймплеем, не вызывая у игрока лудонарративного диссонанса так называется ситуация, когда игровой процесс вступает в прямой конфликт с повествованием или лором игры.

Продолжим вампирскую тематику, но рассмотрим уже другой пример Legacy of Kain: Soul Reaver. Открытый мир в этой игре не предлагает ничего, кроме сражений, поиска артефактов, усиливающих Разиеля, и порталов для быстрого перемещения между локациями. Все прочие приключения и головоломки, с которыми сталкивается наш протагонист, вписаны в основной сюжет, так что обилия побочных активностей вы здесь не найдете. И это абсолютно логично и правильно.


Мир Soul Reaver можно охарактеризовать как вампирский постапокалипсис: большая часть человечества истреблена, оставшиеся люди держат оборону в немногочисленных городах-крепостях, да и сами здешние вампиры давно превратились в отвратительных монстров, немногим отличающихся от зомби. Безжизненные руины Ностгота, по которым путешествует Разиель, гармонично сочетаются с сеттингом, ведь если бы главный герой на каждом шагу встречал чудом оставшихся в живых людей или не утративших рассудок и человеческий облик вампиров, раздающих второстепенные квесты, игра лишилась бы львиной доли своего очарования: атмосфера безысходности и обреченности была бы полностью разрушена.

О былом величии Ностгота напоминают лишь древние развалины

Яркая противоположность Soul Reaver и еще одна иллюстрация того, как надо делать открытые миры, игры Rockstar Games. К той же Grand Theft Auto V можно относиться как угодно, однако отрицать, что перед нами шедевр, попросту язык не поворачивается.



В данном случае разработчики постарались оживить виртуальный мир за счет добавления огромного количества деталей, начиная от реалистичного поведения одежды на персонажах и заканчивая симуляцией лунных фаз.

Чтобы в полной мере оценить небывалый уровень проработки многочисленных нюансов, достаточно ознакомиться с альбомом, в котором пользователь Reddit под ником Alexxd94 собрал свыше 800 наиболее интересных примеров. Вот один из них. Когда персонаж надевает солнцезащитные очки, то при переключении к виду от первого лица к изображению применяется соответствующий фильтр, оттенок которого зависит от цвета стекла. Однако если ваш протагонист носит очки достаточно долго, его глаза постепенно адаптируются и интенсивность тонировки снижается.


Этот нюанс заметят и оценят единицы, тем не менее RockStar его учли. Ведь наряду с необязательными побочными активностями (вы можете поиграть в боулинг, гольф или покер, заняться спортом, сходить в кино, приобщиться к дайвингу и сделать многое, многое другое) такие мелочи работают на целостность и достоверность мира: в глазах игрока Лос-Сантос становится по-настоящему живым и интересным.

В Legend of Zelda: Breath of the Wild используется несколько иной подход. Безусловно, и в этой игре присутствует внимание к мелочам, однако основной акцент сделан именно на геймплее, что вполне логично: отправляясь в сказочный Хайрул, игрок хочет насладиться невероятными приключениями и почувствовать себя первооткрывателем в неизведанном мире, поэтому реалистичная симуляция повреждений наподобие той, что используется в GTA V, здесь не нужна, тогда как занятные механики, позволяющие преодолевать те или иные трудности, просто необходимы.

После драк в GTA V на лицах персонажей появляются ссадины и кровоподтеки, которые заживают со временем

И таковых здесь великое множество. Хотите спуститься по склону в долину? Используйте собственный щит вместо доски для сноуборда! Данный прием работает на любой поверхности, однако лучше всего вы сможете разогнаться на снегу или в дождливую погоду, когда земля становится мокрой и скользкой.


В локациях с низкой температурой можно замораживать продукты, чтобы они дольше хранились. Для этого достаточно бросить нужный предмет на землю и немного подождать, пока он не обледенеет.


Путешествуя по пустыне, не забудьте вооружиться ледяным мечом: заговоренный клинок, излучающий морозную прохладу, поможет Линку легче переносить жару.


Для открытия прохода требуется пара электрических шаров, но вы нашли поблизости только один? Не беда! Установите его на нужное место, а затем выложите цепочку из любых металлических предметов, подведя электричество ко второму постаменту, и врата откроются!


Грозовая буря застала вас в пылу битвы? Заставьте стихию работать на вас! Просто киньте металлический предмет в противника и во врага ударит молния, которая нанесет ему серьезный урон, а то и вовсе убьет.


А вот еще один лайфхак: если на охоте использовать огненные стрелы, то в качестве добычи вы получите прожаренное, готовое к употреблению мясо, а заодно сэкономите время на приготовление пищи.


Существует и альтернативный способ быстрой готовки. Бросив мясо в горящую траву или на раскаленные камни вулкана, через несколько секунд вы получите в свое распоряжение аппетитное блюдо.


Подобных неочевидных, но вполне логичных механик в игре огромное количество. Именно они и делают исследование Хайрула по-настоящему интересным и захватывающим.

Прыгнуть выше головы


Аналогичный подход используется и в Metal Gear Solid V. За 30 лет существования франшизы Хидео Кодзима приучил игроков к тому, что в мире Metal Gear возможно все. Здесь могут уживаться драма и комедия на грани фола, фантастические гаджеты и реально существующие образцы оружия, глубоко проработанные персонажи и откровенно гротескные ребята вроде толстяка-сапера на роликовых коньках или эскимосского шамана с авиационным пулеметом, а любые странности и нестыковки объясняются емким: Nanomachines, son!. Поэтому, когда дело дошло до создания первой в серии игры с открытым миром, японский гейм-дизайнер оторвался по полной программе, предложив игрокам своеобразный парк развлечений в милитари-тематике.


Получив задание, вы сами вольны решать, каким именно образом достигнете цели. Вы можете отправиться на дело в одиночку или взять с собой напарника, пройти миссию в стиле стелс, отвлекая дозорных эротическими журналами и усыпляя из транквилизаторного пистолета, вооружиться какой-нибудь смертоносной игрушкой из весьма обширного арсенала или угнать танк и аннигилировать всех и вся на своем пути, а в трудную минуту запросить поддержку с воздуха или артиллерийский удар по заданной позиции. Огромное количество разнообразных геймплейных механик и возможность их комбинировать позволяют сделать прохождение любой, даже самой банальной миссии неповторимым.

Есть военная база и отвественная миссия. Способы проникновения на объект и выполнения поставленной задачи выбирает сам игрок

Ну а отдельным видом развлечения, воспетым в мемах, является воровство всего, что не прибито и не прикручено, включая солдат противника для последующей перевербовки, с помощью системы Фултона, представляющей собой высокотехнологичные воздушные шарики.

Другой эксперимент Хидео Кодзимы с открытым миром также оказался весьма интересным, хотя в этот раз японский гейм-дизайнер сделал все с точностью до наоборот: вместо добавления множества механик он сосредоточился на детальной проработке одной-единственной перемещения по постапокалиптическим пустошам. И если в большинстве openworld-проектов следование из точки A в точку B является наиболее скучной частью геймплея, то в Death Stranding, напротив, именно путешествия и процесс подготовки к ним оказываются самым увлекательным из всего, что только есть в игре.

Death Stranding самый амбициозный симулятор пешего туризма

Оно и немудрено: ведь, чтобы добраться до пункта назначения и доставить груз, вам придется тщательно подобрать экипировку (раскладные лестницы, тросы, запасные ботинки и т.д.), а также правильно распределить вес, чтобы протагонист меньше уставал и не спотыкался на каждом шагу.


Одна беда: в жертву core-геймплею были принесены все прочие аспекты. Хотя боевых секций в Death Stranding немного, они все же имеют место, и это, пожалуй, худшая часть игры, особенно если сравнивать с MGS: сражения и с рядовыми противниками, и с боссами получились удивительно скучными. Стелс чуть получше, но и он проигрывает тому, что мы уже видели в рамках главного детища Кодзимы, что заставляет задаться логичным вопросом: почему он не использовал собственные наработки из своих прошлых творений?

Впрочем, ответ лежит на поверхности. Death Stranding стала первой игрой Кодзимы, выпущенной после ухода из Konami. Фактически гейм-дизайнеру пришлось начинать с нуля (он даже не имел прав на разработанный его командой движок Fox Engine, использовавшийся при создании MGS V), а поскольку игра была весьма амбициозной, Хидео был вынужден заручиться поддержкой Sony. Для японского гиганта проект стал во многом имиджевым, поэтому Кодзима получил хорошее финансирование на условиях временной эксклюзивности и известную долю творческой свободы, но лишь долю, ведь, как известно, кто девушку ужинает, тот ее и танцует.

Грандиозные задумки Кодзимы редко укладываются в доступный бюджет

В частности, по данным известного инсайдера Dusk Golem, изначально Кодзима хотел сделать игру куда более мрачной (чуть ли не научно-фантастическим хоррором), однако Sony посчитала, что это отпугнет аудиторию от и без того нишевого проекта, и настояла на том, чтобы из финальной версии игры подобные элементы были полностью убраны. А примерно за 1,5 года до релиза проект был мягко перезапущен. Точные причины софт-релонча неизвестны, однако это в любом случае не могло не сказаться на ходе разработки. Судя по всему, Кодзима в данной ситуации принял единственно правильное решение: не распыляться, а сосредоточить усилия на проработке ключевых механик, что и объясняет недостатки боевой системы.

По крайней мере, во время боя можно сделать прикольное селфи

И тут мы подходим к фундаментальной проблеме практически всех игр в открытом мире, независимо от жанра и сеттинга: их разработка требует огромных временных, финансовых и трудозатрат, объем которых зачастую невозможно предсказать заранее. Именно поэтому многие такие проекты получаются либо весьма однобокими, либо сырыми и недоработанными, как это произошло с CyberPunk 2077.


Попав в ловушку собственных амбиций, в CD Project Red попросту не смогли совладать со своим детищем, и это несмотря на многократные переносы релиза. Результат закономерен: отличное повествование, проработанные персонажи и превосходный визуал здесь соседствуют с крайне невыразительным с точки зрения механик открытым миром и обилием багов. Версии же для консолей прошлого поколения получились и вовсе неиграбельными: все оказалось настолько плохо, что Sony официально сняла CyberPunk 2077 с продаж, предложив всем владельцам игры вернуть средства без каких-либо дополнительных условий.

Впрочем, даже когда речь заходит об удачных релизах, полностью избежать тех или иных проблем не удается. Давайте вспомним замечательную The Elder Scrolls IV: Oblivion, удостоенную в 2006 году звания Game of the Year и множества престижных наград, и сравним с уже упомянутой нами Gothic 2. А для анализа возьмем такой аспект, как гильдейские квесты.

The Elder Scrolls IV: Oblivion прекрасная, но неидеальная игра

Протагонисты обеих игр имеют возможность вступать в местные гильдии, однако подход разработчиков к этой части кардинально различается. В Готике главный герой может присоединиться на выбор к паладинам, магам огня или наемникам. Делает он это сугубо для достижения главной цели, и, поскольку каждая из фракций находится в напряженных отношениях с другими, сотрудничать сразу со всеми не выйдет: став паладином, вы сможете присоединиться к магам лишь при повторном прохождении. Закономерно, что выбор влияет на отношение к вам различных NPC, доступность квестов, прокачку навыков и, как следствие, на стиль прохождения.

Став паладином, вы сможете попробовать себя в другом амплуа лишь при следующем прохождении

Oblivion исповедует принципиально иную идеологию. Квестовые линейки гильдий здесь являются побочными, причем разработчики никак не ограничивают игрока: вы можете вступить в каждую из них, завершить все задания и даже возглавить соответствующую фракцию. С одной стороны, это позволяет увидеть максимум контента за одно прохождение, но в то же время приводит к весьма забавным казусам. Вот один из примеров.

Присоединившись к гильдии магов, вы делаете головокружительную карьеру, становясь в итоге ее главой. Далее вы решаете попытать счастья в гильдии воров и в конце концов получаете ответственное задание похитить посох архимага из его собственного кабинета. То есть ваш посох из ваших собственных покоев. В итоге вся миссия сводится к посещению личной резиденции и передаче невесть откуда взявшегося там посоха (к слову, довольно бесполезного по сравнению с уже полученной вами экипировкой) вашему наставнику.

Ситуация осложняется тем, что в Oblivion есть система репутации: чем больше подвигов совершил наш герой, тем более известным он становится. Доходит до того, что вас могут узнать на улице и подойти с какой-нибудь просьбой. Но члены гильдий, видимо, не подписаны на Вороной курьер (местная газета) и не в курсе последних событий. Одним словом, лудонарративный диссонанс во всей своей красе.

В гильдиях Сиродила никому не интересно ни ваше темное прошлое, ни светлое будущее

Кстати, этот термин был впервые использован в 2007 году Клинтом Хокингом креативным директором Ubisoft, получившим известность благодаря таким играм, как Splinter Cell: Chaos Theory и Far Cry 2. Как вы могли догадаться, больше Хокинг в Ubisoft не работает, что вполне закономерно: сегодняшнее руководство компании не заботят такие мелочи, как гармоничное сочетание повествования и геймплея, а конвейерные проекты издателя являются отличным примером того, как не надо делать игры с открытым миром. И раз уж речь зашла о серии Far Cry, нельзя не вспомнить вот это замечательное видео.

Как мы видим, в своих проектах Ubisoft всецело сосредоточена на оптимизации расходов на разработку. Практически все свои сериалы компания стремится привести к общему знаменателю, эксплуатируя одни и те же подходы и успешно избавляясь от ненужных (читать ресурсозатратных) механик. На выходе мы с вами получаем шедевры вроде Far Cry New Dawn и Ghost Recon Breakpoint абсолютно безликие, крайне посредственные и скучные лутер-шутеры, в которых радости не приносит даже сам процесс добычи новой экипировки, хотя именно это является основой подобных игр.

Не миновала сия печальная участь и Assassin's Creed. Если на релизе Origins еще теплилась надежда на то, что Ubisoft решила возродить и обновить серию, то уже с выходом Odyssey все иллюзии окончательно развеялись и стало понятно, что издатель стремится сделать нечто вроде офлайн-MMORPG, разумеется, не забыв о фирменной оптимизации.

Сегодня сага об ассасинах больше всего напоминает Perfect World в дорогой обертке. В китайской MMO вам могли на протяжении нескольких минут рассказывать о духовном развитии и философии, а затем послать уничтожать мутировавших росянок. То же самое можно наблюдать в Odyssey или Valgalla: разница лишь в том, что здешние NPC общаются с вами голосом, а не текстом, и имеют неплохую лицевую анимацию. В остальном мы видим все то же самое: что бы ни поведал вам квестодатель, все сводится к однообразным действиям вроде зачистки очередного лагеря, без какой-либо вариативности.

Хотя ничего удивительного здесь нет: если такие произведения искусства, как Red Dead Redemption 2, разрабатываются по 8 лет, то номерные части Assassin's Creed выходят с интервалом 12 года, и, чтобы такой конвейер работал, приходится жертвовать очень многим. И так будет продолжаться ровно до тех пор, пока люди из года в год покупают эту жвачку для мозга, а вместе с ней и бустеры на прокачку во внутриигровом магазине, чтобы (вот ведь парадокс) как можно меньше соприкасаться с чрезвычайно нудным игровым процессом.

К счастью, еще остались компании вроде той же Rockstar, которые, будучи заложниками собственной репутации, продолжают выпускать добротные игры с открытым миром, так что без поделок Ubisoft вполне можно обойтись. Да и инди-сегмент периодически радует масштабными проектами наподобие Subnautica, изобилующими интересными механиками и предлагающими невероятный простор для творчества.

В Subnautica к услугам игрока огромный подводный мир, полный тайн и загадок

Это еще один яркий пример правильной реализации openworld. Хотя здесь нет сотен знаков вопросительных знаков на карте, виртуальное пространство игры действительно интересно изучать: благодаря разнообразию флоры и фауны, множеству биомов и загадок, которые они скрывают, необходимостью выживать и сбалансированной прогрессии, поощряющей ваше стремление к ислледованиям, вы чувствуете себя настоящим первопроходцем на неизведанной ранее планете. Увы, подобные эмоции сегодня могут подарить лишь единичные AAA-проекты.

Идеальный накопитель для игр с открытым миром


С играми в открытом мире связана и еще одна серьезная проблема: любой подобный проект, независимо от глубины геймплейной составляющей и внимания к деталям со стороны разработчиков, требует весьма серьезных вычислительных мощностей. Причем это касается вашей игровой системы в целом, ведь пресловутым бутылочным горлышком могут стать не только видеокарта или центральный процессор, но и сам накопитель, на котором установлена игра.

Размеры игровых миров достигли невиданных масштабов, а с улучшением качества графики для визуализации бескрайних просторов той же Red Dead Redemption 2 компьютеру приходится обрабатывать огромное количество данных, периодически подгружая все новые и новые ассеты, ведь ПК, способного одновременно держать в памяти все необходимое для отрисовки 75км2 детализированного виртуального пространства, попросту не существует.


Если вы установите эту игру на обычный винчестер, то даже при наличии топовых CPU и видеоускорителя неизбежно будете испытывать проблемы в виде фризов, вызванных слишком медленной загрузкой файлов, необходимых для построения новых локаций. И все это при том, что та же RDR2 игра, изначально выпущенная на консолях прошлого поколения, разработчикам которой пришлось учитывать, что их проект будет запускаться в том числе на маломощных платформах, оснащенных медленными винчестерами. В текущем же поколении игровых приставок используются высокоскоростные SSD, а это значит, что для комфортной игры в новые игры, которые начинают выходить уже сейчас, без производительного твердотельного накопителя никак не обойтись.

Не стоит забывать и об инди-сегменте, хотя в данном случае требовательность к производительности бывает обусловлена не кинематографичной графикой, а поддержкой модификаций, без которых иные проекты становятся на порядок скучнее. Ярким примером здесь можно назвать RimWorld, который вполне вписывается в каноничное определение игры с открытым миром. Разница в том, что мы управляем группой колонистов и в нашем распоряжении оказывается целая планета, которую мы вольны исследовать вдоль и поперек, как нам заблагорассудится.


Моддерское комьюнити RimWorld является одним из самых сильных: в мастерской Steam вы найдете огромное количество глобальных модификаций, добавляющих в игру целые отрасли (атомную энергетику, технологии утопических миров, полеты на космических кораблях, продвинутую медицину), новые биомы и фауну, наборы экипировки, разнообразные улучшения AI колонистов и боевой системы, кастомные сценарии и многое, многое другое. При желании вы можете собрать настоящую игру мечты, но расплатой за это станет многократное увеличение времени загрузки. Хотя оригинальный RimWorld отлично работает даже на калькуляторе, после установки 300+ модификаций (а оно того, поверьте, стоит) время запуска игры с жесткого диска возрастает до 30 минут: винчестер оказывается неспособным адекватно справиться с загрузкой множества XML-файлов, описывающих различные виртуальные сущности.

Несмотря на упрощенную графику, RimWorld с несколькими сотнями модов будет загружаться более получаса

Впрочем, решить проблему длительных загрузок довольно просто, благо в портфолио Western Digital вы без труда отыщете подходящий накопитель практически под любую платформу. Так, обладатели игровых компьютеров на базе материнских плат с чипсетом X570 и центральных процессоров Ryzen 3000/5000 уже сейчас могут приобрести самый быстрый из представленных на рынке NVMe SSD WD_BLACK SN850, способный без особого труда справиться с любой AAA-игрой в открытом мире.

Специально же для владельцев систем с поддержкой PCI-Express 3.0 мы разработали плату расширения WD_BLACK AN1500, которая, лишь немного уступая по производительности накопителям нового поколения, позволяет наслаждаться непревзойденной скоростью в самых навороченных проектах без дорогостоящего апгрейда. Впрочем, не будем забегать вперед и остановимся на каждом из перечисленных продуктов более подробно.

Линейка NVMe SSD WD_BLACK SN850 включает в себя три модели емкостью 500 ГБ, 1 и 2 ТБ. Накопители выполнены в форм-факторе M.2 2280 и доступны в двух вариантах:

  • версии без радиатора, которые имеют толщину 2,38 мм и прекрасно подходят для установки на материнские платы со встроенной системой активного охлаждения слота M.2 или в игровой ноутбук;
  • версии с 9-миллиметровым радиатором (будут доступны для покупки весной 2021 года), отводящим тепло от контроллера SSD, что помогает избежать троттлинга и обеспечивает стабильный уровень производительности при пиковых нагрузках.


WD_BLACK SN850 с радиатором также получат встроенную светодиодную подсветку, которую можно будет настраивать через сервисное приложение WD_BLACK Dashboard, поставляемое с каждым устройством. Помимо этого, для управления светодиодным модулем можно будет использовать фирменные утилиты от производителей материнских плат, среди которых Asus Aura Sync, Gigabyte RGB Fusion и MSI Mystic Light Sync.

Кстати, управление RGB-подсветкой отнюдь не единственное, на что способно это приложение. WD_BLACK Dashboard предлагает полный набор инструментов для обслуживания твердотельного накопителя: с ее помощью вы можете оценить состояние SSD, запустить сборку мусора или загрузить актуальную версию прошивки. Кроме того, данная утилита позволяет перевести накопитель в режим максимальной производительности (Gaming mode) за счет полного отключения энергосберегающих функций, что поможет забыть о фризах, вызванных подгрузкой текстур и ассетов, даже в самых тяжелых играх.


По сравнению с предыдущим поколением игровых SSD от Western Digital, в SN850 заметно изменилась топология печатной платы. Новый 8-канальный контроллер WD Black G2 (SanDisk 20-82-1003) был перенесен поближе к разводке контактов, в средней части твердотельного накопителя распаян микрочип DDR4-буфера емкостью 1 ГБ, тогда как кристаллы флеш-памяти переместились в правую часть SSD.


Подобно предшественнику, WD_BLACK SN850 имеет одностороннее исполнение: на обратной стороне текстолита вы не найдете SMD-компонентов.


Такая компоновка обеспечивает наиболее оптимальное охлаждение накопителя, также позволяя без проблем устанавливать модели без радиатора в низкопрофильные слоты.

WD_BLACK SN850 были созданы на базе высокоскоростной 96-слойной флеш-памяти 3D NAND BiCS четвертого поколения, отличающейся не только быстродействием, но и расширенным ресурсом перезаписи: таковой варьируется от 300 ТБ для накопителей емкостью 500 ГБ до 1200 ТБ у 2-терабайтных моделей. Таким образом, даже если вы будете ежемесячно перезаписывать 120 терабайт файлов (что практически нереально), флагман WD_BLACK SN850 исправно прослужит вам не менее 10 лет.

Что же касается производительности, то здесь SN850 демонстрирует поистине впечатляющие показатели: вплоть до 7000 МБ/с в операциях последовательного чтения и до 5300 МБ/с при последовательной записи. Это стало возможным отнюдь не только благодаря переходу на новую версию интерфейса PCI Express 4.0. Весьма важную роль сыграл оригинальный контроллер WD Black G2 собственной разработки Western Digital. Среди всего многообразия инноваций, реализованных в WD_BLACK SN850, необходимо выделить следующие:

  • обновленная микроархитектура и улучшенная микропрограмма способствовали сокращению накладных расходов на передачу данных, что помогло достичь впечатляющего показателя в 1 миллион операций ввода/вывода в секунду (для моделей на 1 и 2 ТБ);
  • технология динамического SLC-кэширования обеспечивает стабильную производительность даже при чтении/записи объемных файлов или работе в многопоточном режиме;
  • внедрение поддержки IPR (Independent Plane Reads) помогло дополнительно оптимизировать быстродействие SSD при обработке малых очередей запросов и минимизировать время задержки их выполнения.

Возможности нового WD_BLACK SN850 можно наглядно оценить по результатам тестирования в PCMark 10. В отличие от подавляющего большинства собратьев, данный бенчмарк включает в себя обширный арсенал тестов, эмулирующих работу архиваторов, видео- и аудиокодеков, популярных приложений (Microsoft Excel, Adobe Illustrator, Adobe Photoshop) и компьютерных игр (Battlefield V, Call of Duty Black Ops 4, Overwatch).


Для тестирования твердотельных накопителей в PCMark 10 предусмотрено несколько сценариев, однако наиболее показательными из них являются Full System Drive Benchmark, позволяющий оценить, как SSD справится с экстремальными нагрузками, и более легковесный Quick System Drive Test, весьма точно имитирующий реальные задачи, с которыми пользователи ПК сталкиваются ежедневно.

В режиме Full System Drive Benchmark выполняются 23 трассировки, по 3 прохода каждая, во время которых на диск записывается около 204 ГБ данных. И здесь SN850 становится абсолютным лидером, оказываясь быстрее конкурентов на 15%.


Аналогичную картину мы можем наблюдать и в ходе тестирования пропускной способности твердотельного накопителя.


В тесте на среднее время доступа к данным накопитель SN850 также уверенно закрепился на первом месте, обойдя прежнего чемпиона, Samsung SSD 980 PRO, на 8микросекунд.


Quick System Drive Benchmark использует лишь 6 трассировок, каждая из которых также выполняется по 3 раза, и в данном сценарии на SSD записывается лишь 23 ГБ данных. При более щадящей нагрузке разрыв между лидерами немного сокращается, а Plextor M9P+ даже обгоняет Samsung 980 Pro, однако SN850 по-прежнему занимает первое место с перевесом в 13%.


В тесте на полосу пропускания ситуация идентична.


Среднее время доступа к данным также сократилось, однако в процентном соотношении мы видим вполне ожидаемый результат: WD_BLACK SN850 оказывается быстрее конкурентов на 14%.


Таким образом, на сегодняшний день именно WD_BLACK SN850 является самым быстрым в мире NVMe-накопителем с поддержкой интерфейса PCI-Express 4.0. Не случайно авторитетное издание TweakTown назвало SN850 лучшим потребительским SSD среди доступных на рынке в настоящее время, присудив награду Выбор редакции.


Но как же быть тем, чьи компьютеры не поддерживают новейший стандарт? Если вы не планируете в ближайшее время обновлять свою систему на базе процессора Intel или Ryzen 2000-й серии, а возможностей обычных NVMe-накопителей, поддерживающих интерфейс PCI-Express 3.0, вам уже явно недостаточно, стоит обратить внимание на карту расширения WD_BLACK AN1500.


Устройство представляет собой аппаратный RAID 0, собранный из двух высокопроизводительных NVMe SSD. Дисковый массив работает под управлением контроллера enterprise-класса Marvell 88NR2241, отвечающего за распараллеливание потоков данных и балансировку нагрузки между накопителями. Каждый из пары SSD получил фирменный трехъядерный контроллер SanDisk 20-82-00705-A2 собственной разработки Western Digital. Подобно SN850, WD_BLACK AN1500 созданы на базе высокоскоростной 96-слойной флеш-памяти 3D NAND BiCS4. Благодаря этому ресурс перезаписи данного устройства варьируется от 600 до 2400 терабайт в зависимости от объема.


Далее простая математика. RAID с чередованием позволяет одновременно задействовать 8 линий PCI-E 3.0 вместо 4, как было бы в случае с обычным NVMe M.2 SSD, и за счет этого добиться удвоения производительности. Как следствие, WD_BLACK AN1500 демонстрирует честные 6500 МБ/с в операциях последовательного чтения и 4100 МБ/с при последовательной записи, а в отдельных сценариях его скорость оказывается еще выше.


Например, при работе с тестовыми блоками размером 1 МБ производительность WD_BLACK AN1500 вплотную приближается к показателям Samsung EVO 980 Pro, использующего интерфейс PCI-Express 4.0, причем скорость последовательного чтения возрастает до 6600 МБ/с, а последовательной записи до 5200 МБ/с. Впрочем, и в операциях со 128-килобайтными блоками AN1500 чувствует себя вполне комфортно, уверенно опережая даже 2-терабайтный Sabrent Rocket.


Среди отличительных особенностей WD_BLACK AN1500 необходимо выделить и продуманную систему охлаждения: массивный радиатор толщиной 13 мм эффективно отводит тепло от контроллеров и флеш-памяти, а расположенный с обратной стороны бэкплейт обеспечивает охлаждение и защиту SMD-компонентов от механических повреждений, также придавая карте расширения необходимую жесткость.


Эффективность такого подхода налицо: хотя при пиковой нагрузке в Gaming mode WD_BLACK AN1500 потребляет до 16 ватт электроэнергии, его температура без дополнительной вентиляции не превышает 55C (при 24C окружающей среды) на радиаторе и 67C на основном контроллере, что гарантирует стабильный уровень производительности.

При проектировании радиатора мы не забыли и о чисто эстетической стороне вопроса: WD_BLACK AN1500 может похвастаться эффектной, полностью настраиваемой RGB-подсветкой.


С помощью фирменной утилиты WD_BLACK Dashboard владелец накопителя может выбрать один из 13 доступных пресетов. Как и SN850, устройства WD_BLACK AN1500 совместимы со многими популярными утилитами для управления светодиодной подсветкой, включая Asus Aura Sync, Gigabyte RGB Fusion и MSI Mystic Light Sync.


Таким образом, установив WD_BLACK AN1500 в свой компьютер, вы уже сейчас сможете опробовать в деле всю мощь нового поколения твердотельных накопителей, и это без дорогостоящего апгрейда. А поскольку для подключения карты расширения достаточно одного слота PCI-Express 3.0 8, SSD будет прекрасно работать даже в сборках средней ценовой категории.
Подробнее..

Технологии противоударной защиты жестких дисков

15.02.2021 22:09:28 | Автор: admin


Поскольку жесткий диск является не просто электронным, а электромеханическим устройством, его главными врагами были и остаются сильная вибрация и удары. Но если вибрационное воздействие приводит к снижению производительности винчестера, что объясняется отклонением блока головок от заданной траектории и повторной инициализацией процедуры позиционирования, то даже достаточно сильный толчок (не говоря уже о падении) может спровоцировать полный выход накопителя из строя. Почему HDD такие нежные и на какие меры идут производители винчестеров для повышения их надежности? Попробуем разобраться.

Удары судьбы: почему жесткие диски такие хрупкие?


Прежде всего давайте вспомним, как устроен жесткий диск. Внутри HDD находится набор тонких металлических пластин (в просторечии блинов), покрытых слоем ферромагнетика вещества, способного сохранять намагниченность в течение длительного времени даже при отсутствии воздействия внешнего магнитного поля. Эти пластины вращаются с огромной скоростью от 5400 оборотов в минуту и более, перемещаясь относительно блока головок, состоящего из нескольких штанг, приводимых в движение так называемыми звуковыми катушками.

На острие каждой штанги расположены пишущие головки и считывающие сенсоры. Пишущие головки призваны менять направление векторов намагниченности дискретных участков ферромагнитного покрытия (магнитных доменов) в соответствии с командами, поступающими от контроллера HDD. При этом каждый домен кодирует один бит информации, принимая логическое значение 0 или 1 в зависимости от направления вектора намагниченности.



В основе работы считывающих модулей современных жестких дисков лежит гигантский магниторезистивный эффект: электрическое сопротивление сенсора меняется под действием магнитного поля доменов ферромагнитного слоя, что и фиксируется контроллером HDD, который, в свою очередь, интерпретирует увеличение или уменьшение сопротивления относительно заданного уровня как логический ноль или единицу.

Чтобы добиться высокой плотности записи, магнитные головки пришлось сделать чрезвычайно маленькими, ведь именно от их габаритов зависит ширина треков на магнитной пластине. Размер пишущего модуля в современных винчестерах не превышает 120 нанометров, а считывающего 70 нанометров.

Сопоставление размеров пищущей и считывающей головок жесткого диска и ребра 10-центовой монеты

Именно благодаря такой миниатюризации плотность записи данных удалось довести до впечатляющего показателя 1 Тбит/дюйм2, и это с помощью традиционного метода CMR. Однако у такого подхода существует и побочный эффект. Поскольку размеры магнитных головок существенно сократились, снизилась и сила создаваемого ими магнитного поля, что вынудило инженеров значительно уменьшить расстояние между головками и поверхностью магнитных пластин.

Когда HDD функционирует, магнитные головки парят над поверхностью блинов на высоте всего около 1215 нанометров, причем достигается это за счет экранного эффекта: под каждой штангой, словно под крылом взлетающего самолета, образуется воздушная подушка, обеспечивающая необходимую подъемную силу. Нетрудно догадаться, что сами по себе магнитные пластины должны быть идеально гладкими и не иметь каких-либо неровностей. Это и правда так: перепад высот на поверхности каждой пластины не превышает 0,6 нанометра. Немыслимая точность!



Однако подобная конструкция имеет один весьма существенный недостаток: жесткий диск оказывается чрезвычайно уязвимым к ударным воздействиям во время работы. Ударостойкость современных накопителей потребительского и корпоративного класса достигает 300350G за 2 мс в покое и лишь 3050G за 2 мс в режиме чтения/записи.

Столь высокий разброс значений объясняется тем, что пока диск отключен от питания, блок головок остается припаркованным. Рассмотрим фотографию ниже: каждый кронштейн получает дополнительную точку фиксации, опираясь на пластиковые пилоны в парковочной зоне, причем сами головки не касаются пластика, а нависают над ним. В таком состоянии им не страшны ни сильная вибрации, ни даже удары.



В рабочем же состоянии актуатор HDD лишен дополнительной опоры, поэтому удар достаточной силы, вектор которого будет направлен перпендикулярно к плоскости диска (или под незначительным углом к перпендикулярной оси), неизбежно приведет к соприкосновению головок и магнитных пластин. Схематично этот процесс можно изобразить так.



Выше приведен самый удачный сценарий развития событий: из-за миниатюрных размеров головок и огромной скорости вращения магнитных пластин пишущий и считывающий модули с большой долей вероятности попросту оторвутся от кронштейна и жесткий диск моментально придет в негодность. Если же вам все-таки повезло и дело ограничилось лишь появлением царапин на ферромагнитном слое, не стоит думать, что в этом случае удастся отделаться некоторым количеством битых кластеров. Увы, жесткий диск начнет медленно, но верно умирать, а количество ошибок чтения/записи множиться с каждым днем. И вот почему.

Проблема 1: частицы ферромагнетика остаются на поверхности магнитных пластин


Хотя блины винчестера и вращаются с огромной скоростью, осколки ферромагнитного слоя никуда не денутся: они слишком маленькие и легкие, так что величины магнитного поля доменов будет вполне достаточно, для того чтобы противостоять центробежной силе и удерживать мельчайшие частицы. Само по себе их присутствие на поверхности магнитных пластин чревато ошибками чтения/записи даже в том случае, если они не будут непосредственно соприкасаться с самими головками.

Проблема 2: частицы ферромагнетика играют роль абразива


Поскольку расстояние между поверхностью магнитных пластин и головок чрезвычайно мало, микроскопические частицы ферромагнетика будут неизбежно их задевать, постепенно стачивая подобно наждачной бумаге. Да и сама поверхность блинов станет все больше и больше царапаться, что будет выражаться в постепенном увеличении количества битых кластеров.

Проблема 3: считывающий сенсор будет нагреваться под действием силы трения


Когда частицы ферромагнетика, движущиеся на огромной скорости, задевают сенсор, последний, в силу микроскопических размеров, мгновенно разогревается, из-за чего сопротивление в датчике резко повышается и данные со считывающей головки интерпретируются неверно. Это приводит к многочисленным ошибкам чтения даже на том этапе, когда считывающая головка еще исправна.

Повреждение блока головок отнюдь не единственное (хотя и наиболее тяжелое) последствие ударного воздействия на жесткий диск. В зоне риска также находятся подшипники магнитных пластин. Сильный удар шарика по обойме подшипника может привести к ее деформации, повреждению самого шарика или дорожки качения (иногда ко всему перечисленному сразу). Хотя HDD продолжит работать, поврежденный подшипник будет сильно вибрировать, что негативно скажется на производительности винчестера и повлечет за собой преждевременный износ мотора шпинделя.



И наконец, самое меньшее из зол проскальзывание магнитных пластин в пакете, когда один или несколько блинов, получив дополнительное ускорение, проворачивается относительно своих собратьев. При этом именно данная проблема встречается значительно реже всех, перечисленных выше, и оказывает минимальное влияние на работоспособность HDD.

Ключевые подходы к защите HDD от ударных воздействий


Хотя история жестких дисков насчитывает более 64 лет, производители винчестеров всерьез озаботились их противоударной защитой лишь в 1997 году. Такое отношение выглядит легкомысленным, но на самом деле объяснить промедление достаточно просто.

В конце 90-х мода на компактные внешние HDD лишь начинала набирать обороты. Отправной точкой можно назвать появление IBM Microdrive, выпущенных в 1999 году, о которых мы уже писали ранее в материале, посвященном внешним накопителям данных. А между тем именно портативные накопители наиболее уязвимы.

Вскрытый IBM Microdrive в сравнении с монетой достоинством 50 евроцентов

Представить ситуацию, когда внутренний жесткий диск, будучи уже установленным в ПК, может выйти из строя от удара, довольно сложно (разве что вы специально станете бить кувалдой по его корпусу). Массивный каркас Full Tower вполне способен обеспечить адекватную защиту установленных внутри винчестеров, эффективно поглощая кинетическую энергию. Если вы, к примеру, случайно заденете компьютер ногой, воздействие на жесткий диск будет гораздо слабее 30G за 2 мс (и даже меньше 10G за 2 мс именно столько могли выдерживать HDD, выпущенные на рубеже XXXXI веков), так что здесь предпринимать какие-то особые меры не имеет практического смысла.

Корпуса лэптопов тех времен тоже были не чета современным сверхтонким моделям: ноутбуки 90-х годов обеспечивали вполне достойную защиту установленных в них винчестеров, пусть и не такую надежную, как стационарные компьютеры.

Старые ноутбуки были куда прочнее. На фото Siemens Nixdorf PCD-5ND

Напротив, в портативных накопителях данных HDD отделяет от внешнего мира лишь тонкий пластиковый корпус, неспособный поглотить всю энергию удара. Каким же образом в этом случае винчестер можно защитить от повреждения?

Первопроходцем в сфере разработки систем противоударной защиты стала сама IBM. Именно инженеры американской корпорации создали технологию с незамысловатым названием Ramp Load/Unload, которая сегодня используется повсеместно в каждом жестком диске независимо от ценовой категории. Речь идет об упомянутой выше парковочной зоне и системе пластиковых пилонов, фиксирующих штанги блока головок, пока HDD отключен от питания. Для своего времени такое решение стало по-настоящему инновационным, позволив увеличить ударостойкость винчестеров в покое в несколько раз.

В старых моделях жестких дисков система парковки блока головок в принципе отсутствовала

Среди таких же простых, но достаточно эффективных мер необходимо упомянуть и технологию Samsung ShockSkinBumper (SSB). Как нетрудно догадаться по названию, суть инновации заключается в наличии встроенного в корпус накопителя бампера, представленного тонким силиконовым ободком, облегающим металлическую крышку гермозоны винчестера.

Если присмотреться, то можно заметить кромку Samsung ShockSkinBumper

Согласно данным Samsung, бампер оказался чрезвычайно эффективен и помог снизить втрое перегрузки, воздействующие на внутренние узлы винчестера при ударе или падении, значительно повысив его ударостойкость в состоянии покоя.

Что касается проблемы повреждения подшипников, то изначально производители винчестеров экспериментировали с формой обоймы и размерами тел качения, стремясь найти оптимальный баланс между величиной площади соприкосновения шариков с дорожками (чем она больше, тем лучше подшипник переносит ударные воздействия) и сопротивлением, возникающим при трении их поверхностей друг о друга. В дальнейшем на смену обычным подшипникам качения пришли более совершенные гидродинамические подшипники скольжения, в которых вращение вала шпинделя происходит в слое жидкости, удерживающейся внутри втулки за счет создающейся при работе двигателя разницы давлений. Такой подход помог не только повысить ударостойкость жестких дисков, но и снизить уровень вибрации и шума, создаваемых ими во время работы, а заодно повысить их отказоустойчивость.

Нет шариков нет проблем

Однако главное, чего стремились добиться все без исключения производители винчестеров, максимально защитить от ударных воздействий блок головок. Пионером на этом поприще стала компания Quantum, представившая еще в 1998 году собственную систему защиты жестких дисков Quantum Shock Protection System (SPS), первая практическая реализация которой увидела свет в составе винчестеров Fireball EL.

Жесткий диск с улучшенной ударостойкостью Fireball EL от компании Quantum на 2,5 гигабайта

В общей сложности пакет улучшений SPS включал в себя 14 технологических нововведений, направленных на поглощение и компенсацию ударного воздействия на актуатор. Уже в 1999 году свет увидела доработанная система SPS II, а первым диском с поддержкой обновленной противоударной технологии закономерно стал Fireball Ict.

Параллельно с Quantum изыскания в области защиты винчестеров от ударов и падений вел и их прямой конкурент Maxtor Corporation. Результатом усилий инженеров компании стала технология ShockBlock, нашедшая применение в накопителях алмазной линейки DiamondMax.

Жесткий диск Maxtor DiamondMax Plus 21

Усовершенствованием блока головок активно занимался и Samsung: запатентованная технология корейской корпорации, получившая название Impact Guard, включала в себя ряд усовершенствований конструкции несущих кронштейнов, подвески и системы стабилизации. Не отставала и Western Digital: набор улучшений Shock Guard, специально разработанный для жестких дисков марки Caviar, помог довести ударостойкость жестких дисков, выпускаемых компанией, до значений, сопоставимых с показателями современных HDD.

Досконально описывать каждую из перечисленных технологий не имеет смысла: конструктивные решения, призванные повысить ударостойкость жестких дисков, так или иначе повторяли друг друга, хотя и имели различия в способах реализации. Перечислим основные приемы, которые брали на вооружение производители HDD, чтобы повысить их ударостойкость:

  • поглощение кинетической энергии конструкционными элементами корпуса;
  • уменьшение хлесткости кронштейнов за счет повышения их жесткости;
  • установка амортизирующей подвески головок, позволяющей минимизировать повреждения модулей чтения/записи и ферромагнитного слоя при контакте между ними.

Последний пункт требует дополнительных пояснений. В ходе испытаний было установлено, что степень разрушения ферромагнитного покрытия, равно как и вероятность отрыва магнитных головок, зависит не столько от силы удара, сколько от того, как именно модули чтения и записи соприкасаются с поверхностью блинов. Самые обширные повреждения закономерно наблюдаются в том случае, если головка задевает пластину краем или углом.

Усовершенствованный механизм подвески позволил добиться того, чтобы магнитные головки соприкасались с пластинами плашмя, всей своей поверхностью, как это показано на приведенной ниже схеме.



Поскольку их поверхности практически идеально гладкие, вероятность образования сколов (и тем более полного отрыва магнитных головок) заметно снижается, а при самом благоприятном стечении обстоятельств и ферромагнитное покрытие, и сами модули остаются невредимыми.

Неубиваемые накопители для спорта и активного отдыха


Хотя перечисленные меры помогли значительно повысить надежность жестких дисков, чуда так и не произошло. Как ни крути, но с физикой не поспоришь, и если тот же Maxtor в свое время смог довести ударостойкость винчестеров в состоянии покоя до впечатляющих 1000G за 2 мс, пусть и на тестовых образцах, то обеспечить сопоставимый уровень защиты блока головок во время работы HDD оказалось практически невозможно.

Однако с удешевлением флеш-памяти ситуация на рынке в корне изменилась, а потребность в противоударных внешних жестких дисках практически исчезла, ведь им на смену пришли твердотельные накопители. В силу технологических особенностей, SSD оказываются в значительно более выгодном положении: они не содержат подвижных компонентов, а значит, все, чего необходимо добиться, чтобы получить на выходе устройство, устойчивое к ударам, создать достаточно прочный корпус, способный обеспечить должный уровень защиты печатной платы, что гораздо проще по сравнению с разработкой динамических систем компенсации. Впрочем, лучше один раз увидеть, чем сто раз услышать. Просто посмотрите на эту фотографию.



На туристическом карабине, пристегнутом к рюкзаку, висит SanDisk Extreme Portable SSD компактный твердотельный накопитель, ориентированный на поклонников активного отдыха. Если подобным образом обращаться с обычным HDD, то он почти наверняка придет в полную негодность уже через пару марш-бросков. Однако SSD поломка не грозит: благодаря резиновопластиковому корпусу он способен выдерживать перегрузки вплоть до 1500G за 2 мс, что в 5 раз больше, чем ударостойкость жесткого диска в покое, и практически в 30 раз больше по сравнению с ударостойкостью HDD при чтении/записи данных. При этом показатель 1500G является константой и никак не изменяется, даже когда вы работаете с твердотельным накопителем.

Помимо того, что SanDisk Extreme Portable SSD способен выдерживать значительные перегрузки, устройство превосходно защищено от воздействия пыли и влаги по стандарту IP55.



Первая цифра индекса указывает на то, что SSD имеет пылезащищенное исполнение: хотя некоторое количество мелкодисперсных частиц и может проникнуть внутрь его корпуса, это никак не скажется на работоспособности устройства. Вторая цифра говорит о том, что корпус твердотельного накопителя способен противостоять даже сильным водяным струям, падающим с любого направления.

С водонепроницаемостью связана и еще одна интересная особенность данной серии накопителей. Обратите внимание: разъем USB Type-C, расположенный на нижнем торце, не имеет резиновой заглушки, которую обычно ожидаешь увидеть на подобном устройстве.



Недоработка? Отнюдь нет. Все дело в том, что порт никак не сообщается с внутренними полостями корпуса: он полностью обособлен и герметичен, так что попавшая в него вода никак не навредит электронным компонентам SSD, хотя перед использованием разъем и придется как следует просушить. Такой подход позволил сделать твердотельный накопитель еще надежнее и долговечнее, ведь любые заглушки имеют свойство разбалтываться со временем.

Что же касается производительности, то и здесь SanDisk Extreme Portable не подкачал, демонстрируя устойчивую скорость передачи данных 550 МБ/с. Если же вам этого недостаточно, то рекомендуем обратить внимание на Pro-версию устройства.



У накопителей старшей линейки немного изменился дизайн: боковая оранжевая вставка и измененная форма проушины сделали облик SSD более спортивным и выразительным. Но главное отличие Pro-версии от обычной кроется в поддержке высокоскоростного интерфейса USB 3.2 Gen 2, благодаря чему быстродействие накопителя возросло до впечатляющих 1050 МБ/с. С такой скоростью даже на передачу 100 ГБ данных уйдет не более 2 минут.



Хотите большего? В этом году свет увидели обновленные версии отказоустойчивых накопителей SanDisk Extreme Portable V2. Как и ранее, семейство компактных SSD разделено на две линейки: стандартную и Pro. С точки зрения защиты от ударов, пыли и воды ровным счетом ничего не изменилось, однако их производительность возросла ровно в два раза.

SanDisk Extreme Portable V2 обзавелись USB 3.2 Gen 2 и теперь могут похвастаться скоростью 1050 МБ/с в операциях чтения и до 1000 МБ/с при записи файлов. В свою очередь, SanDisk Extreme Portable Pro V2 придутся по вкусу обладателям устройств с поддержкой USB 3.2 Gen 2 x 2: впечатляющие 2000 МБ/с делают этот SSD самым быстрым среди защищенных моделей, доступных на рынке, и позволяют в считанные секунды передавать даже весьма объемные файлы, что наверняка понравится любителям фото- и видеосъемки, тревел-блогерам, журналистам и другим создателям контента.



В качестве же дополнительного бонуса необходимо упомянуть встроенную поддержку аппаратного шифрования AES с 256-битным ключом, которое на сегодняшний день является одним из наиболее надежных методов криптографической защиты данных. Таким образом, с новыми SanDisk Extreme Portable вы можете быть на 100% спокойны за сохранность ценной для вас информации.
Подробнее..

Технологии магнитной записи HDD просто о сложном

21.10.2020 20:04:14 | Автор: admin

Первый в мире жесткий диск, IBM RAMAC 305, увидевший свет в 1956 году, вмещал лишь 5 МБ данных, а весил при этом 970 кг и по габаритам был сопоставим с промышленным рефрижератором. Современные корпоративные флагманы способны похвастаться емкостью уже в 20 ТБ. Только представьте себе: 64 года назад, для того чтобы записать такое количество информации, потребовалось бы свыше 4 миллионов RAMAC 305, а размеры ЦОДа, необходимого для их размещения, превысили бы 9 квадратных километров, тогда как сегодня для этого будет достаточно маленькой коробочки весом около 700 грамм! Во многом добиться столь невероятного повышения плотности хранения удалось благодаря совершенствованию методов магнитной записи.
В это сложно поверить, однако принципиально конструкция жестких дисков не меняется вот уже почти 40 лет, начиная с 1983 года: именно тогда свет увидел первый 3,5-дюймовый винчестер RO351, разработанный шотландской компанией Rodime. Этот малыш получил две магнитные пластины по 10 МБ каждая, то есть был способен вместить вдвое больше данных, чем обновленный ST-412 на 5,25 дюйма, выпущенный Seagate в том же году для персональных компьютеров IBM 5160.


Rodime RO351 первый в мире 3,5-дюймовый винчестер

Несмотря на инновационность и компактные размеры, на момент выхода RO351 оказался практически никому не нужен, а все дальнейшие попытки Rodime закрепиться на рынке винчестеров потерпели фиаско, из-за чего в 1991 году компания была вынуждена прекратить свою деятельность, распродав практически все имеющиеся активы и сократив штат до минимума. Однако стать банкротом Rodime оказалось не суждено: в скором времени к ней начали обращаться крупнейшие производители винчестеров, желающие приобрести лицензию на использование запатентованного шотландцами форм-фактора. В настоящее время 3,5 дюйма является общепринятым стандартом производства как потребительских HDD, так и накопителей корпоративного класса.

С появлением нейросетей, Deep Learning и интернета вещей (IoT) объем создаваемых человечеством данных стал лавинообразно расти. По оценкам аналитического агентства IDC, к 2025 году количество информации, генерируемой как самими людьми, так и окружающими нас девайсами, достигнет 175 зеттабайт (1 Збайт = 1021 байт), и это при том, что в 2019-м таковое составляло 45 Збайт, в 2016-м 16 Збайт, а в далеком 2006-м общий объем данных, произведенных за всю обозримую историю, не превышал 0,16 (!) Збайт. Справиться с информационным взрывом помогают современные технологии, среди которых не последнее место занимают усовершенствованные методы записи данных.

LMR, PMR, CMR и TDMR: в чем разница?


Принцип работы жестких дисков достаточно прост. Тонкие металлические пластины, покрытые слоем ферромагнитного материала (кристаллического вещества, способного сохранять намагниченность даже при отсутствии воздействия на него внешнего магнитного поля при температуре ниже точки Кюри) движутся относительно блока пишущих головок на большой скорости (5400 оборотов в минуту или более). При подаче электрического тока на пишущую головку возникает переменное магнитное поле, которое изменяет направление вектора намагниченности доменов (дискретных областей вещества) ферромагнетика. Считывание данных происходит либо за счет явления электромагнитной индукции (перемещение доменов относительно сенсора вызывает в последнем возникновение переменного электрического тока), либо за счет гигантского магниторезистивного эффекта (под действием магнитного поля изменяется электрическое сопротивление датчика), как это реализовано в современных накопителях. Каждый домен кодирует один бит информации, принимая логическое значение 0 или 1 в зависимости от направления вектора намагниченности.

Долгое время жесткие диски использовали метод продольной магнитной записи (Longitudinal Magnetic Recording, LMR), при котором вектор намагниченности доменов лежал в плоскости магнитной пластины. Несмотря на относительную простоту реализации, данная технология имела существенный недостаток: для того чтобы побороть коэрцитивность (переход магнитных частиц в однодоменное состояние), между треками приходилось оставлять внушительную буферную зону (так называемое guard space защитное пространство). Вследствие этого максимальная плотность записи, которой удалось добиться на закате данной технологии, составляла всего 150 Гбит/дюйм2.


В 2010 году LMR была практически полностью вытеснена PMR (Perpendicular Magnetic Recording перпендикулярная магнитная запись). Главное отличие данной технологии от продольной магнитной записи состоит в том, что вектор магнитной направленности каждого домена располагается под углом 90 к поверхности магнитной пластины, что позволило существенно сократить промежуток между треками.

За счет этого плотность записи данных удалось заметно увеличить (до 1 Тбит/дюйм2 в современных устройствах), при этом не жертвуя скоростными характеристиками и надежностью винчестеров. В настоящее время перпендикулярная магнитная запись является доминирующей на рынке, в связи с чем ее также часто называют CMR (Conventional Magnetic Recording обычная магнитная запись). При этом надо понимать, что между PMR и CMR нет ровным счетом никакой разницы это всего лишь другой вариант названия.


Изучая технические характеристики современных жестких дисков, вы также можете наткнуться на загадочную аббревиатуру TDMR. В частности, данную технологию используют накопители корпоративного класса Western Digital Ultrastar 500-й серии. С точки зрения физики TDMR (что расшифровывается как Two Dimensional Magnetic Recording двумерная магнитная запись) ничем не отличается от привычной нам PMR: как и прежде, мы имеем дело с непересекающимися треками, домены в которых ориентированы перпендикулярно плоскости магнитных пластин. Разница между технологиями заключается в подходе к считыванию информации.

В блоке магнитных головок винчестеров, созданных по технологии TDMR, на каждую пишущую головку приходятся по два считывающих сенсора, осуществляющих одновременное чтение данных с каждого пройденного трека. Такая избыточность дает возможность контроллеру HDD эффективно фильтровать электромагнитные шумы, появление которых обусловлено межтрековой интерференцией (Intertrack Interference, ITI).


Решение проблемы с ITI обеспечивает два чрезвычайно важных преимущества:

  1. снижение коэффициента помех позволяет повысить плотность записи за счет уменьшения расстояния между треками, обеспечивая выигрыш по общей емкости вплоть до 10% по сравнению с обычной PMR;
  2. в сочетании с технологией RVS и трехпозиционным микроактуатором, TDMR позволяет эффективно противостоять ротационной вибрации, вызванной работой винчестеров, что помогает добиться стабильного уровня производительности даже в наиболее сложных условиях эксплуатации.

Что такое SMR и с чем его едят?


Размеры пишущей головки примерно в 1,7 раза больше по сравнению с размерами считывающего сенсора. Столь внушительная разница объясняется достаточно просто: если записывающий модуль сделать еще более миниатюрным, силы магнитного поля, которое он сможет генерировать, окажется недостаточно для намагничивания доменов ферромагнитного слоя, а значит, данные попросту не будут сохраняться. В случае со считывающим сенсором такой проблемы не возникает. Более того: его миниатюризация позволяет дополнительно снизить влияние упомянутой выше ITI на процесс считывания информации.

Данный факт лег в основу черепичной магнитной записи (Shingled Magnetic Recording, SMR). Давайте разбираться, как это работает. При использовании традиционного PMR пишущая головка смещается относительно каждого предыдущего трека на расстояние, равное ее ширине + ширина защитного пространства (guard space).


При использовании черепичного метода магнитной записи пишущая головка смещается вперед лишь на часть своей ширины, поэтому каждый предыдущий трек оказывается частично перезаписан последующим: магнитные дорожки накладываются друг на друга подобно кровельной черепице. Такой подход позволяет дополнительно повысить плотность записи, обеспечивая выигрыш по емкости до 10%, при этом не отражаясь на процессе чтения. В качестве примера можно привести Western Digital Ultrastar DC HC 650 первые в мире 3.5-дюймовые накопители объемом 20 ТБ с интерфейсом SATA/SAS, появление которых стало возможным именно благодаря новой технологии магнитной записи. Таким образом, переход на SMR-диски позволяет повысить плотность хранения данных в тех же стойках при минимальных затратах на модернизацию IT-инфраструктуры.


Несмотря на столь значительное преимущество, SMR имеет и очевидный недостаток. Поскольку магнитные дорожки накладываются друг на друга, при обновлении данных потребуется перезапись не только требуемого фрагмента, но и всех последующих треков в пределах магнитной пластины, объем которой может превышать 2 терабайта, что чревато серьезным падением производительности.

Решить данную проблему помогает объединение определенного количества треков в обособленные группы, называемые зонами. Хотя такой подход к организации хранения данных несколько снижает общую емкость HDD (поскольку между зонами необходимо сохранять достаточные промежутки, препятствующие перезаписи треков из соседних групп), это позволяет существенно ускорить процесс обновления данных, так как теперь в нем участвует лишь ограниченное количество дорожек.


Черепичная магнитная запись предполагает несколько вариантов реализации:

  • Drive Managed SMR (SMR, управляемая диском)

Основным ее преимуществом является отсутствие необходимости в модификации программного и/или аппаратного обеспечения хоста, поскольку управление процедурой записи данных берет на себя контроллер HDD. Такие диски могут быть подключены к любой системе, в которой присутствует необходимый интерфейс (SATA или SAS), после чего накопитель будет сразу готов к работе.

Недостаток этого подхода заключается в изменчивости уровня производительности, в связи с чем Drive Managed SMR оказывается неподходящей для корпоративных приложений, в которых постоянство быстродействия системы является критически важным параметром. Тем не менее такие диски хорошо показывают себя в сценариях, предоставляющих достаточное время для выполнения фоновой дефрагментации данных. Так, например, DMSMR-накопители WD Red, оптимизированные для использования в составе малых NAS на 8 отсеков, станут отличным выбором для системы архивирования или резервного копирования, предполагающей долговременное хранение бэкапов.


  • Host Managed SMR (SMR, управляемая хостом)

Host Managed SMR наиболее предпочтительный вариант реализации черепичной записи для использования в корпоративной среде. В данном случае за управление потоками данных и операциями чтения/записи отвечает сама хост-система, задействующая для этих целей расширения интерфейсов ATA (Zoned Device ATA Command Set, ZAC) и SCSI (Zoned Block Commands, ZBC), разработанные комитетами INCITS T10 и T13.

При использовании HMSMR весь доступный объем накопителя разделяется на зоны двух типов: Conventional Zones (обычные зоны), которые используются для хранения метаданных и произвольной записи (по сути, играют роль кэша), и Sequential Write Required Zones (зоны последовательной записи), занимающие большую часть общей емкости жесткого диска, в которых данные записываются строго последовательно. Неупорядоченные данные сохраняются в области кэширования, откуда затем могут быть перенесены в соответствующую зону последовательной записи. Благодаря этому все физические сектора записываются последовательно в радиальном направлении и перезаписываются только после циклического переноса, что позволяет добиться стабильной и предсказуемой производительности системы. При этом HMSMR-диски поддерживают команды произвольного чтения аналогично накопителям, использующим стандартный PMR.

Host Managed SMR реализована в жестких дисках enterprise-класса Western Digital Ultrastar HC DC 600-й серии.


Линейка включает в себя SATA- и SAS-накопители высокой емкости, ориентированные на использование в составе гипермасштабных центров обработки данных. Поддержка Host Managed SMR существенно расширяет сферу применения таких винчестеров: помимо систем резервного копирования, они прекрасно подойдут для облачных хранилищ, CDN или стриминговых платформ. Высокая емкость жестких дисков позволяет существенно повысить плотность хранения (в тех же стойках) при минимальных затратах на апгрейд, а низкое энергопотребление (не более 0,29 Ватта на каждый терабайт сохраненной информации) и тепловыделение (в среднем на 5 C ниже, чем у аналогов) дополнительно сократить операционные расходы на обслуживание ЦОДа.

Единственным недостатком HMSMR является сравнительная сложность имплементации. Все дело в том, что на сегодняшний день ни одна операционная система или приложение не умеют работать с подобными накопителями из коробки, в силу чего для адаптации IT-инфраструктуры требуются серьезные изменения стека программного обеспечения. В первую очередь это касается, конечно же, самой ОС, что в условиях современных ЦОД, использующих многоядерные и многосокетные сервера, является достаточно нетривиальной задачей. Узнать подробнее о вариантах реализации поддержки Host Managed SMR можно на специализированном ресурсе ZonedStorage.io, посвященном вопросам зонального хранения данных. Собранные здесь сведения помогут предварительно оценить степень готовности вашей IT-инфраструктуры для перевода на зональные системы хранения.

  • Host Aware SMR (SMR, поддерживаемая хостом)

Устройства с поддержкой Host Aware SMR сочетают в себе удобство и гибкость Drive Managed SMR и высокую скорость записи Host Managed SMR. Такие накопители обратно совместимы с устаревшими системами хранения и могут функционировать без непосредственного контроля со стороны хоста, однако в этом случае, как и при работе с DMSMR-дисками, их производительность становится непредсказуемой.

Подобно Host Managed SMR, Host Aware SMR использует два типа зон: Conventional Zones для произвольной записи и Sequential Write Preferred Zones (зоны, предпочтительные для последовательной записи). Последние, в отличие от упомянутых выше Sequential Write Required Zones, автоматически переводятся в разряд обычных в том случае, если в них начинает вестись неупорядоченная запись данных.

Реализация SMR с поддержкой хоста предусматривает внутренние механизмы восстановления после непоследовательной записи. Неупорядоченные данные записываются в области кэширования, откуда диск может переносить информацию в зону последовательной записи, после того как будут получены все необходимые блоки. Для управления неупорядоченной записью и фоновой дефрагментацией диск использует таблицу косвенного обращения. Однако, если корпоративным приложениям требуется предсказуемая и оптимизированная производительность, достичь этого по-прежнему можно лишь в случае, когда хост берет на себя полное управление всеми потоками данных и зонами записи.
Подробнее..

Эмуляторы игровых консолей правовые аспекты разработки и использования

22.10.2020 16:15:14 | Автор: admin

Давным-давно в далекой галактике разработчики видеоигр концентрировали свои усилия на увлекательном геймплее, не боялись экспериментировать, придумывая новые фичи и даже целые жанры, и стремились создавать не просто коммерческие продукты, но целостные, гармоничные произведения искусства, каждое из которых было в своем роде уникальным. Увы, золотой век игровой индустрии давно прошел: сегодня даже иные AAA-проекты больше всего напоминают онлайн-казино в красивой обертке, предлагающие целый букет аддиктивных механик и не способные удивить ничем, кроме цен во внутриигровом магазине.

К счастью, благодаря эмуляторам игровых консолей мы с вами можем вернуться в те замечательные времена, когда балом правили творцы, а не эффективные менеджеры, а игры стремились развлечь игрока и приносили подлинную радость. Но насколько законно использование подобных программ и не является ли это формой пиратства? Попробуем разобраться вместе.

От IBM System/360 до iNES


Поскольку все начинается с идеи, можно сказать, что появлением эмуляторов мы обязаны корпорации IBM, являющейся главным трендсеттером в мире информационных технологий. Выпуск в далеком 1964 году мейнфреймов серии IBM System/360 ознаменовал наступление новой эры, ведь именно в этих ЭВМ впервые была очерчена четкая граница между архитектурой и реализацией, что стало возможным благодаря использованию микрокода, который обеспечивал взаимодействие между центральным процессором и программным обеспечением.


Мейнфрейм IBM System/360

Новый уровень абстракции позволял использовать идентичный софт на всех устройствах серии (за исключением нескольких узкоспециализированных модификаций), начиная от бюджетных и заканчивая высокопроизводительными решениями, превосходящими по быстродействию модели начального уровня практически в 50 раз, что открывало дополнительные возможности для конечного потребителя. Теперь компания могла приобретать оборудование, отвечающее ее текущим потребностям, и переходить по мере роста на более мощные платформы без необходимости модифицировать существующее ПО, что помогало значительно снизить финансовые и временные затраты на модернизацию IT-инфраструктуры.

С легкой руки IBM использование программных и/или аппаратных средств, предназначенных для копирования функций одной вычислительной системы (гостевой) на другую (хост), стали называть эмуляцией. Изобретение эмуляции определило генеральный вектор развития всей компьютерной индустрии на долгие годы вперед, а впоследствии принесло и немало радости поклонникам видеоигр, ведь по гамбургскому счету именно благодаря инновациям IBM сегодня мы с вами можем вернуться в прошлое и насладиться любимыми игрушками, вышедшими несколько десятков лет назад.


Интерес к созданию эмуляторов игровых систем появился в сообществе разработчиков в 90-х годах прошлого века, когда производительность персональных компьютеров достигла достаточного уровня, чтобы воспроизводить поведение консолей с приемлемой скоростью. Большой вклад в развитие данного направления внес наш с вами бывший соотечественник, уроженец Перми, Марат Файзуллин, более известный в сети под ником fms, эмигрировавший в США в 1992 году. Будущий обладатель докторской степени по информатике от Мэрилендского университета в Колледж-Парке, впоследствии устроившийся в компанию Intel на позицию Senior Software Engineer, стал широко известен среди поклонников видеоигр благодаря разработке эмулятора платформы MSX (Machines with Software eXchangeability) fMSX, первая версия которого увидела свет в 1993 году, а также благодаря проектам Virtual Game Boy (VGB, 1995 год) и Virtual Game Boy Advance (VGBA), предназначенным для запуска игр, выпущенных на одноименных портативных консолях Nintendo, и разработке одного из самых первых (и наиболее удачных) эмуляторов Nintendo Entertainment System iNES, релиз которого состоялся в 1996 году.


Перечисленные проекты продолжают развиваться по сей день и доступны практически на всех актуальных платформах. А код эмуляции восьмиразрядного процессора MOS Technology 6502, написанный Файзуллиным, оказался настолько удачным, что впоследствии использовался при разработке xNES, созданного Николасом Хамелом, FreeNES от Самуэля Бронсона, NES and PCEngine emulator от Bero и во многих других проектах.

Первый Bleem! комом


Хотя, по понятным причинам, именно консоли Nintendo пользовались особой любовью среди разработчиков эмуляторов, первое судебное разбирательство в данной сфере инициировала вовсе не большая N, а Sony, подавшая в 2000 году иск против Connectix Corporation, автора Bleem! эмулятора игровой системы PlayStation.


Боксовое издание эмулятора Bleem! для Windows 95/98

С учетом того, что весной этого же года в Японии состоялась премьера PlayStation 2, а осенью консоль стала продаваться в США и Евросоюзе, подобный шаг выглядит, мягко говоря, странно. Тем не менее у Sony были три вполне веских повода для судебного разбирательства:

  • Bleem! оказался действительно быстрым

Bleem! был написан на ассемблере и, в отличие от многих других эмуляторов того времени, использующих исключительно вычислительные мощности CPU, умел работать с графическими ускорителями, что позволяло играть в эксклюзивы Sony даже на относительно слабых машинах. Для японского гиганта это могло стать серьезной проблемой, ведь 7 июня 2000 года, на закате поколения, свет увидела обновленная версия PlayStation PSone, а доступный широкому кругу потребителей эмулятор мог негативно отразиться на ее продажах.

  • Эмулятор работал на Sega Dreamcast

Проект Bleemcast! позволял запускать игры с первой PlayStation на консоли прямого конкурента Sega Dreamcast. Для этого Connectix Corporation воспользовалась уязвимостью в стандарте MIL-CD (Music Interactive Live CD), созданном Sega для воспроизведения на домашней консоли мультимедийных дисков. Причем Bleemcast! не просто эмулировал приставку от Sony, а существенно улучшал графику в запускаемых играх, увеличивая разрешение рендера до 640 480 пикселей, то есть ровно в два раза (на PS1 игры работали в разрешении 320 240), добавляя сглаживание и билинейную фильтрацию текстур.


Обложка CD-ROM с Bleem! для игровой консоли Sega Dreamcast

  • Bleem! являлся коммерческим продуктом

Connectix Corporation разработала Bleem! отнюдь не из альтруистических соображений и не ради пожертвований от благодарных фанатов: и оригинальный эмулятор, и Bleemcast! продавались на физических носителях. Поскольку имело место извлечение прибыли, это позволило Sony инициировать судебное разбирательство.

И как ни странно, японский гигант проиграл по всем фронтам, а данный процесс создал весьма важный судебный прецедент. По его итогам суд принял решение о том, что само по себе создание эмуляторов и даже их коммерческая реализация не нарушают Бернскую конвенцию (основное международное соглашение в области авторского права) и не противоречат местному законодательству. Но лишь в том случае, если был написан оригинальный код и все сведения об архитектуре, необходимые для разработки, получены методом реверс-инжиниринга, а не из внутренней документации платформодержателя, попавшей в открытый доступ в результате утечек или похищенной умышленно.

Тем не менее для самой Connectix Corporation победа оказалась пирровой. За время судебных разбирательств дело прошло через несколько инстанций, и хотя в итоге решение было вынесено в пользу разработчиков Bleem!, небольшая компания попросту не смогла справиться с огромными издержками. Ситуацию осложнило и прекращение выпуска Dreamcast на территории Северной Америки, о чем Sega объявила уже в 2001 году, так что вся работа над Bleemcast! (а в конечном счете разработчикам пришлось адаптировать эмулятор под каждую конкретную игру) оказалась бессмысленной.


Обложка Bleemcast! для Tekken 3

В результате в ноябре 2001 года Connectix Corporation объявила о закрытии Bleem!.. На официальном сайте проекта появилась заставка, изображающая надгробный камень с названием эмулятора и рыдающего над ним ежика Соника, сжимающего в руке поникший цветок (отсылка к консоли Sega, на успех которой разработчики рассчитывали больше всего).


Покойся с миром, Bleem!..

Сказ о том, как читеры засудили Nintendo


Можно сколько угодно спорить, кто прав, а кто виноват в истории с Bleem!, однако нельзя отрицать огромное значение данного инцидента. Во многом именно судебное противостояние Sony и Connectix Corporation отбило у крупных компаний всякое желание судиться с разработчиками эмуляторов игровых систем. В частности, данное мнение разделяет Пьер Бурдон, один из создателей Dolphin эмулятора Wii и GameCube с открытым исходным кодом.

Напомним, что 3 мая 2003 года свет увидела The Legend of Zelda: Ocarina of Time для GameCube, и Dolphin смог запустить эту игру спустя всего неделю после релиза. И пусть это была не новая часть серии, а лишь порт с Nintendo64, утечка лучшей видеоигры за всю историю индустрии, и по сей день имеющей самый высокий балл на Metacritic среди всех ранжируемых проектов, не могла укрыться от неусыпного взора юристов большой N. Тем более что при запуске на эмуляторе игра выглядела значительно лучше, чем на оригинальной консоли.


The Legend of Zelda: Ocarina of Time

Однако Nintendo попросту не за что было уцепиться. Исходный код Dolphin изначально был доступен для всестороннего анализа, и ни одна его строчка не подпадала ни под закон об авторском праве, ни под действие собственных лицензионных соглашений компании о неразглашении технических данных, составляющих коммерческую тайну. Именно прозрачность позволила Dolphin избежать печальной участи.

Другой скользкий момент, касающийся как разработки, так и использования эмуляторов, заключается в том, что для нормального функционирования ряда таких программ требуется дамп BIOS консоли. В одних случаях оригинальная микропрограмма позволяет повысить точность эмуляции, избавиться от графических артефактов и иных ошибок, в других же без ее наличия запуск игр становится вовсе невозможным. Но насколько законными являются манипуляции с BIOS? Ответ на этот вопрос был дан еще в 1992 году в ходе судебного разбирательства между Lewis Galoob Toys и Nintendo of America, хотя предметом спора были отнюдь не эмуляторы, а, говоря современным языком, хардварные читы.

В начале 90-х компания Codemasters, ныне известная как разработчик автомобильных симуляторов DiRT, GRID и F1, заказала у Lewis Galoob Toys производство особых устройств для Nintendo Entertainment System, получивших название Game Genie. Впоследствии аналогичные девайсы были созданы для SNES, Game Boy, а также Sega Genesis.


Game Genie устанавливалось в слот игровой консоли, тогда как картридж подключался к разъему на самом устройстве, распиновка которого повторяла оригинальную. После запуска приставки на экране появлялось специальное меню, в котором игрок мог ввести код в формате адрес-значение, изменяющий те или иные данные, поступающие из ПЗУ картриджа в RAM игровой системы, и таким образом модифицировать параметры игры. В комплекте с девайсом поставлялся справочник, содержащий список известных кодов с описанием того, на что они влияют. Game Genie позволяло сделать персонажа бессмертным, открывать бонусные уровни без прохождения основной игры, накручивать необходимые ресурсы в общем, делать все то же самое, что и современные читы.


Game Genie, подключенное к Super Nintendo Entertainment System

Самое забавное, что судопроизводство началось задом наперед. В мае 1990 года именно Galoob инициировала процесс, целью которого было получение официального заключения о том, что Game Genie не нарушает авторские права Nintendo, а также постановления суда, которое бы запрещало японской компании умышленно модифицировать NES таким образом, чтобы сделать чит-приставку и консоль несовместимыми.

В ответ Nintendo подала встречный иск с весьма интересной формулировкой. Юристы компании утверждали, что творение Galoob нарушает авторские права Nintendo на разработанные игры, так как Game Genie создает производное произведение (игру с измененным кодом) без разрешения правообладателя. Не будет преувеличением сказать, что в тот год над всеми эмуляторами нависла реальная угроза, ведь в случае победы Nintendo был бы создан серьезный прецедент, благодаря которому платформодержатели получили бы реальный инструмент давления на разработчиков такого ПО. Не говоря уже о том, что под аналогичную формулировку подпадает и деятельность моддеров.

Но американская судебная система оказалась на стороне геймеров. Сказать спасибо за наше с вами светлое настоящее стоит окружному судье Ферн Мейерсон Смит (Fern Meyerson Smith), которая справедливо заключила, что после приобретения игровой консоли и картриджа покупатель имеет право экспериментировать с продукцией Nintendo так, как сочтет нужным, в том числе модифицируя программный код и создавая его новые варианты для личного использования. Пока речь не идет о распространении полученных таким образом копий программного обеспечения (оригинальных или модифицированных), ничего противозаконного в подобных деяниях нет.


Ферн Мейерсон Смит именно ее должны благодарить все поклонники ретроигр

Nintendo попробовала опротестовать это решение в Апелляционном суде девятого округа, однако апелляция была отклонена. В результате большая N не только проиграла, но и лишилась более 15 миллионов долларов. Все дело в том, что на первых порах японскому гиганту удалось добиться запрета на реализацию Game Geniе вплоть до завершения разбирательства, однако для этого компании пришлось внести залог в размере 15 миллионов долларов, дабы гарантировать, что в случае выигрыша Galoob получит компенсацию убытков. Поскольку тяжба продлилась более года, в декабре 1991-го залог в полном объеме присудили Galoob, также обязав Nintendo погасить все судебные издержки производителя Game Geniе.

Три аргумента в пользу эмуляторов


Решение Ферн Мейерсон Смит легализовало целый ряд важных аспектов, связанных с разработкой и использованием эмуляторов. Теперь любой обладатель консоли имеет законное право на создание дампа BIOS купленного им устройства, чтобы в дальнейшем использовать его для изучения архитектуры системы или запуска игр. Во многом именно благодаря данному прецеденту сегодня мы с вами можем поиграть в любую из тысяч игр прошлых лет для ныне мертвых платформ, насладившись всеми преимуществами, которые обеспечивают современные эмуляторы консолей. Среди всего их многообразия можно выделить три основных.

Преимущество 1: оригинальный пользовательский опыт


Не секрет, что издатели в попытке выжать максимум прибыли из принадлежащих им IP частенько халтурят. И справедливости ради надо сказать, что ситуация с Super Mario 3D All-Stars является отнюдь не самой вопиющей. Разумеется, за такую цену, да еще и в честь столь знаменательной даты, как 35-летие Марио, хотелось бы увидеть полноценные ремейки классических хитов, а не ленивый ретекстур, чем на самом деле и является этот своеобразный подарочек от большой N. Впрочем, данный сборник все же имеет одно весьма важное преимущество: игры, в него вошедшие, исправно работают.

Чего не скажешь о Silent Hill 4: The Room, релиз которой состоялся 2 октября в сервисе цифровой дистрибуции GoG. Konami захотела подзаработать на похороненной ею же франшизе, решив продать фанатам тот самый порт 16-летней давности с вырезанной DRM и адаптацией под современные системы (которой, кстати, занимались сами ребята из Good old Games). По меркам 2004 года порт Silent Hill 4 был не так уж и плох: по крайней мере, в нем отсутствовали фатальные недостатки вроде проблем с картинкой или производительностьюм, чем грешили те же Capcom. Однако по пути на персональные компьютеры Silent Hill 4 растеряла немало скриптов, из-за чего ПК-игроки лишились множества весьма атмосферных моментов. В первую очередь это касается разнообразных проявлений потусторонней активности в квартире главного героя, которые попросту исчезли из PC-версии игры.


Это проявление полтергейста в квартире Генри Таунсенда так и осталось эксклюзивом PlayStation 2

В этом плане Konami отличается завидным постоянством и толерантным отношением ко всем платформам. Достаточно вспомнить Silent Hill HD Collection, вышедший в 2012 году для PlayStation 3 и Xbox 360. Поскольку исходный код оригинальных игр был утрачен, Konami пришлось работать с прекомпилированными дистрибутивами со всеми вытекающими последствиями: Silent Hill 2 и 3, вошедшие в сборник, растеряли львиную долю своего очарования и обзавелись новыми багами. Так, например, из второй части куда-то исчез туман, не только работавший на атмосферу, но и скрывавший границы карты и текстуры низкого разрешения, что полностью сломало все погружение в мрачный мир культового ужастика. На скриншоте ниже слева приведены кадры из ремастера, а справа скриншоты из оригинальной версии игры.


Нет, Мария, Its not okay. Its disgusting!

Поэтому всем, кто хотел бы поностальгировать или впервые приобщиться к, пожалуй, лучшей игровой хоррор-серии, можно посоветовать воспользоваться PCSX2, дабы в полной мере прочувствовать изначальный замысел авторов, вместо того чтобы отдавать деньги Konami за откровенную халтуру.

Преимущество 2: старые игры в новом качестве


Наиболее очевидное преимущество, которое обеспечивает использование эмуляторов, возможность поиграть в классические игры на широкоформатном мониторе в разрешении Full HD или выше с полноэкранным сглаживанием, анизотропной фильтрацией текстур, объемным звуком, возможностью сохранения в любой момент и другими атрибутами современного гейминга. Ведь как бы ни были хороши классические тайтлы, сегодня играть в большинство из них без изменений уже физически больно, особенно когда речь заходит о раннем 3D, благо качественный пиксель-арт практически не подвластен времени.

С помощью эмуляторов можно прокачать даже относительно свежие релизы. Взять ту же The Legend of Zelda: Breath of the Wild. Будучи запущенной на CEMU, игра выглядит куда лучше, нежели на Switch, а если вы являетесь обладателем достаточно мощного ПК, то сможете играть со стабильными 60 FPS, что для гибридной консоли является недостижимой планкой.


The Legend of Zelda: Breath of the Wild на Cemu выглядит просто потрясающе

Если же вы хотите попробовать нечто действительно интересное, рекомендуем обратить внимание на проект 3DSen. Необычный эмулятор NES вышел летом этого года в раннем доступе в Steam. Главной его фишкой является конвертация 2D-графики в 3D (или, если быть совсем точным, в 2,5D) на лету. На данный момент заявлена поддержка 70 тайтлов.


Micro Mages, запущенная на 3DSen

Преимущество 3: больше свободного места в доме


Объем игрового дистрибутива для NES не превышал 40 КБ это в несколько десятков раз меньше объема данного материала, сохраненного в формате docx. При этом размеры картриджа с одной игрой составляли 13,3 12 2 сантиметра. Всего для NES было выпущено 715 игр. Разумеется, отнюдь не каждая из них достойна внимания, а многие проекты, как бы хороши они ни были, могут не понравиться именно вам. Но даже если вы пожелаете обзавестись парой сотен таких игрушек, для их хранения вам потребуется полка весьма внушительных размеров. Учитывая же, что NES лишь одна из множества игровых систем, выпущенных за последние 30 лет, под коллекцию игр для консолей от второго до восьмого поколения вам придется арендовать небольшой склад или выделить целый этаж загородного дома. Именно так и пришлось поступить Антонио Монтейро, коллекционеру из Ричмонда (штат Техас).


Антонио Монтейро и его коллекция видеоигр

Антонио является обладателем самой большой коллекции видеоигр по версии Книги рекордов Гиннесса, включающей 20 139 тайтлов. На точный подсчет всех картриджей, CD, DVD и Blue-Ray ушло в общей сложности 8 дней чистого времени. Ну а сколько места занимает все это добро, вы можете оценить самостоятельно.


Если же вы не испытываете страсти к коллекционированию, то эмуляторы помогут вам сэкономить немало свободного пространства и денежных средств. Ведь, чтобы на долгие годы обеспечить сохранность коллекции, подобной той, что собрал Антонио, вам придется позаботиться и о поддержании постоянного микроклимата в помещении, что также чревато серьезными капитальными и операционными затратами.

Вооружившись же набором эмуляторов вместо самих консолей и цифровыми копиями дистрибутивов, вы избавите себя от множества проблем, связанных с размещением и обслуживанием такой коллекции, благо современные накопители данных способны обеспечить куда большую плотность хранения, нежели архаичные картриджи или оптические диски. Возьмем, для примера, внешний винчестер WD_BLACK P10, разработанный специально для геймеров.


Наиболее вместительная модель емкостью 5 ТБ имеет габаритные размеры всего 11,8 8,8 2 см, то есть оказывается даже меньше картриджа для Nintendo Entertainment System. При этом такой диск способен вместить 125 миллионов копий игр для NES (почти в 175 раз больше, чем в принципе вышло), более 7 тысяч игр для Sony PlayStation (то есть практически все выпущенные проекты) или 1200 игр для PlayStation 2.

WD_BLACK P10 поддерживает высокоскоростной интерфейс USB 3.1 Gen 1, а его производительность достигает показателей 140 МБ/с, что сопоставимо со скоростью внутренних HDD. Помимо этого, данная модель адаптирована для многочасовой работы под нагрузкой, что стало возможным в первую очередь благодаря продуманной системе пассивного охлаждения: крышка корпуса выполнена из металла и играет роль радиатора, эффективно отводя тепло от 2,5-дюймового винчестера.

Если же возможностей P10 вам покажется недостаточно, рекомендуем обратить внимание на WD_BLACK D10.


Если вновь проводить параллели с картриджем NES, то данная модель будет немного длиннее (19,5 см против 13,3) и вдвое толще (4,4 см против 2), что, впрочем, с лихвой компенсируется ее емкостью и производительностью. WD_BLACK D10 способен вместить 8 ТБ данных (200 игр времен NES, 11,5 тысяч игр для PS1 или 1900 игр для PS2), а его производительность достигает уже 250 МБ/с, то есть идентична топовым игровым HDD. Поскольку во вместительном корпусе WD_BLACK D10 нашлось место для кулера, данный винчестер можно эксплуатировать даже в режиме 24/7, не опасаясь его перегрева. В качестве же приятного бонуса стоит упомянуть наличие на боковой панели пары портов USB Type-A мощностью 7,5 Вт, за счет чего диск можно использовать в качестве док-станции для зарядки беспроводной периферии (например, мышки, геймпада или гарнитуры). Благодаря всему перечисленному такой накопитель способен в полной мере удовлетворить потребности не только поклонника ретроигр, но и любителя современных крупнобюджетных проектов.
Подробнее..

Слежка за подчиненными и закон

29.03.2021 20:20:50 | Автор: admin

Системы видеонаблюдения, мониторинг сетевого трафика, просмотр корпоративной почты в современных реалиях практически каждая компания в той или иной степени отслеживает действия своих сотрудников на рабочих местах. Кто-то стремится таким образом защититься от корпоративного шпионажа и утечек данных, кто-то использует собранную информацию для оптимизации бизнес-процессов и оценки продуктивности нанятых работников, а кто-то в первую очередь заботится о безопасности своих подчиненных. Но насколько вообще законна слежка за персоналом и где проходит невидимая черта, отделяющая контроль за добросовестным исполнением служебных обязанностей от вторжения в частную жизнь? Попробуем разобраться.

Во вступительной части сегодняшнего материала мы поговорим о доступности систем мониторинга и видеонаблюдения, а также о продукции Western Digital для устройств видеофиксации. Затем мы подробно рассмотрим особенности российского законодательства в сфере отслеживания действий подчиненных на примере кейсов из реальной судебной практики. Также мы приготовили для вас небольшое практическое задание для самопроверки, поэтому обязательно дочитайте статью до конца.

Слежка за всеми и каждым, и пусть никто не уйдет...



Благодаря развитию модели SaaS процесс организации всестороннего контроля за деятельностью вашего персонала становится как никогда простым. В сегодняшних реалиях вам не нужно создавать систему отслеживания действий сотрудников с нуля или заказывать ее разработку у сторонних компаний: достаточно зайти на любой отраслевой портал, вроде того же G2, открыть раздел Employee Monitoring Software и выбрать наиболее подходящий вариант в зависимости от требуемого функционала, специфики бизнес-процессов вашего предприятия и доступных опций интеграции. Современные программные комплексы мониторинга способны заткнуть за пояс даже самые навороченные spyware, предлагая клиентам весьма богатый набор инструментов контроля, среди которых:

  • отслеживание запускаемых приложений и посещаемых сайтов;
  • мониторинг сетевого трафика;
  • создание снимков экрана контролируемого устройства;
  • видеозахват экрана, запись и/или потоковая передача полученного видео в реальном времени;
  • регистрация нажатий клавиш на клавиатуре компьютера, движений курсора и нажатий клавиш мыши (кейлоггинг);
  • отслеживание местоположения контролируемого устройства с помощью спутниковой навигации (актуально для мобильных девайсов);
  • запись видео и аудио с интегрированных или подключенных к устройству веб-камеры и микрофона;
  • удаленный перехват управления рабочим столом.

Впрочем, не стоит рассматривать такое ПО только в качестве этаких легальных троянов. Многие подобные решения сочетают в себе функции CRM, системы учета рабочего времени, поддерживают интеграцию с популярными таск-трекерами, системами контроля версий и отслеживания ошибок, позволяют составлять и обрабатывать платежные ведомости, а также предоставляют полноценный API, существенно упрощающий процесс интеграции в корпоративную IT-инфраструктуру. Все это помогает не только более эффективно использовать саму платформу отслеживания, но и дополнительно оптимизировать затраты, отказавшись от узкоспециализированного софта с дублирующим функционалом.

Контролировать персонал в реальности физической почти так же просто, как и в виртуальном пространстве, благо современный рынок предлагает множество разнообразных способов организации видеонаблюдения на любой вкус и кошелек. Предположим, вы являетесь владельцем небольшой компании и хотите следить за происходящим на территории малого офиса, состоящего из пары-тройки рабочих помещений. В таком случае все, что вам понадобится, несколько сетевых камер EZVIZ (дочерний бренд HikVision), маршрутизатор с функцией хранения данных EZVIZ Vault Plus, жесткий диск WD Purple и по одной карте памяти WD Purple SC QD101 microSD на каждую IP-камеру, благодаря которым система видеонаблюдения продолжит функционировать в автономном режиме в случае возникновения непредвиденных ситуаций.


Выгода приобретения подобного комплекта заключается не только в его дешевизне, но и в простоте установки и обслуживания, что позволяет полностью отказаться от услуг сторонних специалистов или ангажированных лиц из числа сотрудников компании. Поскольку же бренд EZVIZ был изначально ориентирован на широкий круг потребителей, включая и частных лиц, устройства, выпускаемые под данной маркой, отличаются удобством эксплуатации и могут похвастаться рядом нетипичных функций вроде возможности дистанционного управления с помощью клиентского приложения для смартфона на Android или iOS либо использования IP-камер в качестве коммутаторов для переговоров с сотрудниками.

Свою лепту вносят и специализированные накопители для систем видеонаблюдения от Western Digital.


Если говорить о жестких дисках WD Purple, то применительно к рассматриваемому нами сценарию их главными преимуществами становятся оптимизация использования кэш-памяти в зависимости от количества обрабатываемых видеопотоков и управление приоритетом исполнения команд чтения/записи, реализованное на уровне фирменной прошивки AllFrame AI. Данная особенность позволяет свести к минимуму вероятность пропуска кадров и появление артефактов изображения при обработке значительного числа (до 64) изохронных видеопотоков высокой четкости. В сочетании с широким спектром поддерживаемого оборудования, в перечень которого входит и продукция HikVision, это избавляет от необходимости тонкой настройки используемой аппаратуры: видеорегистратор, роль которого в нашем примере играет роутер EZVIZ, сам прекрасно договорится с жестким диском без какого-либо вашего участия.

Что же касается карт памяти WD Purple, то их ключевой особенностью является гарантированный рабочий ресурс в 1000 циклов программирования/стирания (P/E), что практически в 10 раз больше по сравнению с гражданскими моделями. Таким образом, если при использовании обычных microSD-карт вам пришлось бы осуществлять их замену чуть ли не каждые 56 месяцев, то карточка пурпурной линейки исправно прослужит вам долгие годы. Давайте посчитаем.


Если предположить, что видеозапись будет вестись непрерывно в течение 8-часового рабочего дня в разрешении Full HD при максимально возможном качестве картинки, то на карту памяти каждый день будет записываться около 50 гигабайт видео. Для наглядности конвертируем рабочий ресурс карты из количества циклов перезаписи в более привычный TBW. Сделать это можно по следующей формуле:

TBW = (Емкость Количество циклов P/E)/1000

Для модели емкостью 256 ГБ получим: TBW = (256 1000)/1000 = 256 терабайт. Значит, при текущей нагрузке карта памяти WD Purple гарантированно проработает 256 000 / 50 = 5120 дней, или около 14 (!) лет.

Помимо расширенного рабочего ресурса, microSD-карты WD Purple отличаются влагостойкостью (они могут выдержать погружение на глубину до 1 метра в пресную или соленую воду), способны исправно функционировать в расширенном диапазоне рабочих температур (от -25C до +85C) или пережить удар силой до 500g. Таким образом, вы можете быть на 100% уверены в сохранности записанных данных при возникновении любых нештатных ситуаций вроде ложного срабатывания системы пожаротушения или импульсивных действий со стороны сотрудника вашей компании, если тот вдруг захочет искупать видеокамеру в стакане с горячим кофе или поиграть несчастным девайсом в футбол.

Последнее вполне может произойти в реальной жизни. Ведь когда речь заходит о тотальном контроле, начальник и его подчиненные неизбежно оказываются по разные стороны баррикад. Оно и понятно: даже самый честный человек, которому нечего скрывать, будет чувствовать себя неуютно под неусыпным оком большого брата, в роли которого в данном случае выступает работодатель. И все то, что с точки зрения владельца компании является лишь средством защиты бизнеса и оптимизации рабочего процесса, в глазах рядовых сотрудников выглядит как вероломное вмешательство в частную жизнь, нарушение права на тайну личной переписки и телефонных переговоров. Но это, как ни крути, лишь субъективное восприятие ситуации. А как же обстоят дела с точки зрения реального законодательства Российской Федерации?

Письмецо в конверте погоди, не шли!



Чтобы быть последовательными и не запутаться в правовых нюансах, начнем с традиционной модели трудовых отношений, когда наемные сотрудники работают в офисе, используя помещение, аппаратуру (компьютеры, ноутбуки, смартфоны, планшеты) и программное обеспечение, предоставленные самим работодателем. В такой ситуации действуют следующие часть 1 и часть 2 статьи 22 Трудового Кодекса РФ. Согласно закону, работодатель обязан обеспечить работников всем необходимым для исполнения ими трудовых обязанностей. Сами сотрудники могут использовать предоставленное оборудование исключительно в рабочих целях. При этом работодатель имеет право контролировать исполнение работником возложенных на него трудовых обязанностей, а также то, как именно работник использует предоставленное ему оборудование.

Из этих положений следует логичный вывод: работодатель, обеспечив сотрудника компьютером, необходимым для исполнения служебных обязанностей, имеет право устанавливать на него любое программное обеспечение, включая и средства мониторинга, отслеживающие действия пользователя. В свою очередь, сам подчиненный может использовать ПК лишь в рабочих целях, в противном случае к нему могут быть применены санкции. Рассмотрим несколько примеров.

Кейс 1


Сотрудник N авторизовался с рабочего компьютера в личном e-mail-аккаунте, после чего прикрепил к электронному письму несколько служебных документов и переслал их некоему гражданину X. Данный факт удалось отследить с помощью программы мониторинга интернет-трафика, после чего сотрудник N был уволен за разглашение сведений, составляющих коммерческую тайну. N вознамерился обжаловать данное решение, а также подал встречный иск, утверждая, что работодатель нарушил его право на тайну личной переписки. Если бы суд вынес решение в пользу N, увольнение было бы признано неправомерным, так как сведения, перехваченные системой фильтрации трафика, получили бы статус недопустимых доказательств как полученные с нарушением требований Уголовно-процессуального кодекса и не имели бы юридической силы.

Тем не менее в рассматриваемой ситуации суд признал увольнение вполне законным. Поскольку компьютер является собственностью работодателя, последний имеет право устанавливать на него любое контролирующее ПО, в том числе способное отслеживать и анализировать сетевой трафик (именно таким образом и были получены сведения, которые помогли уличить N). Поскольку программа не имела прямого доступа к почтовому ящику работника, полученные таким образом доказательства являются абсолютно законными и имеют юридическую силу. Напротив, если бы работодатель получил прямой доступ к личному e-mail сотрудника и узнал о пересылке файлов, содержащих коммерческую тайну, просмотрев папку Исходящие, это было бы прямым нарушением статей 2324 Конституции РФ и ответный иск N был бы удовлетворен.

Кейс 2


Сотрудник Z был уволен за нарушение кодекса этики государственного служащего и регламента использования служебной техники. В ходе проверки работодатель установил, что Z использовал рабочую почту для личной переписки, а также обсуждал действия своих коллег с посторонними лицами. Работник был уволен в связи с утратой доверия к гражданскому служащему в соответствии с п. 1.1 ч. 1 ст. 37 Федерального закона РФ от 27 июля 2004 года О государственной гражданской службе Российской Федерации.

Z подал апелляционную жалобу и проиграл процесс. Судья принял во внимание имеющиеся доказательства, которыми послужили акт осмотра рабочего места и содержание электронной переписки. Здесь тоже нет ровным счетом никаких нарушений: работодатель имел доступ к служебному почтовому ящику сотрудника и мог просматривать всю ведущуюся переписку на законных основаниях. И именно сотрудник совершил нарушение, так как воспользовался служебной почтой для ведения личной переписки.

Кейс 3


После увольнения на законных основаниях сотрудница O подала в суд на работодателя, так как не смогла получить доступ к рабочему компьютеру и корпоративному e-mail, и потребовала возместить моральный вред в связи с нарушением прав на неприкосновенность личной жизни и тайну переписки, поскольку использовала свой аккаунт в том числе для общения с друзьями и родственниками, а ее учетная запись была передана другому сотруднику (при этом был сменен пароль). Суд постановил, что никакого нарушения не было, так как корпоративный аккаунт априори принадлежит компании.

Резюмируем все вышесказанное:

  • Работодатель имеет право контролировать исполнение работником трудовых обязанностей любыми законными способами, в том числе и осуществлять контроль за использованием вверенного ему служебного ПК, ноутбука или другой техники, а также корпоративных e-mail или мессенджеров. Риск раскрытия личной переписки лежит исключительно на работнике, если он ведет ее со служебного компьютера, с использованием рабочего почтового ящика или иных средств связи, предоставленных работодателем.
  • Работодатель имеет право доступа к содержанию личных писем и сообщений в том случае, если они были отправлены с использованием корпоративного аккаунта и/или рабочего компьютера. Однако анализ полученной информации может проводиться исключительно в целях выявления признаков разглашения коммерческой тайны, нарушений корпоративного кодекса и в иных аналогичных ситуациях. Использование данной информации в других целях можно расценивать как нарушение неприкосновенности частной жизни.
  • Указанная выше информация может быть получена напрямую при анализе электронной переписки или сообщений в мессенджере, отправленных с корпоративных аккаунтов. Если сотрудник использовал личную почту, сведения могут быть получены с помощью технических средств мониторинга (например, посредством анализа интернет-трафика). Прямой доступ (например, путем перехвата пароля) к личному почтовому аккаунту сотрудника, личному мессенджеру, профилю в социальной сети является противозаконным и может классифицироваться как неправомерный доступ к компьютерной информации (статья 272 УК РФ).

Эти глаза напротив, воли моей супротив



С перепиской все ясно, а что же говорит закон о видеонаблюдении? Согласно уже упомянутой нами ч. 1 ст. 22 ТК РФ, работодатель имеет право установить систему видеонаблюдения в целях обеспечения безопасности на рабочих местах, сохранности товарно-материальных ценностей, контроля за условиями труда, предотвращения различных нарушений и противоправных действий, а также для контроля за исполнением сотрудниками их обязанностей.

Однако здесь имеется ряд ограничений, продиктованных статьей 23 Конституции РФ, гарантирующей право человека на личную тайну и неприкосновенность частной жизни. Что это означает на практике? Предположим, вы являетесь владельцем крупного предприятия и вам принадлежит обширный офисный комплекс. Вы можете вести видеонаблюдение в опен-спейсе, конференц-зале или на КПП, однако не имеете права устанавливать видеокамеры в комнате отдыха, раздевалке, туалетах и других аналогичных помещениях. При этом, в соответствии со статьей 6 Федерального закона Об оперативно-розыскной деятельности, использовать для съемки скрытые камеры категорически запрещено: видеонаблюдение должно вестись открыто, а в зонах видимости камер должны быть установлены информационные таблички.

Рассмотрим пару показательных кейсов, иллюстрирующих законность видеонаблюдения на рабочих местах.

Кейс 4


После установки системы видеонаблюдения сотрудник A отказался работать в новых условиях и подал на работодателя в суд, посчитав это нарушением его права на защиту частной жизни и персональных данных. Суд, однако, не усмотрел в действиях работодателя каких-либо нарушений, поскольку в данном случае видеонаблюдение осуществляется в целях контроля за трудовой деятельностью работника, а не для того, чтобы установить обстоятельства его частной жизни. По этой же причине, в силу пункта 5 части 1 статьи 6 закона о персональных данных, работодатель имеет право осуществлять сбор и обработку персональных данных сотрудника (к которым относятся его видеоизображения) без дополнительного согласия, поскольку соответствующие изменения условий труда были отражены в локальных нормативных актах (ЛНА), а работник был дополнительно уведомлен под подпись об установке системы видеонаблюдения.

Кейс 5


В целях обеспечения безопасных условий труда и противодействия террористическим угрозам в поликлинике была установлена система видеонаблюдения. Врач D расценил это как вмешательство в свою личную жизнь. Несмотря на уведомление о запрете препятствовать работе видеокамер, врач, приходя на работу, загораживал посторонними предметами объектив смонтированной в его рабочем кабинете камеры. За эти действия D был привлечен к дисциплинарной ответственности: ему был объявлен выговор с занесением в личное дело.

Стремясь обжаловать данное решение, D подал судебный иск о признании соответствующего приказа начальства незаконным и закономерно проиграл процесс. Суд постановил, что видеонаблюдение во врачебных кабинетах было установлено в целях обеспечения безопасности на территории лечебно-профилактического учреждения, а персональные данные сотрудников обрабатываются исключительно в объеме, необходимом для достижения указанной цели, а значит, конституционные права работника на неприкосновенность частной жизни не были нарушены. Напротив, заслоняя обзор камеры, врач напрямую нарушил нормы ЛНА, поэтому объявление выговора в рассматриваемом случае является абсолютно правомерным.

Слежка дело тонкое



В сентябре 2017 года произошло событие, оказавшее огромное влияние на мировую судебную практику в сфере отслеживания начальством действий подчиненных во время исполнения ими служебных обязанностей, отразившееся в том числе и на законодательстве Российской Федерации. Речь идет о пересмотре дела Барбулеску против Румынии Большой палатой Европейского суда по правам человека. Вкратце напомним суть дела.

Кейс 6


Сотрудник B был уволен за использование служебного аккаунта в мессенджере Yahoo для личной переписки, причем у его непосредственного начальника была возможность отслеживать сообщения в чатах в режиме реального времени. B, посчитав данный инцидент грубым нарушением права на тайну личной переписки, обратился сперва в местный суд, а затем и в ЕСПЧ. Все перечисленные инстанции признали действия работодателя законными. Однако Большая палата с этим выводом не согласилась, все же усмотрев в действиях начальства B определенные нарушения. Согласно постановлению ЕСПЧ, вынесенному 5 сентября 2017 года, работодатель обязан:

  • Предварительно уведомить сотрудника о том, что за его деятельностью будет осуществляться контроль.

При этом подчиненному необходимо сообщить о типе контроля (видеонаблюдение, программа мониторинга, установленная на рабочий ПК) и его глубине (анализ истории браузера, отслеживание переписки в реальном времени, стриминг рабочего стола и т. д.).

  • Выбрать соразмерную степень контроля за работником в зависимости от исполняемых им должностных обязанностей.

Работодатель обязан выбирать такой вариант контроля подчиненных, который позволил бы защитить его законные интересы, однако при этом не был бы чрезмерным. Так, например, если сотрудник имеет доступ к конфиденциальной информации, составляющей коммерческую тайну, установка на его служебный компьютер многофункциональной программы мониторинга, способной отслеживать практически любые действия пользователя и фильтровать сетевой трафик, вполне оправдана. В то же время установка подобного ПО на смартфон обычного курьера, который занимается доставкой еды, является избыточной мерой: здесь достаточно отслеживания его передвижений в рабочее время по GPS.

  • Работодатель может вмешиваться в личную жизнь сотрудника лишь в той мере, которая необходима для отслеживания исполнения им трудовых обязанностей.

Как мы выяснили выше, если сотрудник вел личную переписку с рабочего компьютера и отправленные e-mail или сообщения в мессенджере были перехвачены и прочитаны начальством, это не является нарушением тайны переписки, а полученные таким образом сведения могут использоваться в качестве доказательств в суде (например, в том случае, когда имело место разглашение информации, составляющей коммерческую тайну). Однако при этом работодатель должен принять все возможные меры для предотвращения разглашения информации о личной жизни работника и содержании его корреспонденции, не имеющей отношения к делу, ограничить круг лиц, которые смогут просматривать и оценивать характер переписки, и избегать избыточного цитирования личных писем в документах дисциплинарного расследования.

Все перечисленное справедливо и для российского законодательства, однако первый пункт требует некоторых уточнений. В соответствии с законами РФ обычное уведомление о контроле с помощью видеонаблюдения или специализированного ПО не имеет юридической силы, а значит, не может регулировать трудовые взаимоотношения между работником и работодателем. В данном случае, согласно статье 8 ТК РФ, требуется принятие соответствующего ЛНА. Это может быть как отдельный документ (например, Положение о контроле за профессиональной деятельностью сотрудников), так и особый раздел или пункт в действующем локальном нормативном акте, регламентирующем использование корпоративной почты, введение режима коммерческой тайны и т. д. На эту необходимость указывает, в частности, постановление Конституционного суда Российской Федерации 25-П от 26 октября 2017 года. После принятия нового ЛНА или изменения существующего, работник, в соответствии с ч. 2 ст. 22, ст. 68, ст. 86 ТК РФ, должен быть ознакомлен с данным документом под подпись.

Напоследок нам осталось обсудить правовые аспекты наблюдения за подчиненными в режиме дистанционной работы. Впрочем, давайте привнесем в сегодняшний материал толику интерактива. Поскольку мы с вами уже рассмотрели немало кейсов, затрагивающих работу в офисе, попробуйте самостоятельно ответить на несколько вопросов о контроле сотрудников на удаленке. Если вы внимательно прочли сегодняшнюю статью, то сможете сделать это без особых затруднений. Итак, приступим.

  1. Можно ли использовать для контроля за сотрудником, находящимся на удаленной работе, систему видеонаблюдения? Если да, то на каких основаниях? Если нет, то почему?
  2. Можно ли использовать специализированный софт для мониторинга ПК или ноутбука, предоставленного сотруднику работодателем для исполнения профессиональных обязанностей на удаленной работе? Если да, то на каких основаниях? Если нет, то почему?
  3. Можно ли использовать специализированный софт для мониторинга личных девайсов сотрудника, которые тот использует во время дистанционной работы? Если да, то на каких основаниях? Если нет, то почему?

Когда будете готовы, просто загляните под спойлер, чтобы проверить себя.

Ответы для самопроверки
1. Нет. Вы не имеете права устанавливать систему видеонаблюдения или требовать подключение к домашней системе безопасности сотрудника, находящегося на удаленной работе, поскольку в соответствии со ст. 23 Конституции РФ это будет прямым нарушением права человека на неприкосновенность частной жизни.

2. Да. Как мы уже писали выше, в случае, если вы предоставили сотруднику необходимый для работы компьютер, ноутбук, или другой девайс, то имеете полное право устанавливать на него любой софт, включая программы, отслеживающие действия пользователя (ч. 1 и ч. 2 ст. 22 ТК РФ). В данном случае не имеет значения, где работник использует вверенный ему ПК в офисе или дома. Факт использования контролирующего ПО, его тип, объем, в котором будет осуществляться сбор данных, должны быть отражены в локальных нормативных актах, а самого сотрудника необходимо предварительно уведомить под подпись о ведущемся наблюдении с помощью программных средств (ч. 2 ст. 22, ст. 68, ст. 86 ТК РФ).

3. Можно, но с важной оговоркой. Поскольку сотрудник будет использовать один и тот же девайс как для работы, так и в личных целях, в ЛНА должно быть четко описано не только то, какими программными средствами будет осуществляться контроль и в каком объеме, но и временной период, в течение которого программа мониторинга будет контролировать действия пользователя. Такой подход отвечает третьему принципу из решения ЕСПЧ по делу Барбулеску против Румынии, согласно которому наблюдение за работой подчиненных должно вестись в адекватном объеме. Как и в случае с оборудованием, предоставленным работодателем, для установки программ мониторинга на собственные девайсы сотрудника требуется письменное согласие последнего.
Подробнее..

Важнейшие вехи в истории развития систем видеонаблюдения

15.10.2020 20:21:55 | Автор: admin

Функции современных систем наблюдения давно вышли за рамки видеофиксации как таковой. Определение движения в зоне интереса, подсчет и идентификация людей и транспортных средств, ведение объекта в потоке сегодня на все это способны даже не самые дорогие IP-камеры. При наличии же достаточно производительного сервера и необходимого ПО возможности охранной инфраструктуры становятся практически безграничны. А ведь когда-то подобные системы не умели даже записывать видео.

От пантелеграфа до механического телевизора


Первые попытки передачи изображения на расстояние предпринимались еще во второй половине XIX века. В 1862 году флорентийский аббат Джованни Казелли создал устройство, способное не только передавать, но и принимать изображение по электрическим проводам пантелеграф. Вот только назвать этот агрегат механическим телевизором можно было лишь с очень большой натяжкой: фактически итальянский изобретатель создал прототип факсимильного аппарата.


Пантелеграф Джованни Казелли

Электрохимический телеграф Казелли функционировал следующим образом. Передаваемое изображение сперва конвертировали в подходящий формат, перерисовывая токонепроводящими чернилами на пластине станиоля (оловянной фольги), а затем фиксируя зажимами на изогнутой медной подложке. В роли считывающей головки выступала золотая игла, построчно сканирующая металлический лист с шагом 0,5 мм. Когда игла оказывалась над участком с непроводящими чернилами, цепь заземления размыкалась и ток подавался на провода, связывающие передающий пантелеграф с принимающим. В это же время игла приемника перемещалась над листом плотной бумаги, пропитанной смесью желатина и гексацианоферрата калия. Под действием электрического тока соединение темнело, за счет чего и формировалось изображение.

Такой аппарат обладал массой недостатков, среди которых необходимо выделить низкую производительность, потребность в синхронизации приемника и передатчика, от точности которой зависело качество итогового изображения, а также трудоемкость и дороговизну обслуживания, вследствие чего век пантелеграфа оказался чрезвычайно короток. Так, например, аппараты Казелли, использовавшиеся на телеграфной линии Москва Санкт-Петербург, проработали немногим более 1 года: будучи введенными в эксплуатацию 17 апреля 1866 года, в день открытия телеграфного сообщения между двумя столицами, пантелеграфы были демонтированы уже в начале 1868 года.

Куда более практичным оказался бильдтелеграф, созданный в 1902 году Артуром Корном на основе первого фотоэлемента, придуманного русским физиком Александром Столетовым. Устройство получило мировую известность 17 марта 1908 года: в этот день с помощью бильдтелеграфа из полицейского участка Парижа в Лондон была передана фотография преступника, благодаря которой полисменам впоследствии удалось вычислить и задержать злоумышленника.


Артур Корн и его бильдтелеграф

Подобный агрегат обеспечивал неплохую детализацию фотографического изображения и уже не требовал его специальной подготовки, однако для передачи картинки в реальном времени все еще не годился: на обработку одной фотографии уходило около 1015 минут. Зато бильдтелеграф неплохо прижился в криминалистике (его успешно использовала полиция для передачи снимков, фотороботов и отпечатков пальцев между отделениями и даже странами), а также в новостной журналистике.

Настоящий прорыв в данной сфере состоялся в 1909 году: именно тогда Жоржу Рину удалось добиться передачи изображения с частотой обновления 1 кадр в секунду. Поскольку телефотографический аппарат имел сенсор, представленный мозаикой из селеновых фотоэлементов, а его разрешающая способность составляла всего 8 8 пикселей, он так и не вышел за пределы лабораторных стен. Однако сам факт его появления заложил необходимую базу для дальнейших изысканий в сфере трансляции изображения.

По-настоящему преуспел на данном поприще шотландский инженер Джон Бэрд, который и вошел в историю, как первый человек, которому удалось осуществить передачу изображения на расстояние в режиме реального времени, поэтому именно его и принято считать отцом механического телевидения (да и телевидения в целом). Учитывая, что Бэрд едва не лишился жизни во время своих экспериментов, получив удар током в 2000 вольт во время замены фотоэлектрического элемента в созданной им камере, такое звание абсолютно заслуженно.


Джон Бэрд, изобретатель телевидения

В творении Бэрда использовался специальный диск, изобретенный немецким техником Паулем Нипковом еще в 1884 году. Диск Нипкова из непрозрачного материала с рядом отверстий равного диаметра, расположенных по спирали в один оборот от центра диска на равном угловом расстоянии друг от друга, применялся как для сканирования изображения, так и для его формирования на принимающем аппарате.


Устройство диска Нипкова

Объектив фокусировал изображение объекта съемки на поверхности вращающегося диска. Свет, проходя через отверстия, попадал на фотоэлемент, благодаря чему изображение конвертировалось в электрический сигнал. Поскольку отверстия были расположены по спирали, каждое из них фактически осуществляло построчное сканирование определенного участка изображения, сфокусированного объективом. Точно такой же диск присутствовал и в устройстве воспроизведения, однако позади него располагалась мощная электрическая лампа, воспринимающая колебания освещенности, а перед ним увеличительная линза или система линз, проецирующая изображение на экран.


Принцип работы механических телевизионных систем

Аппарат Бэрда использовал диск Нипкова с 30 отверстиями (как следствие, получаемое изображение имело развертку всего 30 линий по вертикали) и мог сканировать объекты с частотой 5 кадров в секунду. Первый успешный эксперимент по передаче черно-белого изображения состоялся 2 октября 1925 года: тогда инженеру удалось впервые транслировать с одного устройства на другое полутоновое изображение куклы чревовещателя.

Во время проведения эксперимента в дверь позвонил курьер, который должен был доставить важную корреспонденцию. Воодушевленный успехом Бэрд схватил обескураженного молодого человека за руку и провел в свою лабораторию: ему не терпелось оценить, как его детище справится с передачей изображения человеческого лица. Так 20-летний Вильям Эдвард Тэйнтон, оказавшись в нужное время в нужном месте, вошел в историю как первый человек, попавший в телевизор.

В 1927 году Бэрд провел первую телетрансляцию между Лондоном и Глазго (на расстояние 705 км) по телефонным проводам. А в 1928 году основанная инженером компания Baird Television Development Company Ltd успешно осуществила первую в мире трансатлантическую передачу телевизионного сигнала между Лондоном и Хартсдейлом (штат Нью-Йорк). Демонстрация возможностей 30-полосной системы Бэрда оказалась лучшей рекламой: уже в 1929 году ее взяла на вооружение BBC и успешно использовала в течение последующих 6 лет, вплоть до тех пор, пока ее не вытеснила более совершенная аппаратура на основе электронно-лучевых трубок.

Иконоскоп предвестник новой эры


Появлением электронно-лучевой трубки мир обязан нашему бывшему соотечественнику Владимиру Козьмичу Зворыкину. В годы Гражданской войны инженер принял сторону белого движения и бежал через Екатеринбург в Омск, где занимался оборудованием радиостанций. В 1919 году Зворыкин отправился в командировку в Нью-Йорк. Как раз в это время состоялась Омская операция (ноябрь 1919 года), итогом которой стало взятие города Красной армией практически без боя. Поскольку инженеру больше некуда было возвращаться, он остался в вынужденной эмиграции, став сотрудником компании Westinghouse Electric (в настоящее время CBS Corporation), уже тогда являвшейся одной из ведущих электротехнических корпораций США, где параллельно занимался изысканиями в сфере передачи изображения на расстояние.


Владимир Козьмич Зворыкин, создатель иконоскопа

К 1923 году инженеру удалось создать первое телевизионное устройство, в основу которого легла передающая электронная трубка с мозаичным фотокатодом. Однако новое начальство не воспринимало работы ученого всерьез, так что долгое время Зворыкину приходилось вести исследования самостоятельно, в условиях крайне ограниченных ресурсов. Возможность вернуться к полноценной исследовательской деятельности представилась Зворыкину лишь в 1928 году, когда ученый познакомился с другим эмигрантом из России Давидом Сарновым, занимавшим на тот момент пост вице-президента компании Radio Corporation of America (RCA). Найдя идеи изобретателя весьма перспективными, Сарнов назначил Зворыкина руководителем лаборатории электроники RCA, и дело сдвинулось с мертвой точки.

В 1929 году Владимир Козьмич представил рабочий прототип высоковакуумной телевизионной трубки (кинескопа), а в 1931 году завершил работу над принимающим устройством, названным им иконоскоп (от греч. eikon образ и skopeo смотреть). Иконоскоп представлял собой вакуумную стеклянную колбу, внутри которой были закреплены светочувствительная мишень и расположенная под углом к ней электронная пушка.


Принципиальная схема иконоскопа

Светочувствительная мишень размером 6 19 см была представлена тонкой пластиной изолятора (слюды), на одну сторону которой были нанесены микроскопические (размером в несколько десятков микрон каждая) серебряные капли в количестве около 1 200 000 штук, покрытые цезием, а на другую сплошное серебряное покрытие, с поверхности которого и снимался выходной сигнал. При освещении мишени под действием фотоэффекта капельки серебра приобретали положительный заряд, величина которого зависела от уровня освещенности.


Оригинальный иконоскоп в экспозиции Чешского национального музея техники

Иконоскоп лег в основу первых систем электронного телевидения. Его появление позволило значительно улучшить качество передаваемой картинки за счет многократного увеличения числа элементов в телевизионном изображении: с 300 400 точек в первых моделях до 1000 1000 точек в более совершенных. Хотя устройство не было лишено определенных недостатков, к числу которых необходимо отнести низкую чувствительность (для полноценной съемки требовалась освещенность не менее 10 тысяч люкс) и трапецеидальные искажения, вызванные несовпадением оптической оси с осью лучевой трубки, изобретение Зворыкина стало важной вехой в истории видеонаблюдения, во многом определив дальнейший вектор развития отрасли.

На пути от аналога к цифре


Как это часто бывает, развитию тех или иных технологий способствуют военные конфликты, и видеонаблюдение в данном случае не является исключением. В годы Второй мировой войны Третий рейх начал активную разработку баллистических ракет дальнего действия. Однако первые прототипы знаменитого оружия возмездия Фау-2 не отличались надежностью: ракеты частенько взрывались на старте или падали вскоре после взлета. Поскольку продвинутых систем телеметрии тогда еще в принципе не существовало, единственным способом определить причину неудач являлось визуальное наблюдение за процессом пуска, вот только дело это было крайне рискованным.


Подготовка к запуску баллистической ракеты Фау-2 на полигоне в Пенемюнде

Чтобы облегчить задачу разработчикам ракетного вооружения и не подвергать их жизни опасности, немецкий электротехник Вальтер Брух сконструировал так называемую CCTV-систему (Сlosed Circuit Television система телевидения замкнутого контура). Необходимое оборудование было установлено на полигоне в Пенемюнде. Творение немецкого электротехника позволило ученым наблюдать за ходом испытаний с безопасного расстояния в 2,5 километра, не опасаясь за собственные жизни.

При всех достоинствах система видеонаблюдения Бруха имела весьма существенный недостаток: в нем отсутствовало устройство видеофиксации, а значит, оператор не мог ни на секунду отлучиться со своего рабочего места. Серьезность данной проблемы позволяет оценить исследование, проведенное IMS Research уже в наше время. Согласно его результатам, физически здоровый, хорошо отдохнувший человек будет упускать из виду до 45% важных событий уже спустя 12 минут наблюдения, а через 22 минуты этот показатель достигнет отметки 95%. И если в сфере испытаний ракетного вооружения данный факт не играл особой роли, так как ученым не нужно было сидеть перед экранами несколько часов кряду, то применительно к охранным системам отсутствие возможности видеофиксации заметно сказывалось на их эффективности.

Так продолжалось вплоть до 1956 года, когда свет увидел первый видеомагнитофон Ampex VR 1000, созданный опять же нашим бывшим соотечественником Александром Матвеевичем Понятовым. Подобно Зворыкину, ученый принял сторону Белой армии, после поражения которой сперва эмигрировал в Китай, где на протяжении 7 лет проработал в одной из электроэнергетических компаний Шанхая, затем некоторое время жил во Франции, после чего в конце 1920-х годов переехал на постоянное жительство в США и получил в 1932 году американское гражданство.


Александр Матвеевич Понятов и прототип первого в мире видеомагнитофона Ampex VR 1000

В течение последующих 12 лет Понятов успел поработать в таких компаниях, как General Electric, Pacific Gas and Electric и Dalmo-Victor Westinghouse, однако в 1944 году принял решение основать собственное дело и зарегистрировал Ampex Electric and Manufacturing Company. Поначалу Ampex специализировалась на производстве высокоточных приводов для систем радиолокации, однако после войны деятельность компании была переориентирована на более перспективное направление производство устройств магнитной звукозаписи. В период с 1947 по 1953 год компания Понятова выпустила несколько весьма удачных моделей магнитофонов, нашедших применение в сфере профессиональной журналистики.

В 1951 году Понятов и его главные технические советники Чарльз Гинзбург, Вейтер Селстед и Мирон Столяров решили пойти дальше и разработать видеозаписывающее устройство. В том же году ими был создан прототип Ampex VR 1000B, использующий принцип поперечно-строчной записи информации вращающимися магнитными головками. Такая конструкция позволяла обеспечить необходимый уровень производительности для записи телевизионного сигнала с частотой несколько мегагерцев.


Схема поперечно-строчной записи видеосигнала

Первая коммерческая модель серии Apex VR 1000 увидела свет спустя 5 лет. На момент релиза устройство продавалось за 50 тысяч долларов, что по тем временам было огромной суммой. Для сравнения: вышедший в том же году Chevy Corvette предлагали всего за $ 3000, а этот автомобиль относился, на минуточку, к категории спорткаров.

Именно дороговизна оборудования в течение долгого времени оказывала сдерживающее влияние на развитие видеонаблюдения. Чтобы проиллюстрировать данный факт, достаточно сказать, что в ходе подготовки к визиту тайской королевской семьи в Лондон полиция установила на Трафальгарской площади лишь 2 видеокамеры (и это для обеспечения безопасности первых лиц государства), а по окончании всех мероприятий охранная система была демонтирована.


Королева Великобритании Елизавета II и принц Филипп, герцог Эдинбургский, встречают короля Таиланда Пхумипона и королеву Сирикит

Появление функций приближения, панорамирования и разворота по таймеру позволило оптимизировать расходы на построение охранных систем за счет сокращения количества устройств, необходимых для контроля территории, однако реализация подобных проектов все еще требовала немалых денежных вложений. Так, например, разработанная для города Олеан (штат Нью-Йорк) городская система видеонаблюдения, введенная в эксплуатацию в 1968 году, обошлась городским властям в 1,4 миллиона долларов, а на ее развертывание ушло 2 года, и это при том, что вся инфраструктура была представлена лишь 8 видеокамерами. И разумеется, ни о какой круглосуточной записи речи тогда не шло: видеомагнитофон включался лишь по команде оператора, ведь и пленка, и само оборудование были слишком дорогими, и об их эксплуатации в режиме 24/7 не могло быть и речи.

Все изменилось с распространением стандарта VHS, появлением которого мы обязаны японскому инженеру Сидзуо Такано, работавшему в компании JVC.


Сидзуо Такано, создатель формата VHS

Формат предполагал использование азимутальной записи, при которой задействуются сразу две видеоголовки. Каждая из них записывала одно телевизионное поле и имела рабочие зазоры, отклоненные от перпендикулярного направления на одинаковый угол 6 в противоположные стороны, что позволяло снизить перекрестные помехи между соседними видеодорожками и значительно уменьшить промежуток между ними, повысив плотность записи. Видеоголовки располагались на барабане диаметром 62 мм, вращающемся с частотой 1500 оборотов в минуту. Кроме наклонных дорожек видеозаписи, вдоль верхнего края магнитной ленты записывались две дорожки звукового сопровождения, разделенные защитным промежутком. Вдоль нижнего края ленты записывалась управляющая дорожка, содержащая кадровые синхроимпульсы.

При использовании формата VHS на кассету писался композитный видеосигнал, что позволяло обойтись единственным каналом связи и существенно упростить коммутацию между принимающим и передающим устройствами. Кроме того, в отличие от популярных в те годы форматов Betamax и U-matic, где использовался U-образный механизм заправки магнитной ленты с поворотной платформой, что было характерно и для всех предыдущих кассетных систем, формат VHS был основан на новом принципе так называемой М-заправки.


Схема М-заправки магнитной пленки в кассете VHS

Извлечение и заправка магнитной ленты осуществлялись при помощи двух направляющих вилок, каждая из которых состояла из вертикального ролика и наклонной цилиндрической стойки, определяющей точный угол захода ленты на барабан вращающихся головок, который обеспечивал наклон дорожки видеозаписи к базовому краю. Углы захода и схода ленты с барабана были равны углу наклона плоскости вращения барабана к основанию механизма, благодаря чему оба рулона кассеты находились в одной плоскости.

Механизм М-заправки оказался более надежным и помогал снизить механическую нагрузку на пленку. Отсутствие поворотной платформы упрощало изготовление как самих кассет, так и видеомагнитофонов, что благоприятно отражалось на их себестоимости. Во многом благодаря этому VHS одержал уверенную победу в войне форматов, сделав видеонаблюдение по-настоящему доступным.

Видеокамеры также не стояли на месте: на смену устройствам с электронно-лучевой трубкой пришли модели, выполненные на базе ПЗС-матриц. Появлением последних мир обязан Уилларду Бойлу и Джорджу Смиту, работавшим в AT&T Bell Labs над полупроводниковыми накопителями данных. В ходе своих исследований физики обнаружили, что созданные ими интегральные микросхемы подвержены действию фотоэлектрического эффекта. Уже в 1970 году Бойл и Смит представили первые линейные фотоприемники (ПЗС-линейки).

В 1973 году серийный выпуск ПЗС-матриц разрешением 100 100 пикселей начала компания Fairchild, а в 1975 году Стив Сассон из компании Kodak создал на базе такой матрицы первый цифровой фотоаппарат. Однако им совершенно невозможно было пользоваться, поскольку процесс формирования изображения занимал 23 секунды, а его последующая запись на 8-миллиметровую кассету длилась в полтора раза дольше. К тому же в качестве источника питания для камеры использовались 16 никель-кадмиевых батарей, и весило все это добро 3,6 кг.


Стив Сассон и первый цифровой фотоаппарат Kodak в сравнении с современными мыльницами

Основной же вклад в развитие рынка цифровых камер внесла корпорация Sony и лично Кадзуо Ивама, возглавлявший в те годы Sony Corporation of America. Именно он настоял на инвестировании огромных средств в разработку собственных ПЗС-чипов, благодаря чему уже в 1980 году компания представила первую цветную ПЗС-видеокамеру XC-1. После смерти Кадзуо в 1982 году на его могиле была установлена надгробная плита с вмонтированной в нее ПЗС-матрицей.


Кадзуо Ивама, президент Sony Corporation of America в 70-х годах XX века

Ну а сентябрь 1996 года ознаменовался событием, которое по важности можно сравнить с изобретением иконоскопа. Именно тогда шведская компания Axis Communications представила первую в мире цифровую камеру с функциями веб-сервера NetEye 200.


Axis Neteye 200 первая в мире IP-камера

Даже на момент релиза NetEye 200 сложно было назвать видеокамерой в привычном смысле этого слова. Устройство уступало своим собратьям буквально по всем фронтам: его производительность варьировалась от 1 кадра в секунду в формате CIF (352 288, или 0,1 Мп) до 1 кадра за 17 секунд в 4CIF (704 576, 0,4 Мп), причем запись сохранялась даже не в отдельном файле, а в виде последовательности JPEG-изображений. Впрочем, главной фишкой детища Axis была вовсе не скорость съемки и не четкость картинки, а наличие собственного RISC-процессора ETRAX и встроенного Ethernet-порта 10Base-Т, что позволяло подключать камеру напрямую к роутеру или сетевой плате ПК как обычное сетевое устройство и управлять ею с помощью поставляемых в комплекте Java-приложений. Именно это ноу-хау заставило кардинально пересмотреть свои взгляды многих производителей систем видеонаблюдения и на долгие годы определило генеральный вектор развития индустрии.

Больше возможностей больше затраты


Несмотря на бурное развитие технологий, даже по прошествии стольких лет финансовая сторона вопроса остается одним из ключевых факторов при проектировании систем видеонаблюдения. Хотя НТП и поспособствовал значительному удешевлению оборудования, благодаря чему сегодня собрать систему, аналогичную той, что установили в конце 60-х в Олеане, можно буквально за пару сотен долларов и пару часов реального времени, подобная инфраструктура уже не способна удовлетворить многократно возросшие потребности современного бизнеса.

Во многом это объясняется смещением приоритетов. Если раньше видеонаблюдение использовалось лишь для обеспечения безопасности на охраняемой территории, то сегодня главным драйвером развития индустрии (по оценке Transparency Market Research) является ретейл, которому такие системы помогают решать разнообразные маркетинговые задачи. Типичный сценарий определение коэффициента конверсии на основе сведений о числе посетителей и количестве клиентов, прошедших через кассовые стойки. Если добавить сюда систему распознавания лиц, интегрировав ее с действующей программой лояльности, то получим возможность исследования поведения покупателей с привязкой к социально-демографическим факторам для последующего формирования персонализированных предложений (индивидуальных скидок, бандлов по выгодной цене и т. д.).

Проблема заключается в том, что внедрение подобной системы видеоаналитики чревато существенными капитальными и операционными затратами. Камнем преткновения здесь является распознавание лиц покупателей. Одно дело сканирование лица анфас на кассе при бесконтактной оплате, и совсем другое в потоке (в торговом зале), под разными углами и в разных условиях освещения. Здесь достаточную эффективность способно продемонстрировать лишь трехмерное моделирование лиц в реальном времени с использованием стереокамер и алгоритмов машинного обучения, что приведет к неизбежному росту нагрузки на всю инфраструктуру.

Учитывая это, компания Western Digital разработала концепцию Core to Edge storage for Surveillance, предложив клиентам исчерпывающий набор современных решений для систем видеорегистрации от камеры до сервера. Сочетание передовых технологий, надежности, емкости и производительности позволяет выстроить гармоничную экосистему, способную решить практически любую поставленную задачу, и оптимизировать затраты на ее развертывание и содержание.

Флагманской линейкой нашей компании является семейство специализированных винчестеров для систем видеонаблюдения WD Purple емкостью от 1 до 18 терабайт.


Накопители пурпурной серии были специально разработаны для круглосуточной эксплуатации в составе систем видеонаблюдения высокой четкости и вобрали в себя последние достижения Western Digital в сфере производства жестких дисков.

  • Платформа HelioSeal

Старшие модели линейки WD Purple емкостью от 8 до 18 ТБ выполнены на основе платформы HelioSeal. Корпуса этих накопителей абсолютно герметичны, а гермоблок заполнен не воздухом, а разреженным гелием. Снижение силы сопротивления газовой среды и показателей турбулентности позволило уменьшить толщину магнитных пластин, а также добиться большей плотности записи методом CMR благодаря повышению точности позиционирования головки (с применением Advanced Format Technology). Как следствие, переход на WD Purple обеспечивает прирост емкости до 75% в тех же стойках, без необходимости масштабирования инфраструктуры. Помимо этого, накопители с гелием оказываются на 58% энергоэффективнее в сравнении с обычными HDD за счет снижения потребляемой мощности, необходимой для раскрутки и вращения шпинделя. Дополнительная экономия обеспечивается благодаря сокращению затрат на кондиционирование: при одинаковой нагрузке WD Purple оказывается холоднее аналогов в среднем на 5C.

  • Технология AllFrame AI

Малейшие перебои во время записи могут привести к потере критически важных видеоданных, что сделает невозможным последующий анализ полученной информации. Чтобы это предотвратить, в прошивку дисков пурпурной серии была внедрена поддержка опционального раздела Streaming Feature Set протокола ATA. Среди его возможностей необходимо выделить оптимизацию использования кэша в зависимости от количества обрабатываемых видеопотоков и управление приоритетом исполнения команд чтения/записи, благодаря чему удается минимизировать вероятность пропуска кадров и появление артефактов изображения. В свою очередь, инновационный набор алгоритмов AllFrame AI обеспечивает возможность эксплуатации винчестеров в системах, обрабатывающих значительное число изохронных потоков: диски WD Purple поддерживают одновременную работу с 64 камерами высокой четкости и оптимизированы для высоконагруженных систем видеоаналитики и Deep Learning.

  • Технология Time Limited Error Recovery

Одной из распространенных проблем при работе с высоконагруженными серверами является спонтанный распад RAID-массива, вызванный превышением допустимого времени исправления ошибок. Опция Time Limited Error Recovery помогает избежать отключения HDD в случае, если тайм-аут выходит за рамки 7 секунд: чтобы этого не случилось, накопитель подаст RAID-контроллеру соответствующий сигнал, после чего процедура коррекции будет отложена до момента простоя системы.

  • Система мониторинга Western Digital Device Analytics

Ключевые задачи, которые приходится решать при проектировании систем видеонаблюдения, увеличение периода безотказного функционирования и сокращение времени простоя вследствие неисправности. С помощью инновационного программного комплекса Western Digital Device Analytics (WDDA) администратор получает доступ ко множеству параметрических, операционных и диагностических данных о состоянии накопителей, что позволяет оперативно выявлять любые проблемы в работе системы видеонаблюдения, заранее планировать техническое обслуживание и своевременно выявлять жесткие диски, подлежащие замене. Все перечисленное помогает существенно повысить отказоустойчивость охранной инфраструктуры и минимизировать вероятность утраты критически важных данных.

Специально для современных цифровых камер Western Digital разработала линейку высоконадежных карт памяти WD Purple. Расширенный ресурс перезаписи и стойкость к негативным воздействиям внешней среды позволяют использовать данные карточки для оборудования как внутренних, так и внешних камер видеонаблюдения, а также для эксплуатации в составе автономных охранных систем, в которых microSD-карты играют роль основных накопителей данных.


На данный момент серия карт памяти WD Purple включает в себя две продуктовые линейки: WD Purple QD102 и WD Purple SC QD312 Extreme Endurance. В первую вошли четыре модификации флеш-накопителей объемом от 32 до 256 ГБ. По сравнению с потребительскими решениям, WD Purple были специально адаптированы под современные цифровые системы видеонаблюдения за счет внедрения целого ряда важных усовершенствований:

  • влагостойкость (изделие способно выдержать погружение на глубину до 1 метра в пресную или соленую воду) и расширенный диапазон рабочих температур (от -25 C до +85 C) позволяют одинаково эффективно использовать карты WD Purple для оснащения как внутридомовых, так и уличных устройств видеофиксации независимо от погодных и климатических условий;
  • защита от воздействия статических магнитных полей с индукцией до 5000 Гс и устойчивость к сильной вибрации и ударам вплоть до 500 g полностью исключают вероятность утраты критически важных данных даже в случае повреждения видеокамеры;
  • гарантированный ресурс в 1000 циклов программирования/стирания позволяет многократно продлить срок службы карт памяти даже в режиме круглосуточной записи и, таким образом, существенно сократить накладные расходы на обслуживание системы безопасности;
  • функция удаленного мониторинга помогает оперативно отслеживать состояние каждой карты и эффективнее планировать проведение сервисных работ, а значит, дополнительно повысить надежность охранной инфраструктуры;
  • соответствие классам скорости UHS Speed Class 3 и Video Speed Class 30 (для карт объемом от 128 ГБ) делает карты WD Purple пригодными для использования в камерах высокого разрешения, включая панорамные модели.

Линейка WD Purple SC QD312 Extreme Endurance включает в себя три модели: на 64, 128 и 256 гигабайт. В отличие от WD Purple QD102, эти карты памяти способны выдержать значительно большую нагрузку: их рабочий ресурс составляет 3000 циклов P/E, что делает данные флеш-накопители идеальным решением для эксплуатации на особо охраняемых объектах, где запись ведется в режиме 24/7.
Подробнее..

Категории

Последние комментарии

  • Имя: Макс
    24.08.2022 | 11:28
    Я разраб в IT компании, работаю на арбитражную команду. Мы работаем с приламы и сайтами, при работе замечаются постоянные баны и лаги. Пацаны посоветовали сервис по анализу исходного кода,https://app Подробнее..
  • Имя: 9055410337
    20.08.2022 | 17:41
    поможем пишите в телеграм Подробнее..
  • Имя: sabbat
    17.08.2022 | 20:42
    Охренеть.. это просто шикарная статья, феноменально круто. Большое спасибо за разбор! Надеюсь как-нибудь с тобой связаться для обсуждений чего-либо) Подробнее..
  • Имя: Мария
    09.08.2022 | 14:44
    Добрый день. Если обладаете такой информацией, то подскажите, пожалуйста, где можно найти много-много материала по Yggdrasil и его уязвимостях для написания диплома? Благодарю. Подробнее..
© 2006-2024, personeltest.ru