Русский
Русский
English
Статистика
Реклама

Western digital

Обратная сторона копирайта

22.04.2021 20:09:52 | Автор: admin

16 ноября 2012 года на сайте Республиканского исследовательского комитета (Republican Study Committee, или RSC), объединяющего более 170 членов палаты представителей США от республиканской партии, появился занимательный доклад. Документ провисел в открытом доступе не более суток его убрали под предлогом того, что он не соответствовал принятым стандартам RSC и не прошел всех согласований. Впоследствии доклад так и не вернулся на страницы сайта. О чем же говорилось в этом документе и почему его так поспешно изъяли из публичного доступа?

Таинственный доклад, с полным текстом которого по-прежнему можно ознакомиться на Scribd, представлял собой последовательную критику сложившейся системы авторского права и вскрывал основные недостатки копирайта в цифровую эпоху. Хотя авторы документа закономерно опирались на законодательство США, многие обозначенные в нем проблемы актуальны для всего мира. Кратко перечислим основные тезисы.

1. Копирайт наносит ущерб науке, задерживая ее дальнейшее развитие

Многие научные работы XX века защищены авторским правом и отсутствуют в свободном доступе. А между тем их могли бы использовать в своих изысканиях молодые ученые и совершать новые открытия, способствуя дальнейшему научно-техническому прогрессу.

2. Копирайт ограничивает доступность литературы

Технически все когда-либо созданные человечеством печатные тексты можно было бы оцифровать и выложить в открытый доступ, создав гигантскую цифровую библиотеку, в которой любой желающий смог бы отыскать нужное произведение на предпочитаемом языке. Однако появлению такого ресурса препятствует копирайт. Даже в эпоху стремительного развития цифровой дистрибуции вам все равно приходится пользоваться услугами традиционных библиотек. И хотя ряд учреждений оцифровывают доступный книжный фонд для лучшей сохранности и внутреннего использования, по закону они не имеют возможности публиковать цифровые копии литературных произведений в сети.

3. Ограничение развития различных отраслей искусства

Если бы срок защиты авторских прав был разумно ограничен, это стимулировало бы появление множества новых произведений на основе старых. Так, например, фанатское сообщество, сложившееся вокруг Звездных войн, получило бы возможность не только создавать собственный контент, развивающий популярную вселенную, но и монетизировать его, что потенциально могло бы подарить нам с вами куда более интересные и увлекательные фильмы, чем невнятная последняя трилогия.

Ограничение сроков действия копирайта пошло бы на пользу и такому направлению, как создание ремиксов. Данная проблема в большей степени актуальна для США, хотя имеет место и в ряде других стран. Согласно законодательству Соединенных Штатов Америки, диджей может свободно играть ремиксы лишь на живых выступлениях, тогда как запись альбомов для большинства независимых музыкантов является роскошью, которую они попросту не могут себе позволить, поскольку авторские выплаты правообладателям достигают 100 тысяч долларов за каждый используемый семпл.

По мнению авторов доклада, решить эти проблемы можно лишь путем радикального сокращения срока действия авторских прав, который не должен превышать 12 лет. Сейчас копирайт действует на протяжении всей жизни автора плюс в течение 70 лет после его смерти.

4. Цензура

Доступ к документам, на которые могут опираться историки и журналисты в своих исследованиях, может быть ограничен под предлогом защиты авторских прав, благодаря чему заинтересованная сторона сможет препятствовать появлению неугодных ей публикаций, имеющих историческое или общественное значение.

Книги, преданные забвению

Все перечисленные пункты достаточно очевидны и вряд ли требуют научного базиса для подтверждения, однако подобные труды существуют. Одной из самых ярких работ является исследование американского писателя, профессора Иллинойского университета Пола Хилда. В своих изысканиях он опирался на WorldCat крупнейшую в мире библиографическую базу данных, созданную Фредериком Гридли Килгуром еще в 1967 году и успешно развивающуюся и по сей день. Этот ресурс содержит свыше 240 миллионов записей практически обо всех видах произведений, когда-либо созданных на 470 языках мирах, что позволяет собрать весьма точную статистику.

Профессор Иллинойского университета, писатель Пол ХилдПрофессор Иллинойского университета, писатель Пол Хилд

Проанализировав сведения, представленные на WorldCat, ученый обнаружил интересную закономерность. По мере распространения грамотности и развития технологий в XX веке, количество ежегодно создаваемых печатных трудов значительно превысило показатели XIX века, причем это касается как художественной, так и научной литературы. Для сравнения: в 1980-х годах было издано в 8 раз больше новых книг, чем в 1880-х. С учетом такого распределения можно было бы ожидать, что в ассортименте магазинов книги, написанные в конце XX века, будут встречаться примерно в 8 раз чаще, нежели книги, впервые увидевшие свет в конце века XIX. Однако на деле распределение выглядит совершенно иначе.

Как видно из приведенного графика, шансы встретить в магазине книгу, написанную в период с 1820 по 1920 год, значительно выше, чем что-то более современное. Все дело в том, что произведения, увидевшие свет в этот временной период, уже получили статус общественного достояния и могут быть перепечатаны без дополнительных авторских отчислений или выкупа эксклюзивных прав у автора.

Продавать новые романы выгодно лишь в течение ограниченного периода времени: при наличии должной маркетинговой кампании охватить максимум целевой аудитории удается уже в первые год-два, затем же продажи существенно падают, поэтому выпуск дополнительных тиражей оказывается нецелесообразным. И хотя затраты на цифровую дистрибуцию несоизмеримо ниже по сравнению с издержками на печать бумажных книг, издателю все равно необходимо иметь лицензию на распространение соответствующего произведения, а приобретать таковую на срок более 2 лет опять же не имеет смысла, если только речь не идет о каких-то мегапопулярных тайтлах. С научными трудами все совсем печально: будучи слишком нишевыми, они и так плохо продаются, исчезая с книжных полок куда быстрее проходных дамских романов.

Из всего сказанного выше профессор делает неутешительный вывод:

Авторское право в том виде, к которому мы привыкли, способствует снижению уровня доступности книг. Существующая модель бизнеса стимулирует издателей продавать новые книги лишь в течение пары лет после релиза. Повторно книги возвращаются в магазины лишь по истечении авторских прав, притом в гораздо меньшем ассортименте.

Как видите, первые два пункта неудобного доклада о вреде копирайта имеют вполне научное обоснование. Причем проблема заключается не только в невозможности создания глобальной библиотеки, на что сетовал автор, но и в снижении доступности литературы в целом, обусловленном особенностями издательского бизнеса.

Устранение конкурентов: быстро, эффективно, законно

Справедливость же третьего тезиса можно с легкостью подтвердить многочисленными примерами из игровой индустрии. Вспомним тот же MERP (Middle-Earth Roleplaying Project) глобальную модификацию для Skyrim, разработчики которой поставили перед собой весьма амбициозную цель, пожелав не просто в точности воссоздать в виртуальном пространстве мир Средиземья, но и сделать настоящую RPG мечты во вселенной Властелина колец, где игрок мог бы примерить на себя роль Фродо Бэггинса и пройти нелегкий путь от Хоббитона до Ородруина, дабы уничтожить Кольцо Всевластия, или же оставить могущественный артефакт себе, попытавшись стать новым Властелином.

Разработка мода началась в 2008 году. Изначально небольшая команда энтузиастов взяла за основу движок Oblivion, однако после выхода следующей части Древних свитков ребята, оценив возможности обновленного Creation Kit, решили перенести свои наработки на новые рельсы. Возможно, этот проект никогда не дошел бы до релиза, разделив судьбу множества других фанатских долгостроев, застрявших на этапе вечной альфы, а может быть, однажды мы с вами действительно смогли бы поиграть в величайшую ролевую игру всех времен. Однако финал этой истории оказался куда прозаичнее: 31 августа 2012 года моддеры получили официальное письмо от юристов Warner Bros. Interactive Entertainment, в котором правообладатель потребовал прекратить дальнейшую работу над модификацией, пригрозив энтузиастам судом. Оно и понятно: на тот момент студия Monolith уже работала над Middle-earth: Shadow of Mordor, официальный анонс которой состоялся всего год спустя, и Warner Bros. не хотела конкуренции даже в виде бесплатного мода.

Похожая судьба ждала и мультиплеерный шутер Star Wars: Galaxy in Turmoil. Фанаты вселенной Звездных войн, опечаленные отменой Battlefront 3, решили создать собственный мультиплеерный шутер с нуля, взяв на вооружение игровой движок Unreal Engine 4. Разработчикам удалось довести проект до вполне играбельного состояния и даже выпустить в раннем доступе Steam, но однажды письмо счастья пришло и на их e-mail.

Electronic Arts, получившая эксклюзивные права на разработку игр по легендарной вселенной, оказалась недовольна появлением подобной игры: лишние конкуренты, особенно на фоне лутбоксового скандала, разворачивающегося вокруг нового Battlefront, который EA на старте всеми силами пыталась превратить в pay-2-win-проект, издателю были не нужны, тем более в виде абсолютно бесплатной игры.

Однако авторы Star Wars: Galaxy in Turmoil не сдались. Они полностью удалили все ассеты, так или иначе связанные с франшизой Звездных войн, переформатировав игру в научно-фантастический сетевой шутер с элементами киберпанка. Данный шаг помог уберечь проект от закрытия, но не от краха: без должного продвижения, которое было не по карману разработчикам, без громкого имени и статуса наследника того самого Battlefront, который так полюбился сообществу, игра перестала развиваться, растеряв львиную долю пользовательской базы.

Двухмерный файтинг My Little Pony: Fighting is Magic один из тех редких примеров, когда фанатская работа смогла выжить после релонча. Подобно создателям Star Wars: Galaxy in Turmoil, получив иск от Hasbro, авторы файтинга (команда из 9 человек, известная в сети под именем Mane6) полностью переработали оригинальную игру и привлекли необходимые для завершения разработки средства через краудфандинговую платформу Indiegogo, сумев добраться до полноценного релиза, который состоялся 30 апреля 2020 года. На этапе перезапуска проекта команда Mane6 нашла неожиданную поддержку в лице аниматора My Little Pony Лорен Фауст, которая помогла энтузиастам с созданием новых персонажей для файтинга в характерном визуальном стиле. Новая версия игры получила название Them's Fightin' Herds.

Впрочем, история Them's Fightin' Herds скорее исключение, чем правило. В Hasbro обратили внимание на проект слишком поздно: на момент, когда Mane6 получила официальное требование прекратить разработку, файтинг уже был достаточно известен в кругу ценителей и даже едва не вошел в перечень официальных дисциплин ежегодного киберспортивного турнира Evolution Championship Series благодаря уникальным движениям и комбо. Сложись обстоятельства иначе, игра канула бы в Лету, как и многие другие подобные проекты.

Продолжение Chrono Trigger под кодовым названием Crimson Echoes (Square Enix), ремейк Metal Gear Solid (Konami), MMO во вселенной покемонов PokeNet (Nintendo) перечислять отмененные по воле правообладателей фанатские проекты и их убийц можно бесконечно. И если мотивацию той же Nintendo еще можно понять (как ни крути, японский гигант старательно развивает принадлежащие ему франшизы), то Konami ведет себя подобно собаке на сене из поговорки, ведь во вселенных некогда знаковых Silent Hill и Metal Gear сегодня выходят лишь автоматы патинко.

Вот как выглядит официальный ремейк MGS 3 от KonamiВот как выглядит официальный ремейк MGS 3 от Konami

Но, так или иначе, все эти примеры наглядно доказывают правоту авторов упомянутого нами доклада о вреде копирайта в его нынешнем виде.

Правообладатели на страже нравственности

Четвертый же пункт претерпел в наше время весьма неожиданную трансформацию. Если авторы доклада говорили прежде всего о цензуре со стороны политических сил, стремящихся скрыть нелицеприятные факты о тех или иных событиях, то сегодня мы с вами сталкиваемся с таким явлением, как цензура корпоративная, которая зачастую оказывается куда более бессмысленной и беспощадной.

Обратимся к событиям лета 2020 года. 10 июня на фоне массовых протестов в США стриминговый сервис HBO Max снял с ротации нестареющую киноклассику Унесенные ветром. После закономерного недовольства подписчиков конгломерат WarnerMedia выпустил следующее заявление:

Унесенные ветром это продукт своего времени, изображающий в том числе некоторые из этнических и расовых предрассудков, которые, к сожалению, были распространены в американском обществе. Подобные расистские моменты были ошибочными тогда и неприемлемы сегодня. Мы считаем, что показ этого фильма без объяснения и осуждения этих моментов безответственен.

Все это противоречит ценностям WarnerMedia, поэтому, когда фильм вернется на HBO Max, он вернется с обсуждением его исторического контекста и осуждением подобных предрассудков. При этом кинолента будет представлена без изменений, ведь поступить иначе все равно что заявить, что этого никогда не существовало. Для создания более справедливого, равноправного и инклюзивного общества необходимо признать и понять собственную историю.

Вчерашняя классика может впасть в немилость по воле трендовВчерашняя классика может впасть в немилость по воле трендов

Спустя 15 дней фильм действительно вернулся в каталог HBO Max. Впрочем, иного исхода сложно было ожидать: вряд ли кто-то осмелился бы предать забвению картину, завоевавшую 8 статуэток Оскар и включенную в 1989 году в Национальный реестр фильмов США. Однако теперь перед началом фильма зрителям демонстрируется лекция профессора Чикагского университета кинематографии Жаклин Стюарт, повествующая о стереотипном изображении афроамериканцев в кино, а вторую часть картины предваряет запись круглого стола на тему Сложное наследие Унесенных ветром, состоявшегося на кинофестивале TCM в 2019 году.

А вот современным сериалам повезло куда меньше. Так, Netflix, BBC и BritBox отказались от проката скетч-шоу Маленькая Британия. Причиной этого послужило неподобающее поведение актеров, которые карикатурно изображали представителей других рас. Тот факт, что британские комики Мэтт Лукас и Дэвид Уильямс изначально стремились создать максимально неполиткорректное шоу, в котором бы высмеивались все возможные стереотипы и пороки общества (причем в первую очередь под удар попали коренные англичане), руководством стриминговых сервисов был благополучно проигнорирован. Впал в немилость даже документальный (!) сериал Полицейские, выходивший с 1989 года: телеканал Paramount Network объявил о закрытии шоу всего за 5 дней до премьеры 33-го сезона. Официальной причиной для этого послужило унижающее человеческое достоинство изображение афроамериканцев.

Если в нулевых над скетчами Лукаса и Уильямса смеялся весь мир, то сегодня их шоу считается аморальнымЕсли в нулевых над скетчами Лукаса и Уильямса смеялся весь мир, то сегодня их шоу считается аморальным

Не остался в стороне и Дисней, хотя медиагиганту и понадобилось для раскачки больше времени. В соответствии с новой политикой инклюзивности компания ввела ограничения на доступ к ряду классических полнометражных мультфильмов в стриминговом сервисе Disney+, которые долгие годы оставались визитной карточкой компании. Такие анимационные ленты, как Питер Пен, Думбо, Книга джунглей, Коты-аристократы, и ряд других произведений перестали отображаться в детских профилях, а их описания были дополнены предупреждениями о содержащихся в мультфильмах расовых и культурных стереотипах, существовавших во время создания произведений.

Целесообразность подобного поступка вызывает вопросы. Если вы еще не прочли манифест Диснея, то попробуйте навскидку вспомнить, что такого криминального было в перечисленных мультфильмах. Вряд ли, будучи ребенком, вы задумывались о том, что вороны из Думбо являются прообразом уличных комиков, высмеивающих африканцев в характерном гриме (так называемый блэкфейс), а имя их главаря и вовсе отсылка к Законам Джима Кроу времен расовой сегрегации в США. Это весьма тонкий момент, на который могут обратить внимание лишь взрослые, хорошо знающие историю.

Да и для того, чтобы отыскать расистский подтекст в песенке Короля Луи, блестяще исполненной джазовым музыкантом Луи Прима, надо очень постараться. Во всяком случае, на формирование мировоззрения ребенка это произведение уж точно никак не повлияет (ну разве что привьет вкус к хорошей музыке).

Впрочем, повышение возрастного рейтинга весьма мягкая мера, ведь Дисней уже не раз демонстрировал, на что способен в борьбе за нравственные устои общества. Достаточно вспомнить хотя бы релиз фильма Всплеск, в котором все сцены с обнаженной Дэрил Ханна, даже самые невинные, на которых и так не разглядеть каких-либо подробностей, были любовно зацензурены с помощью компьютерной графики (к слову, довольно низкого качества).

А еще раньше Диснея уличили в удалении целого эпизода из культового мультсериала Симпсоны, один из персонажей которого, Леон Камповски, считал себя Майклом Джексоном и разговаривал его голосом, однако совершенно не умел петь. Так что в случае с классическими мультфильмами все еще обошлось малой кровью.

Поиск глубинных причин подобных действий со стороны правообладателей не является целью сегодняшнего материала, тем более что все и так достаточно очевидно. С одной стороны, громкие заявления и демонстративные поступки способствуют расширению рынка сбыта за счет повышения лояльности потенциальных клиентов, придерживающихся определенных политических и социальных взглядов. В то же время отказ от спорного контента позволяет компаниям избегать судебных исков от представителей тех или иных сообществ, о чем, в частности, напрямую заявляла Sony.

Напомним, что еще в апреле 2019 года компания объявила об ужесточении контроля за контентом эротического характера в играх, выходящих на платформе PlayStation. В интервью The Wall Street Journal официальные представители Sony четко обозначили причины данного поступка:

Мы обеспокоены тем, что можем стать целью судебного преследования, социальных акций, а также понести репутационные потери, которые негативно отразятся на деятельности компании в будущем.

В своем стремлении угодить вокальному меньшинству Sony пустилась во все тяжкие, начав с цензуры обложек для дисковых изданий и дойдя в конечном счете до вырезания пикантных моментов даже из игр с рейтингом 18+.

Слева версия обложки для семейной консоли Nintendo Switch, справа для взрослой PlayStation 4Слева версия обложки для семейной консоли Nintendo Switch, справа для взрослой PlayStation 4

Новый регламент ударил по небольшим студиям. Все дело в том, что на первых порах у Sony вообще не было строгих критериев или письменного свода правил: ужесточение требований в отношении взрослого контента в играх вступило в силу неожиданно для всех, вскоре после череды скандалов, связанных с движением MeToo (судя по всему, именно они и послужили основной причиной столь скоропалительного пересмотра внутренней политики). И если крупные издатели вроде Capcom могли позволить себе выпускать специальные версии игр для консолей PlayStation, то у инди-разработчиков начались серьезные проблемы.

В Devil May Cry 5 мотоцикл Данте обзавелся мощными ксеноновыми фарами, призванными скрыть прелести ТришВ Devil May Cry 5 мотоцикл Данте обзавелся мощными ксеноновыми фарами, призванными скрыть прелести Триш

Трудности заключаются в том, что мы понятия не имеем, что нам скажут, до того как завершим работу над игрой и отправим ее на рассмотрение. Даже если еще несколько дней назад такой контент считался допустимым, это не значит, что завтра игру не отправят на доработку. Внесение корректив в готовый проект обходится очень дорого, к тому же мы терпим убытки из-за переноса релиза.

Здесь обозначена вторая по важности (после самого факта корпоративной цензуры) проблема постоянно меняющиеся правила игры. Те же Унесенные ветром снимались во времена действия Кодекса Американской ассоциации кинокомпаний, более известного как Кодекс Хейса (назван по имени Уильяма Харрисона Хейса, возглавлявшего ассоциацию в период с 1922 по 1945 год). Данный свод правил включал в себя 11 пунктов, соблюдение которых было обязательным, и еще 25 носящих рекомендательный характер. Хотя в этом перечне было немало странных (даже по тогдашним меркам) требований, если кинокартина им соответствовала, ее выпускали в прокат без каких-либо ограничений.

Уильям Харрисон Хейс главный борец за нравственность в Голливуде начала XX векаУильям Харрисон Хейс главный борец за нравственность в Голливуде начала XX века

Сегодня ситуация в корне отличается. Мы с вами точно не знаем, что может произойти в следующий момент, какие тренды станут актуальными, какие политические или культурные веяния зародятся завтра. Для независимых создателей контента, будь то игровые инди-студии, небольшие музыкальные коллективы или авторы независимого кино, это может оказаться фатальным: проект, на реализацию которого ушли годы, способен в одночасье превратиться в токсичный актив, с которым не захочет иметь дело ни один издатель, звукозаписывающий лейбл или стриминговый сервис. В таких условиях смогут выживать лишь максимально беззубые творения, стремящиеся угодить всем и, как правило, не имеющие ничего общего с понятием искусство.

Для нас же с вами как потребителей контента последствия будут также весьма печальными: в эпоху цифровой дистрибуции правообладатель способен отменить или искалечить любое неправильное произведение, вырезав неудобные моменты, и никто ничего не сможет с этим поделать. Увы, главным девизом современного бизнеса стала любимая фраза Беликова Как бы чего не вышло. В рамках превентивного damage-control правообладатели предпочитают заблаговременно избавляться от всего, что потенциально может принести репутационные и/или финансовые потери, а когда речь заходит о миллионах и даже миллиардах долларов, интересы конечного потребителя уже мало кого волнуют.

Мой магазин мои правила: ноу-хау от Ubisoft

Впрочем, помимо исчезновения тех или иных произведений из сервисов цифровой дистрибуции в силу истечения сроков действия прав на их распространение или в угоду современным трендам, существует и еще одна серьезная проблема, для обозначения которой лучше всего подойдет такой эпитет, как произвол издателя.

Ранее мы уже обращались к теме копирайта в цифровую эпоху применительно к онлайн-магазинам компьютерных игр, однако прошлая публикация была встречена читателями неоднозначно: кто-то решил, что мы критикуем конкретно Steam (хотя на самом деле мы критиковали сложившуюся модель дистрибуции в целом, при которой издатель может сделать с приобретенной вами игрой все, что посчитает нужным, в том числе изменить до неузнаваемости и даже отобрать), а кто-то не воспринял высказанные опасения всерьез. Но Ubisoft расставила все точки над i, убедительно доказав, что мы были правы, хотя компания и превзошла все наши самые смелые ожидания.

Еще 12 мая 2020 года издатель изменил текст пользовательского соглашения, в котором появился весьма интересный пункт 8.2, касающийся условий прекращения действия учетной записи, необходимой для использования сервисов Ubisoft. Согласно ему, компания может закрыть ваш аккаунт в том случае, если он был неактивен более 6 месяцев. Разумеется, ни о какой компенсации денежных средств, потраченных на игры, речи не идет, о чем прямо сказано в пункте 8.3.

Обновленное EULA вызвало жаркие споры, причем у французского издателя нашлось и немало защитников, утверждавших, что речь идет о профилях, заблокированных после взлома или выявления факта использования читов, и что, вообще, все эти соглашения пишутся так, чтобы в случае чего прикрыть издателя в юридическом поле, а на самом деле никто ничего удалять, конечно же, не будет.

Однако все оказалось куда прозаичнее: пункт 8.2 не имеет скрытых трактовок, и понимать все, что в нем изложено, следует буквально, в чем ряд пользователей уже смогли убедиться самолично, получив спустя полгода вот такие замечательные письма счастья.

С точки зрения бизнеса обосновать данный шаг легко. Лояльной аудитории Ubisoft, которая покупает и играет в игры издателя на постоянной основе, бояться нечего: они и так будут регулярно авторизовываться в сервисе и никогда не получат подобный email. В то же время это неплохой способ стимулировать к покупке тех, кто заходит в Uplay лишь время от времени (например, чтобы поиграть в Реймана или перепройти старых Принцев Персии), делать это чаще: возможно, в очередной раз запустив лаунчер, такой пользователь польстится на скидку и прикупит что-нибудь новенькое, а там, глядишь, распробует новых Ассасинов и станет приобретать по игре каждый год (а может быть, и во внутриигровой магазин занесет немного наличности).

Прозорливые читатели могут возразить: никакое соглашение, будь то публичная оферта или подписанный собственноручно бумажный договор, не могут противоречить действующему законодательству, а значит, EULA Ubisoft не имеет силы в подавляющем большинстве стран, так как идет вразрез с законом о защите прав потребителей. И это действительно так, но, чтобы вернуть заблокированный аккаунт или получить компенсацию, вам придется подать иск против весьма крупного и богатого издателя.

А теперь ответьте для себя на следующие вопросы. Попав в подобную ситуацию, вы пойдете в суд? Решив судиться, сможете ли вы найти единомышленников для подачи коллективного иска? Есть ли у вас на примете кто-либо из влиятельных персон (представитель законодательной власти или известная медийная личность), кто был бы заинтересован в подобном процессе (например, ради пиара или из идейных соображений) и взялся бы участвовать в таком разбирательстве, оказывая посильную помощь?

Современные реалии таковы, что, будь вы хоть сто раз правы, выиграть у корпорации с огромной армией профессиональных юристов процесс в одиночку, не обладая достаточными финансовыми возможностями, без поддержки сильных мира сего, вы никак не сможете. И далеко не факт, что, когда лично у вас отберут аккаунт с играми, фильмами, книгами или другим цифровым контентом, обстоятельства сложатся в вашу пользу. Не говоря уже о том, что такое противостояние может затянуться на много лет, в течение которых вы все еще не сможете пользоваться своей учетной записью и привязанным к ней контентом.

Если снять розовые очки, то в современных реалиях вы должны четко осознавать, что прибегая к услугам площадок вроде UPlay вы не покупаете цифровой контент, а берете его в аренду на условиях, навязанных издателем, и можете в любой момент лишиться всей вашей коллекции без возможности восстановления или возврата средств. Это объективное положение вещей. Все, что вам нужно, решить лично для себя, как вы относитесь к потребляемому продукту в целом. Если вы не имеете привычки возвращаться к ранее пройденным играм, просмотренным фильмам или прочитанным книгам и четко осознаете, что деньги, которые вы отдаете платформам цифровой дистрибуции, это плата за сервис, а не за игру, фильм или музыкальный альбом как сущность, то по гамбургскому счету вам не о чем волноваться.

В противном же случае вы должны понимать, что ваша коллекция игр, музыки, фильмов, книг это не более чем таблица в базе данных, которая вам не принадлежит и однажды может быть стерта или отредактирована по воле правообладателя. Единственный, кто способен гарантировать вам доступ к контенту, вы сами. Как же это сделать?

Спасение утопающих

Для начала стоит вспомнить о возможности приобретения контента на физических носителях. Хотя сегодня на золото уходит отнюдь не каждый фильм, музыкальный альбом или игра, это не значит, что их вообще перестали выпускать: оптические диски, винил и даже картриджи для консолей прошлых лет все еще можно отыскать на полках магазинов или на том же Ebay, если речь идет о каких-то раритетных изданиях.

Старый добрый винил в наше время становится как никогда актуаленСтарый добрый винил в наше время становится как никогда актуален

Помимо этого, вы можете использовать сервисы, которые позволяют приобрести цифровую копию того или иного произведения и пользоваться ею без онлайн-активации или привязки к аккаунту. Пусть подобных площадок не так много, но они существуют и зачастую способны по-настоящему удивить. Взять, к примеру, тот же Bandcamp: здесь представлены сотни уникальных в своей самобытности коллективов, которых не найти на Deezer и Spotify, к тому же, в отличие от популярных стриминговых сервисов, здесь вы можете скачать любые приобретенные композиции и альбомы в lossless-качестве.

Наконец, не стоит забывать о проектах вроде Public Domain Torrents, Legit Torrents и аналогичных. Названия этих площадок говорят сами за себя: здесь энтузиасты выкладывают фильмы, музыку, игры, имущественные авторские права на которые истекли или вообще никогда не существовали, то есть произведения, находящиеся в статусе общественного достояния. Копирование и распространение таких материалов является полностью легальным, так что, пользуясь услугами подобных площадок, вы не нарушаете действующее законодательство.

Сохранить же резервные копии полученного тем или иным способом цифрового контента вам поможет надежное сетевое хранилище и накопители Western Digital. На Хабре уже неоднократно выходили публикации, посвященные самостоятельной сборке NAS, так что вы сможете без труда отыскать не один десяток готовых рецептов. Что же касается накопителей для реализации подобного проекта, то лучшим выбором были и остаются жесткие диски WD Red Plus.

Данная линейка включает в себя девять моделей емкостью от 2 до 14 терабайт, предназначенных для эксплуатации в составе сетевых устройств хранения данных и вобравших в себя последние технологические достижения Western Digital. Ниже мы во всех подробностях рассмотрим каждую из используемых технологий, чтобы вы, уважаемые читатели, смогли по достоинству оценить предлагаемые нами решения.

  • Высокая надежность

Одна из особенностей жестких дисков WD Red Plus заключается в том, что парковка блока головок дисков осуществляется только при обесточивании NAS, поскольку параметр APM (Advanced Power Management) по умолчанию имеет значение 0. Параметр spindown (standby) timer также принимает нулевое значение: полная остановка мотора происходит лишь при отключении питания. Это позволяет, во-первых, сократить время отклика накопителя, а во-вторых, дополнительно продлить срок службы электродвигателя. И это при том, что привод блока головок может похвастаться ресурсом в 600 тысяч циклов парковки, что вдвое больше, чем у обычных винчестеров.

  • Платформа HelioSeal четвертого поколения

Жесткие диски WD Red Plus и WD Red Pro емкостью 8 терабайт и более созданы на базе платформы HelioSeal версии 4.0. Их корпуса абсолютно герметичны и заполнены инертным газом гелием, плотность которого практически в семь раз меньше плотности воздуха. Низкое сопротивление газовой среды дало возможность использовать более тонкие магнитные пластины, что позволило увеличить их количество, а снижение силы трения способствовало сокращению энергозатрат на раскрутку шпинделя. В свою очередь, уменьшение турбулентности помогло повысить точность позиционирования магнитных головок, благодаря чему удалось уменьшить зазор между ними и поверхностью блинов, а также сократить площадь треков, расположив их более компактно.

Как следствие, гелиевые накопители оказываются не только вместительнее, но и практически на 50% экономичнее и на 45C холоднее воздушных аналогов, что делает такие устройства идеальным решением для эксплуатации в составе сетевых хранилищ, работающих в режиме 24/7, а также ультракомпактных устройств серии My Cloud, потенциал системы охлаждения которых ограничен вследствие малых размеров корпуса.

  • Защита от вибрации

При вращении на каждую магнитную пластину действуют дисбалансирующие силы, причем одновременно в двух плоскостях: горизонтальной (блины смещаются в плоскости сечения оси шпинделя) и вертикальной (вектор приложен перпендикулярно, блок пластин как бы колеблется вверх-вниз). Чтобы нивелировать перечисленные эффекты, в заводских условиях проводится тщательная балансировка каждого устройства, в ходе которой подбирается оптимальная длина фиксирующих винтов. Помимо этого, мы используем систему демпферов и амортизаторов, которые эффективно гасят возникающую вибрацию. Данный комплекс мер получил название 3D Active Balance Plus.

Дополнительную надежность механизму придает технология StableTrac, предусматривающая двухстороннюю фиксацию вала электропривода.

Все это позволяет стабилизировать магнитные пластины, что также оказывает положительное влияние на точность позиционирования пишущих головок во время операций ввода/вывода.

  • Прошивка NASware 3.0

Фирменная микропрограмма Western Digital гарантирует совместимость накопителей с широким спектром материнских плат и дисковых контроллеров, что полностью исключает возникновение конфликтов между комплектующими на аппаратном уровне. Поддержка набора команд ATA Streaming Feature Set обеспечивает возможность параллельного выполнения операций чтения/записи за счет оптимизации использование кэш-памяти диска, благодаря чему вы сможете использовать NAS в качестве мультимедийного сервера, транслируя потоковое видео одновременно на несколько устройств и не опасаясь падения производительности системы хранения.

В свою очередь, поддержка технологии TLER (Time Limited Error Recovery) помогает дополнительно обезопасить вашу цифровую коллекцию за счет наличия обратной связи между накопителем и RAID-контроллером. Все дело в том, что даже при штатной работе жесткого диска неизбежно возникают ошибки считывания, обусловленные нестабильностью сектора или сбоем во время записи. В подобных случаях HDD действует согласно следующему алгоритму:

  • происходит повторная попытка записи в тот же сектор с последующим контрольным чтением;

  • если уровень сигнала по-прежнему остается низким, контроллер расценивает это как однозначный признак износа магнитного покрытия;

  • данные переносятся в другой сектор, а дефектный соответствующим образом помечается в дальнейшем при перезаписи он будет игнорироваться.

Схема отлично работает, когда речь идет об одиночных винчестерах, однако, если накопители объединены в массив, в дело вступает RAID-контроллер, который должен отслеживать состояние каждого устройства. Проблема в том, что во время коррекции ошибок диск не реагирует на отправляемые команды, и, если период латентности превышает 7 секунд (по умолчанию), диск исключается из массива, так как контроллер воспринимает такое молчание как признак отказа оборудования.

TLER решает данную проблему следующим образом. При выявлении ошибки инициируется стандартный алгоритм коррекции, однако, если уложиться в положенное время не удается, диск отправляет сигнал RAID-контроллеру. Последний фиксирует сообщение в журнале, откладывая процедуру исправления до более удачного момента (например, до простоя системы), что позволяет не только полностью исключить вероятность произвольного распада массива, но и дополнительно снизить нагрузку на систему хранения.

Все перечисленное делает жесткие диски семейства WD Red Plus практически идеальным решением для построения высокоемкого производительного NAS, который поможет сохранить ваши любимые фильмы, музыку, компьютерные игры, записи любимых шоу и другой цифровой контент и оградить вашу коллекцию от вероломных действий со стороны правообладателей.

Подробнее..

Western Digital разработала новую файловую систему для Linux-систем

28.12.2020 18:17:25 | Автор: admin
На полях файловых систем редко происходит что-то новое. У нас есть FAT/16/32, NTFS, Ext4, Btrfs и другие, более экзотичные способы управления дисковым пространством. Файловая система в целом явление статичное: когда-то разработчики и инженеры придумали, как структурировать данные на диске, и с тех пор все мы этим пользуемся не задумываясь, что происходит под капотом на уровне железа.

И вот теперь, компания-производитель накопителей Western Digital заявила, что активно занимается разработкой новой файловой системы DZS или Digital Zoned Storage. Основная цель новой системы применение в промышленном оборудовании HDD и твердотельных накопителях с последующим снижением нагрузки на контроллер SSD.



Для HDD файловая система DZS сильна тем, что упрощает традиционную схему доступа к файлам и дает пользователю удобный API для управления данным вкупе с использованием черепичной технологии записи SMR.



Фактически, разработка будет интересна, в первую очередь, администраторам СУБД и прочим пользователям, оперирующим большим массивом статичных данных.

Основное отличие DZS от прочих файловых систем в ее меньшей гибкости: В разработке Western Digital запись файла может осуществляться только в рамках одной зоны, при этом только последовательно. Прочие современные файловые системы поддерживают режим произвольной записи файлов, которая, несомненно, является в некотором роде преимуществом.

Утверждение выше об исключительно последовательной записи файла внутри выделенной зоны дискового пространства справедлива как для HDD (в том числе и с технологией черепичной записи, которая только усиливает плюсы подобного подхода), так и для SSD.

Наибольший выигрыш в ресурсе и производительности новая система получит, конечно же, в SSD-накопителях, которые не имеют физических ограничений на чтение разных частей диска, как это происходит с HDD. О них и поговорим далее. Этим летом система DZS официально стала частью стандарта NVMe, то есть речь идет не просто о каком-то безумном концепте файловой системы от Western Digital, а о вполне реальной разработке, которая в скором будущем может стать частью IT-рынка.

Случайная запись на SSD не до конца случайна. При удалении файла, который был разбросан по секторам по частям, повторное использование дискового пространства возможно только при условии полной очистки сектора и подготовки его к повторному использованию. То есть, при эксплуатации SSD он постоянно подвергается так нелюбимой многими дефрагментации, постоянно занимается реорганизацией собственного внутреннего пространства. В технической терминологии это называется сборкой мусора.



Процесс сбора мусора на SSD создает регулярную нагрузку на контроллер диска: кроме необходимой пользователю операции, он еще занимается и теневой работой по освобождению пространства блока. Эти операции, по сути, значительно сокращают ресурс контроллера твердотельного накопителя и приводят к преждевременному отказу диска. Плюс, не стоит забывать и о постоянных лишних операциях чтения-записи, которые сокращают ресурс памяти и приводят к ее деградации. Ну и конечно же, именно необходимость иметь буфер памяти для проведения операции сборки мусора, приводит к обидному сокращению доступного объема SSD для пользователя.



Western Digital в своей новой системе предлагает вернуться к практике последовательной записи и, соответственно, к последовательному доступу к файлам одной группы/приложения, для того, чтобы отказаться от постоянной сборки мусора на SSD при операциях удаления-записи.



У предлагаемой производителем системы, кроме снижения нагрузки на контроллер и продления его жизни, есть еще и вполне ощутимый прирост в производительности. Система DZS способна обеспечить стабильно максимальную скорость записи на SDD в отличие от других файловых систем, которые из-за случайного доступа и необходимости сбора мусора во время работы, зачастую упираются в показатели на уровне 200-230 Мб/с.



Так как Western Digital является активным членом Linux-сообщества (что, впрочем, ожидаемо, так как основные клиенты компании дата-центры и администраторы Unix-систем), то и поддержка новой файловой системы была завезена, в первую очередь, на Linux-системы.

Сейчас Digital Zoned Storage уже доступен для использования на Long Term Stable (LTS) версиях Kernel-ядра 4.14, 4.19 и 5.4, однако, если вы захотите воспользоваться всеми возможностями файловой системы, то стоит использовать ядро версий 5.x.



Вполне вероятно, DZS сможет составить конкуренцию существующим файловым системам, которые активно используются для хранения больших массивов относительно статичных данных. Для этого есть несколько факторов:

  • применимость файловой системы как для HDD, так и для SSD;
  • работоспособность системы с черепичной схемой записи для сверхплотных HDD 20+ Tb;
  • снижение нагрузки на контроллер SSD;
  • повышение скорости записи-чтения, что критично для БД и массивов;
  • как следствие, снижение издержек потребителей и компаний на гарантийное обслуживание.


Последний пункт крайне важен, так как мы уже многие годы живем в условиях дефицита флеш- и оперативной памяти. При этом основным потребителем массивов для хранения данных все еще остаются крупные компании из Enterprise-сегмента, а базы данных или прочие статичные массивы все еще самый популярный сценарий использования хранилищ данных. При этом увеличение скорости доступа к файлам без увеличения стоимости производства оборудования серьезный буст для всего сектора.

Полезные ссылки по теме






Специально для читателей Хабра у нас 50% скидка на любые серверы и VPS любых конфигураций!

Промокод при покупке на нашем сайте:

habrhabr


Промокод активен до 2 февраля 2021 года!

Подробнее..

Поддержка устройств зонального хранения данных в различных версиях операционных систем на базе Linux

17.03.2021 20:18:15 | Автор: admin

В одной из предыдущих публикаций мы уже рассказывали о концепции зонального хранения данных и о том, какие преимущества обеспечивает эта технология. Но насколько готова ваша IT-инфраструктура к ее внедрению? Хотя работа над поддержкой устройств зонального хранения в операционных системах на базе Linux началась еще в 2014 году, некоторые дистрибутивы и по сей день оказываются неспособны полноценно работать с такими накопителями. Чтобы вам было проще сориентироваться, мы подготовили сегодняшний материал, в котором подробно рассмотрены особенности имплементации зонального хранения данных в различных версиях ядер и популярных дистрибутивах Linux.

Рекомендуемые версии ядер Linux


Впервые поддержка зональных блочных устройств хранения данных появилась в ядре Linux версии 4.10. Первоначально таковая была ограничена пользовательским интерфейсом ZBD (Zoned Block Device) на уровне блоков, возможностью управления очередью последовательной записи на уровне SCSI и нативной поддержкой файловой системы F2FS. В последующих версиях ядер появились дополнительные функции и инструменты, призванные оптимизировать работу с устройствами зонального хранения данных:

  • 4.13.0 добавлен маппер зональных блочных устройств dm-zoned;
  • 4.16.0 внедрена поддержка блочной инфраструктуры с несколькими очередями;
  • 5.6.0 добавлена поддержка файловой системы zonefs, позволяющей работать с отдельными зонами зональных блочных устройств как с обычными файлами;
  • 5.8.0 представлен общий интерфейс блочного уровня, поддерживающий операции записи Zone Append (добавление зоны); появилась возможность эмуляции этих операций на уровне SCSI с помощью обычных команд записи;
  • 5.9 добавлена поддержка набора команд NVMe ZNS (Zoned Name Spaces зональное пространство имен).

Хронологию перечисленных изменений легко проследить на представленной ниже схеме.


Учитывая сказанное выше, при выборе операционной системы следует отдавать предпочтение дистрибутиву, использующему последнюю стабильную версию ядра, поскольку она будет включать в себя все имеющиеся функции и инструменты для работы с зональными блочными устройствами, а также содержать исправления всех проблем и ошибок, известных на момент релиза. Если же вы планируете использовать LTS-версии Linux, то оптимальным выбором для вас станут дистрибутивы операционных систем на базе ядер 4.14, 4.19 и 5.4, так как к ним будут гарантированно применены бэкпорты всех патчей, выпущенных для основной, разрабатываемой в настоящий момент ревизии ядра.

Поддерживаемые дистрибутивы Linux


Предлагаем вашему вниманию сравнительные таблицы, которые помогут оценить уровень поддержки зональных блочных устройств в различных Linux-дистрибутивах, поставляемых с предварительно скомпилированными двоичными ядрами.

Fedora



Fedora операционная система, разрабатываемая сообществом Fedora Project под эгидой Red Hat. Впервые поддержку интерфейса ZBD данный дистрибутив получил в версии 26. Начиная с 27-й ревизии Fedora также включает в себя dm-zoned, скомпилированный как предварительно загружаемый модуль ядра. Последняя на сегодняшний день стабильная версия Fedora 33 обзавелась поддержкой набора команд NVMe ZNS.


Дистрибутив



Ядро


Поддерживаемые технологии


ZBD


dm-zoned


ZNS


Fedora 26 (EOL)


4.11


Да


Нет


Нет


Fedora 27 (EOL)


4.13


Да


Да


Нет


Fedora 28


4.16


Да


Да


Нет


Fedora 29


4.18


Да


Да


Нет


Fedora 30


5.0


Да


Да


Нет


Fedora 31


5.3


Да


Да


Нет


Fedora 32


5.6


Да


Да


Нет


Fedora 33


5.8


Да


Да


Да



Debian



Debian одна из первых Unix-подобных операционных систем, базирующихся на ядре Linux, оказавшая значительное влияние на развитие этого типа ОС в целом. Поддержка зональных блочных устройств появилась в данном дистрибутиве начиная с 10-й версии, получившей кодовое имя Buster.


Дистрибутив



Ядро


Поддерживаемые технологии


ZBD


dm-zoned


Debian 9 (Stretch)


4.9


Нет


Нет


Debian 10 (Buster)


4.19


Да


Да



Ubuntu



Ubuntu один из самых популярных бесплатных дистрибутивов Linux, код которого был изначально основан на Debian. Новые стабильные версии операционной системы выходят с периодичностью в 6 месяцев, а выпуски с долгосрочной поддержкой (LTS) каждые два года. Впервые возможность работы с зональными блочными устройствами через ZBD была реализована в версии 17.04 Zesty Zapus с переходом на ядро 4.10, а уже в следующем выпуске была добавлена поддержка dm-zoned.


Дистрибутив



Ядро


Поддерживаемые технологии


ZBD


dm-zoned


12.04 LTS (Precise Pangolin)


3.2


Нет


Нет


14.04 LTS (Trusty Tahr)


3.13


Нет


Нет


16.04 LTS (Xenial Xerus)


4.4


Нет


Нет


17.04 (Zesty Zapus)


4.10


Да


Нет


17.10 (Artful Aardvark)


4.13


Да


Да


18.04 LTS (Bionic Beaver)


4.15


Да


Да


18.10 (Cosmic Cuttlefish)


4.18


Да


Да


19.04 (Disco Dingo)


5.0


Да


Да


19.10 (Eoan Ermine)


5.3


Да


Да


20.04 LTS (Focal Fossa)


5.4


Да


Да


20.10 (Groovy Gorilla)


5.8


Да


Да



Red Hat Enterprise Linux



Red Hat Enterprise Linux операционная система от компании Red Hat, ориентированная на корпоративных пользователей. Ее отличительными особенностями являются расширенная коммерческая поддержка (до 10 лет с возможностью продления до 13 лет) и высокая стабильность работы, расплатой за которую являются крайне редкие глобальные обновления: даже наиболее актуальный на данный момент дистрибутив 8.3 базируется на ядре 4.180-240.

Хотя эта версия уже поддерживает ZBD и имеет в своем составе dm-zoned, в RHEL соответствующие опции по умолчанию отключены, поэтому работать с зональными устройствами из коробки не получится ядро придется предварительно перекомпилировать.


Дистрибутив



Ядро


Поддерживаемые технологии


ZBD


dm-zoned


RHEL 8


4.180-80


Нет


Нет


RHEL 8.1


4.180-147


Нет


Нет


RHEL 8.2


4.180-193


Нет


Нет


RHEL 8.3


4.180-240


Нет


Нет



Что же касается RHEL 6 и 7, то, поскольку перечисленные выпуски были основаны на ядрах 2.6.32 и 3.10 соответственно, они не способны корректно работать с зональными устройствами хранения данных.


Дистрибутив



Ядро


Поддерживаемые технологии


ZBD


dm-zoned


RHEL 6.0


2.6.32-71


Нет


Нет


RHEL 6.1


2.6.32-131


Нет


Нет


RHEL 6.2


2.6.32-220


Нет


Нет


RHEL 6.3


2.6.32-279


Нет


Нет


RHEL 6.4


2.6.32-358


Нет


Нет


RHEL 6.5


2.6.32-431


Нет


Нет


RHEL 6.6


2.6.32-504


Нет


Нет


RHEL 6.7


2.6.32-573


Нет


Нет


RHEL 6.8


2.6.32-642


Нет


Нет


RHEL 6.9


2.6.32-696


Нет


Нет


RHEL 6.10


2.6.32-754


Нет


Нет


RHEL 6 ELS+


2.6.32-754


Нет


Нет


RHEL 7.0


3.10.0-123


Нет


Нет


RHEL 7.1


3.10.0-229


Нет


Нет


RHEL 7.2


3.10.0-327


Нет


Нет


RHEL 7.3


3.10.0-514


Нет


Нет


RHEL 7.4


3.10.0-693


Нет


Нет


RHEL 7.5


3.10.0-862


Нет


Нет


RHEL 7.6


3.10.0-957


Нет


Нет


RHEL 7.7


3.10.0-1062


Нет


Нет


RHEL 7.8


3.10.0-1127


Нет


Нет


RHEL 7.9


3.10.0-1160


Нет


Нет



CentOS



CentOS операционная система, разрабатываемая сообществом на основе исходных кодов Red Hat Enterprise Linux. Нумерации дистрибутивов CentOS и RHEL, равно как и возможности соответствующих выпусков операционных систем, на 100% совпадают. Как и в Red Hat Enterprise Linux, поддержка зональных блочных устройств появилась в 8-й версии CentOS, однако для активации необходимых опций ядро придется самостоятельно перекомпилировать.

SUSE Linux Enterprise Server



SUSE Linux Enterprise Server (SLES) операционная система, ориентированная на корпоративных пользователей, которую разработала немецкая компания SUSE на базе одноименного дистрибутива. Основные версии SLES выходят с интервалом 23 года, тогда как пакеты обновлений выпускаются примерно каждые 12 месяцев. Полноценная поддержка зональных блочных устройств была добавлена в SUSE Linux Enterprise Server начиная с версии 12.4.


Дистрибутив



Ядро


Поддерживаемые технологии


ZBD


dm-zoned


11.3


3.0.76


Нет


Нет


11.4


3.0.101


Нет


Нет


12.0


3.12


Нет


Нет


12.1


3.12


Нет


Нет


12.2


4.4


Нет


Нет


12.3


4.4


Нет


Нет


12.4


4.12


Да


Да


15


4.12


Да


Да


15.1


4.12.14


Да


Да


15.2


5.3.18


Да


Да



openSUSE



openSUSE (ранее SUSE Linux и SuSE Professional) популярный дистрибутив Linux, разработка которого спонсируется SUSE Linux GmbH. В основе концепции openSUSE лежит создание удобных инструментов с открытым исходным кодом для разработчиков программного обеспечения и системных администраторов.

openSUSE получила поддержку интерфейса ZBD, необходимого для работы с зональными блочными хранилищами, начиная с версии Leap 15.0, а с переходом на ядро 5.3 в сборке Leap 15.2 к ней добавился dm-zoned.


Дистрибутив



Ядро


Поддерживаемые технологии


ZBD


dm-zoned


Leap 15.0


4.12


Да


Нет


Leap 15.1


4.12


Да


Нет


Leap 15.2


5.3


Да


Да


Tumbleweed


5.9+


Да


Да



Поддерживает ли ваша операционная система устройства зонального хранения данных?


Как сказано выше, интерфейс для работы с зональными блочными устройствами хранения данных (Zoned Block Device, ZBD), поддерживающий стандарты T10 ZBC и T13 ZAC, был добавлен в ядро Linux начиная с версии 4.10, поэтому первое, что необходимо сделать, проверить текущую версию ядра с помощью команды терминала uname. Например, при использовании дистрибутива Fedora 29 вывод данной команды будет выглядеть следующим образом:

uname -r5.0.13-200.fc29.x86_64

В нашем случае используется пятая версия ядра, в которую поддержка зональных устройств хранения уже добавлена. Однако, для того чтобы подобные накопители смогли взаимодействовать с операционной системой, ядро должно быть изначально скомпилировано с активным параметром CONFIG_BLK_DEV_ZONED.

Чтобы проверить, включена ли данная опция, можно обратиться напрямую к файлу конфигурации операционной системы, расположенному в директории /boot или /, либо воспользоваться командой:

cat /boot/config-`uname -r` | grep CONFIG_BLK_DEV_ZONED

или же

cat /lib/modules/`uname -r`/config | grep CONFIG_BLK_DEV_ZONED

Для ядер, экспортирующих параметры конфигурации через виртуальную файловую систему proc, можно использовать команды:

modprobe configscat /proc/config.gz | gunzip | grep CONFIG_BLK_DEV_ZONED

или

modprobe configszcat /proc/config.gz | grep CONFIG_BLK_DEV_ZONED

Если соответствующая опция активна, вы увидите следующий вывод:

CONFIG_BLK_DEV_ZONED=y

В случае же, если в терминале отобразится

CONFIG_BLK_DEV_ZONED=n

это будет означать, что поддержка зональных блочных устройств отключена и ядро необходимо предварительно перекомпилировать. Кстати, если перечисленные команды попробовать запустить в операционной системе, использующей ядро более раннее, чем 4.10, их вывод окажется пуст.

От параметра конфигурации CONFIG_BLK_DEV_ZONED зависит поддержка эмуляции зональных блочных устройств на уровне драйвера null_blk, поддержка подсистемы SCSI для накопителей ZBC и ZAC SMR, а также доступ к набору команд зонального пространства имен, необходимых для работы с NVMe SSD. Что же касается управления порядком команд записи, то здесь все оказывается немного сложнее.

Изначально (в ядрах с 4.10 по 4.15 включительно) данная функция была реализована на уровне ядра. Однако начиная с версии 4.16 управление порядком команд записи было передано планировщикам ввода-вывода блочного уровня deadline (работает с единственной очередью команд) и mq-deadline (реализация deadline с использованием blk-mq, поддерживает множественные очереди), использование которых стало обязательным для корректной работы зональных устройств хранения. Позднее, с релизом ядра 5.0, поддержка deadline была полностью упразднена и планировщик mq-deadline стал основным решением для работы с зональными устройствами хранения.

Таким образом, если вы используете операционную систему, базирующуюся на ядре 4.16 или более позднем, вам необходимо убедиться в том, что в качестве планировщика ввода-вывода выбран deadline или mq-deadline. Для этого достаточно воспользоваться следующей командой:

cat /sys/block/sdb/queue/scheduler[mq-deadline] kyber bfq none

Если по умолчанию используется другой планировщик, его можно сменить на нужный, введя команду:

echo deadline > /sys/block/sdb/queue/scheduler

или

echo mq-deadline > /sys/block/sdb/queue/scheduler

Теперь вы можете быть уверены в том, что используемая вами операционная система сможет адекватно взаимодействовать с зональными устройствами хранения данных.
Подробнее..

Практические кейсы по созданию IT-инфраструктуры на базе дисковых полок Western Digital Ultrastar

22.07.2020 22:18:15 | Автор: admin


В современном мире наиболее ценным активом является информация. Информация помогает оптимизировать бизнес-процессы, анализировать рынок и принимать стратегически важные решения, определяющие будущее вашей компании, и даже выстраивать доверительные отношения с клиентами, повышая их лояльность. Однако по мере роста объема обрабатываемых данных любое предприятие неизбежно сталкивается с проблемой нехватки места для их хранения. В ситуациях, когда на первый план выходят не вычислительные мощности, а объем доступного дискового пространства, наиболее рентабельным решением для масштабирования IT-инфраструктуры оказываются дисковые полки JBOD. Именно о них мы и поговорим в сегодняшнем материале.

Ключевые преимущества аппаратной платформы Ultrastar Data


Western Digital предлагает две модели JBOD-массивов, выпускаемых под брендом Ultrastar Data60 и Data102. Указанные модификации полностью идентичны с точки зрения реализованных в них технологий и отличаются друг от друга лишь емкостью, о чем красноречиво говорит числовой индекс в названии: младшая модель способна вместить 60 3.5-дюймовых SAS (12 Гб/с) или SATA (6 Гб/с) накопителей, тогда как флагман до 102 накопителей. Таким образом, одна дисковая полка Ultrastar Data60 позволяет хранить вплоть до 840 RAW-данных, а максимальная емкость Ultrastar Data102 может достигать уже 1.4 петабайта (при использовании жестких дисков Western Digital Ultrastar DC HC 530 емкостью 14 ТБ каждый). При этом 24 из доступных отсеков можно использовать для установки твердотельных накопителей с интерфейсом SAS или SATA, что позволяет достичь оптимального баланса между емкостью и производительностью, задействуя JBOD в сценариях, где на первый план выходит высокая доступность данных.

Проектируя дисковые полки серии Ultrastar Data, мы уделили особое внимание борьбе с негативным воздействием вибрации и высоких температур на функционирование системы. Результатом работы инженеров Western Digital стало появление сразу двух вспомогательных технологий, позволивших значительно улучшить эксплуатационные характеристики JBOD: IsoVibe и ArcticFlow. Рассмотрим каждую из них подробнее.

Технология подавления ротационной вибрации IsoVibe


IsoVibe призвана нивелировать пагубное влияние ротационной вибрации, возникающей при раскрутке шпинделя HDD, на производительность массива. Напомним, что при смещении магнитной головки с трека под действием внешних факторов, микроконтроллер диска вынужден инициировать процедуру позиционирования заново, из-за чего время чтения/записи данных значительно возрастает. Так, например, при воздействии на работающий винчестер ротационной вибрации с угловым ускорением в 50 радиан/сек2 потери производительности могут превысить порог в 70%. В случае с JBOD данная проблема встает еще более остро, так как в силу высокой плотности размещения накопителей в сравнительно компактном корпусе их взаимное влияние друг на друга многократно возрастает.

Технологические решения, реализованные в рамках IsoVibe, направлены на предотвращение распространения вибрации между отсеками дисковой полки, о чем можно догадаться уже по названию самой технологии, которое представляет собой акроним английского словосочетания изолирован от вибрации. Так, в ходе проектирования Ultrastar Data мы полностью отказались от использования винтовых креплений: теперь накопители фиксируются с помощью амортизированных мини-салазок, что не только упрощает процесс установки и замены дисков, но также позволяет значительно снизить эффект резонанса внутри корпуса и локализовать вибрацию в пределах одного отсека.


Амортизированные салазки помогают снизить уровень вибрации

Свою лепту вносят и вибрационно изолированные разъемы, расположенные на задней панели JBOD: здесь минимизировать распространение высокочастотных механических колебаний удалось за счет прорезей в печатной плате бэкплейна.


Прорези в PCB бэкплейна снижают распространение вибрации внутри JBOD

Дополняет картину интеллектуальная прошивка микроконтроллеров жестких дисков Western Digital Ultrastar, которые мы рекомендуем использовать вместе с JBOD-массивами, поддерживающая технологию RVS (Rotational Vibration Safeguard). Специализированный алгоритм отслеживает сигналы, поступающие со встроенных мультиаксиальных акселерометров и в режиме реального времени рассчитывает компенсационные усилия, необходимые для коррекции траектории движения блока магнитных головок.


Принцип работы технологии компенсации ротационной вибрации RVS

По сравнению с обычными HDD, накопители с поддержкой RVS обеспечивают практически 20-кратный выигрыш в производительности даже в наиболее сложных условиях эксплуатации.

Система охлаждения ArcticFlow


Другую известную проблему дисковых полок, а именно перегрев накопителей, расположенных в задних рядах, удалось успешно решить благодаря уникальной архитектуре шасси, получившей торговое название ArcticFlow. Как и в случае с вибрацией, когда речь заходит о воздушном охлаждении, основной проблемой становится слишком плотное расположение накопителей в несколько рядов. А поскольку в большинстве моделей воздушный поток циркулирует в направлении от передней панели шасси кзади, пройдя сквозь первые ряды, воздух нагревается, вследствие чего эффективность охлаждения задних рядов существенно снижается.

В Ultrastar Data данная проблема решена следующим образом. Дисковая полка разделена на две зоны охлаждения (по 4 ряда в каждой), изолированные друг от друга. Воздушные потоки, обеспечивающие вентиляцию передней зоны, отводятся из корпуса по обводным воздуховодам, огибающим задний отсек по бокам. Что же касается задних рядов, то для их охлаждения предусмотрен отдельный воздуховод, расположенный по центру, воздух из которого поступает непосредственно к задним рядам накопителей, с 5-го по 8-ой. Кроме того отдельный поток холодного воздуха подводится непосредственно к блокам питания и модулям I/O, расположенным позади.


Схема циркуляции воздуха внутри дисковых полок Ultrastar Data

Такая конструкция помогла достичь действительно впечатляющих результатов. ArcticFlow позволила существенно сократить разницу температур между передней и задней зонами: разброс между ними не превышает 10C. При использовании накопителей Ultrastar, созданных на базе платформы HelioSeal четвертого поколения (более подробно о технологиях, применяемых при производстве жестких дисков для ЦОД, вы можете прочитать в материале Ярче звезд), на самом горячем участке, которым является 8-ой ряд, вплотную прилегающий к отсекам блоков питания, максимальная температура HDD не поднимается выше 49C. При этом на охлаждение каждого из них тратится в среднем 1.6 Вт электроэнергии, что в два раза меньше, чем у конкурирующих моделей.



Таким образом, ArcticFlow решает одновременно 3 задачи:

  1. эффективное охлаждение помогает продлить сроки эксплуатации накопителей, установленных в JBOD, а также полностью исключает вероятность их выхода из строя вследствие перегрева;
  2. отпадает потребность в установке мощных, высокоскоростных кулеров, что также помогает снизить общий уровень вибрации, негативно отражающейся как на состоянии аппаратуры, так и на ее производительности;
  3. меньшее энергопотребление позволяет значительно сократить операционные расходы на обслуживание дата-центра, оборудованного JBOD Ultrastar.

Построение облачной инфраструктуры с применением дисковых полок Ultrastar на примере компании Acronis


Кому же подойдут дисковые полки Western Digital Ultrastar? Первое, что приходит в голову облачные сервисы, оперирующие огромными массивами данных. По мере расширения бизнеса такие компании неизбежно сталкиваются с экспоненциальным ростом затрат на масштабирование и поддержку IT-инфраструктуры, которые оказываются тем больше, чем сложнее организована последняя.

В частности, подобные проблемы характерны для интенсивно развивающихся предприятий, использующих SaaS-based модель предоставления облачных услуг: стремясь угнаться за меняющимся рынком и при этом сохранить рентабельность, многие из них используют одновременно несколько разрозненных решений. На первых парах такой подход действительно способен обеспечить определенные выгоды, но в отдаленной перспективе это приводит к существенном росту издержек на управление, обслуживание и дальнейшее масштабирование существующей инфраструктуры.

Здесь весьма показательным является опыт Acronis, специализирующейся на предоставлении облачных решений в сфере кибербезопасности для корпоративных и частных клиентов. На сегодняшний день компании принадлежат 14 дата-центров в разных уголках нашей планеты, мощности которых в своей работе задействуют свыше 500 тысяч предприятий.


Стремясь увеличить емкость хранилищ данных и при этом оптимизировать затраты на их обслуживание, Acronis столкнулись с рядом существенных трудностей, вызванных отсутствием унифицированной аппаратной платформы. Компания обратилась за помощью к своему давнему технологическому партнеру DIAWAY. Для прогнозирования капитальных и операционных расходов системный интегратор создал доскональную финансовую модель на ближайшие 5 лет. Сравнив предложения, представленные на современном рынке, специалисты DIAWAY пришли к выводу, что наиболее оптимальным вариантом для реализации подобного проекта станут гибридные хранилища Western Digital Ultrastar Data60 и Data102.

В этом году компания завершила перевод облачной инфраструктуры на дисковые полки Ultrastar, и по словам Алекса Бейка, директора по глобальным техническим операциям Acronis, этот шаг в полной мере себя оправдал. Миграция на новую платформу обеспечила ряд важнейших преимуществ, среди которых необходимо выделить:

  • Снижение TCO

Благодаря переходу на гибридные хранилища Ultrastar, Acronis удалось добиться существенного сокращения капитальных и эксплуатационных расходов: стоимость хранения данных в пересчете на терабайт информации снизилась более, чем на 25%.

  • Повышение надежности систем хранения

Передовые технологии охлаждения и виброизоляции, воплощенные в JBOD-массивах Ultrastar, в сочетании с резервируемыми блоками питания и I/O-модулями с возможностью горячей замены, помогли существенно повысить отказоустойчивость как самих дисковых полок, так и всей инфраструктуры хранения данных в целом.

  • Простота обслуживания

Стандартизация глобальной архитектуры позволила упростить планирование дальнейшего увеличения емкости системы хранения данных и оптимизировать управление обширной IT-инфраструктурой Acronis: сегодня специалисты компании используют унифицированные инструменты и алгоритмы для решения поставленных задач, а при необходимости они могут в любой момент обратиться за помощью к инженерам Western Digital.

Примеры развертывания системы резервного копирования на базе Western Digital Ultrastar Data60 и программного обеспечения от Veeam Software


Впрочем, не стоит думать, что дисковые полки Ultrastar ориентированы сугубо на крупные компании и облачных провайдеров: JBOD-массивы способны стать незаменимым инструментом и в арсенале представителей малого и среднего бизнеса. Речь идет, прежде всего, о создании высокоемких и производительных систем резервного копирования, для организации которых мы предлагаем готовую связку в виде Ultrastar Data60/102 и программного обеспечения, разработанного одним из наших стратегических партнеров Veeam Software, специализирующихся на создании комплексных решений в сфере резервного копирования данных.


Девиз компании It just works! говорит сам за себя: Veeam стремится создавать простые, эффективные, а главное, надежные продукты из разряда настроил и забыл, и у них это действительно хорошо получается. Не случайно в 2019 году общее количество клиентов компании превысило 375 тысяч, а ее годовой оборот перевалил за отметку в 1 миллиард долларов США.

В ходе проектирования системы резервного копирования на базе дисковых полок Ultrastar и программного обеспечения Veeam наибольшую эффективность демонстрируют два подхода:

  • on-premises резервные копии создаются и хранятся на базе собственного ЦОД предприятия;
  • гибридная модель on-premises + cloud tier на стороне клиента хранятся только актуальные резервные копии, которые могут понадобиться здесь и сейчас для восстановления работоспособности производственной среды, тогда как более старые бэкапы автоматически переносятся в облако.


Каждый из них обладает своими преимуществами. Комбинация self-hosted и облачных решений позволяет без труда масштабировать IT-инфраструктуру по мере необходимости благодаря подключению объектных хранилищ Amazon S3, Azure Blob Storage, IBM Cloud Object Storage, или любых других S3-совместимых сервисов, и дополнительно экономить на долговременном хранении данных, также оставляя возможность для disaster recovery в случае возникновения аварийных ситуаций. On-premises же гарантирует быстрое восстановление любых когда-либо созданных резервных копий, независимость от внешних факторов, высокий уровень приватности и соответствие местному законодательству в том случае, если деятельность компании так или иначе связана с обработкой персональных данных клиентов.

Проще всего продемонстрировать эффективность связки программного обеспечения Veeam и гибридных хранилищ Western Digital на конкретных примерах. Мы выбрали два наиболее показательных кейса из нашей обширной практики.

Кейс 1


Клиент

В роли заказчика выступил крупный европейский производитель бытовых товаров с годовым оборотом более 500 миллионов евро, офисы и производственные мощности которого расположены в разных странах ЕС и в Китае. Штат компании насчитывает около 1800 постоянных сотрудников, а IT-инфраструктура представлена 8 центрами обработки данных по всему миру.

Проблема

Программно-аппаратный комплекс, используемый заказчиком для создания резервных копий, перестал адекватно справляться с возложенной на него задачей в связи с многократно возросшей нагрузкой, так как не обладал достаточной пропускной способностью. Помимо этого, наблюдались определенные проблемы с обработкой задач, связанных с процедурой дедупликации, что приводило к частым сбоям в ходе резервного копирования.

Поиск решения

Специалисты IT-отдела заказчика пришли к выводу, что обновление существующей инфраструктуры резервного копирования является нерентабельным, в связи с чем было принято решение о переходе на новую архитектуру, что позволило бы не только сэкономить, но и решить проблему масштабирования в будущем. Для организации системы резервного копирования было выбрано гибридное хранилище Ultrastar Data60 от Western Digital, управляемое программным обеспечением Veeam Backup & Replication 9.5, Veeam Backup для Microsoft Office 365 и Microsoft Windows Storage Spaces (входит в состав Windows Server 2016).

Конфигурация

Итоговая аппаратная конфигурация состояла из сервера HPE Proliant DL360 G9, оснащенного парой контроллеров Broadcom 9480-8i8e MegaRAID, обслуживающих модули ввода-вывода Ultrastar Data60. Каждый RAID-контроллер был подключен к назначенному порту I/O-модуля с помощью 4-канального HD MiniSAS-кабеля (P/N 1EX0329), обеспечивая полосу пропускания до 9,6 ГБ/с на контроллер.


Серверная платформа HPE Proliant DL360 G9

Дисковое хранилище было развернуто с 60-ю 12-терабайтными SAS HDD Ultrastar таким образом, его общая емкость составила 720 ТБ. С помощью зонирования T10, Ultrastar Data60 был логически разделен на две зоны по 30 дисков в каждой, так, чтобы каждый контроллер видел диски, назначенные только для определенных портов. В группах из 30 накопителей команда ИТ-специалистов создала несколько наборов томов с чередованием, которые были сгруппированы в единый общий том с помощью Windows Storage Spaces. Один из таких томов использовался для инкрементного резервного копирования, в то время как другой содержал полный образ резервной копии, который был дополнительно сжат с использованием функции дедупликации Windows Server.

Результаты

Связка 1 сервер + 2 RAID-контроллера + 1 Ultrastar Data60 обошлась заказчику существенно дешевле по сравнению с выделенным устройством резервного копирования, поддерживающим внутреннюю дедупликацию. В будущем данную платформу можно будет без труда масштабировать путем последовательного подключения новых дисковых полок (до четырех штук) без необходимости модернизации серверной платформы.

Кейс 2


Клиент


GreenPower крупное предприятие, специализирующееся на производстве натуральных витаминных комплексов и пищевых добавок. Компании принадлежит торговая марка Dr. Hittich, а ее штаб-квартира находится в Керкраде (Нидерланды).

Проблема

GreenPower нуждались в надежном и эффективном решении для резервного копирования. Изначально для этих целей использовались сервера на 24/36 отсеков, а общее дисковое пространство, отведенное под бэкапы, составляло 108 терабайт. Когда данного объема перестало хватать, перед компанией встала проблема масштабирования IT-инфраструктуры. Серверы хранения данных большей емкости оказались слишком дороги, поэтому от их приобретения пришлось отказаться. В свою очередь, идея с регулярной заменой заполненных дисков на пустые показала свою полную несостоятельность: такой подход не мог обеспечить нужный уровень доступности резервных копий, а ошибки при маркировке изъятых дисков регулярно приводили к сложностям при восстановлении данных и даже к их утрате.

Конфигурация

Было решено реализовать систему резервного копирования на базе двух серверов с программным обеспечением Veeam Backup & Replication 9.5 и двух дисковых полок Ultrastar Data60 от Western Digital. В каждое гибридное хранилище были установлены 60 SAS HDD Ultrastar емкостью 6, 8 и 10 терабайт.


Жесткие диски для ЦОД Ultrastar DC HC330 емкостью 10 терабайт

Жесткие диски были сконфигурированы в несколько наборов RAID-массивов, управляемых Windows Storage Spaces. Для дедупликации данных встроенными средствами программного обеспечения Microsoft было создано несколько виртуальных дисков типа Thin (такой подход позволил обойти ограничение в 64 ТБ). Как и в первом примере, доступное дисковое пространство было разделено на два логических тома, один из которых использовался для создания полных бэкапов, тогда как второй был предназначен для инкрементного резервного копирования.

Результаты

Переход на платформу хранения данных Ultrastar Data60 помог значительно снизить затраты на логистику, а в пересчете на терабайт информации, приобретение дисковых полок оказалось значительно более выгодным решением по сравнению с закупкой полноценных серверов: поскольку за счет использования функции дедупликации данных Microsoft Windows Server 2016 удается экономить около 1250 терабайт на каждые 378 ТБ физического дискового пространства, емкости одной такой полки с учетом текущих потребностей компании, хватит на 6 лет ежедневного создания резервных копий.

Не менее важным преимуществом оказалось и значительное повышение производительности системы резервного копирования: создание и восстановление бэкапов происходит на скорости не менее 1 ГБ/с. Это исключает возникновение ситуаций, когда Windows Server не успевает завершить дедупликацию данных в существующих резервных копиях до создания новых. Ранее подобные коллизии приводили к значительному снижению производительности всей системы, однако новая платформа позволила забыть о них раз и навсегда.
Подробнее..

Лучший в своем классе история появления стандарта шифрования AES

05.08.2020 22:05:40 | Автор: admin


C мая 2020 года в России стартовали официальные продажи внешних винчестеров WD My Book, поддерживающих аппаратное шифрование AES с 256-битным ключом. В силу законодательных ограничений, ранее подобные устройства можно было приобрести лишь в зарубежных интернет-магазинах электроники либо на сером рынке, однако теперь обзавестись защищенным накопителем с фирменной 3-летней гарантией от Western Digital может любой желающий. В честь этого знаменательного события мы решили сделать небольшой экскурс в историю и разобраться, как появился Advanced Encryption Standard и чем же он так хорош по сравнению с конкурирующими решениями.

Долгое время официальным стандартом симметричного шифрования в США являлся DES (Data Encryption Standard стандарт шифрования данных), разработанный компанией IBM и внесенный в перечень Федеральных стандартов обработки информации в 1977 году (FIPS 46-3). В основу алгоритма легли наработки, полученные в ходе исследовательского проекта под кодовым названием Lucifer. Когда 15 мая 1973 года Национальное бюро стандартов США объявило о проведении конкурса, целью которого стало создание стандарта шифрования для госучреждений, американская корпорация включилась в криптографическую гонку с третьей версией Люцифера, использовавшей обновленную сеть Фейстеля. И наряду с другими конкурсантами потерпела фиаско: ни один из алгоритмов, представленных на первый конкурс, не соответствовал строгим требованиям, сформулированным экспертами НБС.



Разумеется, в IBM не могли просто так смириться с поражением: когда 27 августа 1974 года конкурс был перезапущен, американская корпорация вновь подала заявку, представив улучшенную версию Lucifer. На сей раз у жюри не оказалось ровным счетом ни одной претензии: проведя грамотную работу над ошибками, IBM успешно устранила все недочеты, так что придраться оказалось не к чему. Одержав убедительную победу, Люцифер сменил имя на DES и уже 17 марта 1975 года был издан в Федеральном реестре.

Однако в ходе открытых симпозиумов, организованных в 1976 году с целью обсуждения нового криптографического стандарта, DES подвергся жесткой критике со стороны экспертного сообщества. Причиной этого стали изменения, внесенные в алгоритм специалистами АНБ: в частности, была уменьшена длина ключа до 56 бит (изначально Lucifer поддерживал работу с 64- и 128-битными ключами), а также изменена логика работы блоков перестановки. По мнению криптографов, улучшения не имели смысла и единственное, к чему стремилось Агентство национальной безопасности, внедряя модификации, получить возможность беспрепятственно просматривать зашифрованные документы.

В связи с перечисленными обвинениями, при Сенате США была создана специальная комиссия, целью работы которой стала проверка обоснованности действий АНБ. В 1978 году по итогам расследования был опубликован доклад, в котором сообщалось следующее:

  • представители АНБ участвовали в доработке DES лишь косвенно, при этом их вклад касался только изменения работы блоков перестановки;
  • окончательная версия DES оказалась более устойчивой к взлому и криптографическому анализу, чем предыдущая, так что внесенные изменения были обоснованы;
  • длины ключа 56 бит более чем достаточно для подавляющего большинства приложений, ведь для взлома такого шифра потребуется суперкомпьютер стоимостью как минимум несколько десятков миллионов долларов, а поскольку у обычных злоумышленников и даже профессиональных хакеров подобных ресурсов нет, то и беспокоиться не о чем.

Выводы комиссии частично подтвердились в 1990 году, когда израильские криптографы Эли Бихам и Ади Шамир, работая над концепцией дифференциального криптоанализа, провели большое исследование блочных алгоритмов, в числе которых оказался и DES. Ученые пришли к выводу, что новая модель перестановок оказалась намного более устойчивой к атакам, чем изначальная, а значит, АНБ действительно помогло ликвидировать несколько дыр в алгоритме.


Ади Шамир

В то же время ограничение на длину ключа оказалось проблемой, и притом весьма серьезной, что в 1998 году убедительно доказала общественная организация Electronic Frontier Foundation (EFF) в рамках эксперимента DES Challenge II, проведенного под эгидой RSA Laboratory. Специально для взлома DES был построен суперкомпьютер, получивший кодовое название EFF DES Cracker, над созданием которого трудились Джон Гилмор, сооснователь EFF и руководитель проекта DES Challenge, и Пол Кочер, основатель компании Cryptography Research.


Процессор EFF DES Cracker

Разработанная ими система смогла успешно подобрать ключ к зашифрованному образцу методом простого перебора всего за 56 часов, то есть менее чем за трое суток. Для этого DES Cracker потребовалось проверить около четверти всех возможных комбинаций, а это значит, что даже при самом неблагоприятном стечении обстоятельств на взлом уйдет около 224 часов, то есть не более 10 суток. При этом стоимость суперкомпьютера, с учетом затраченных на его проектирование средств, составила всего 250 тысяч долларов. Нетрудно догадаться, что сегодня взломать подобный шифр еще проще и дешевле: мало того, что железо стало куда мощнее, так еще и благодаря развитию интернет-технологий хакеру вовсе не обязательно покупать или арендовать необходимое оборудование вполне достаточно создать ботнет из зараженных вирусом ПК.

Данный эксперимент наглядно продемонстрировал, насколько DES морально устарел. А поскольку на тот момент алгоритм использовался в составе практически 50% решений в области шифрования данных (по оценке все той же EFF), вопрос о поиске альтернативы встал как никогда остро.

Новые вызовы новый конкурс




Справедливости ради стоит сказать, что поиски замены для Data Encryption Standard начались практически одновременно с подготовкой EFF DES Cracker: Национальный институт стандартов и технологий (NIST) США еще в 1997 году объявил о запуске конкурса алгоритмов шифрования, призванного выявить новый золотой стандарт криптобезопасности. И если в былые времена аналогичное мероприятие проводилось исключительно для своих, то, памятуя о неудачном опыте 30-летней давности, в NIST решили сделать конкурс полностью открытым: в нем могли принять участие любая компания и любое частное лицо, независимо от места дислокации или гражданства.

Такой подход оправдал себя еще на этапе отбора претендентов: среди авторов, подавших заявку на участие в конкурсе Advanced Encryption Standard, оказались и всемирно известные криптологи (Росс Андерсон, Эли Бихам, Ларс Кнудсен), и небольшие IT-компании, специализирующиеся на кибербезопасности (Counterpane), и крупные корпорации (немецкая Deutsche Telekom), и образовательные учреждения (Лёвенский католический университет, Бельгия), а также стартапы и небольшие фирмы, о которых мало кто слышал за пределами их стран (например, Tecnologia Apropriada Internacional из Коста-Рики).

Интересно, что в этот раз в NIST утвердили всего два основных требования к алгоритмам-участникам:

  • блок данных должен иметь фиксированный размер 128 бит;
  • алгоритм должен поддерживать как минимум три размера ключей: 128, 192 и 256 бит.

Добиться такого результата было сравнительно просто, но, как говорится, дьявол кроется в деталях: вторичных требований оказалось куда больше, а соответствовать им было куда сложней. Между тем именно на их основе рецензенты NIST и проводили отбор конкурсантов. Вот каким критериям должны были соответствовать претенденты на победу:

  1. способность противостоять любым криптоаналитическим атакам, известным на момент проведения конкурса, включая атаки по сторонним каналам;
  2. отсутствие слабых и эквивалентных ключей шифрования (под эквивалентными подразумеваются такие ключи, которые, хотя и имеют значительные отличия друг от друга, приводят к получению идентичных шифров);
  3. скорость шифрования стабильна и примерно одинакова на всех актуальных платформах (от 8- до 64-битных);
  4. оптимизация под многопроцессорные системы, поддержка распараллеливания операций;
  5. минимальные требования к объему оперативной памяти;
  6. отсутствие ограничений для использования в стандартных сценариях (в качестве основы для построения хэш-функций, ГПСЧ и т. д.);
  7. структура алгоритма должна быть обоснованной и простой для понимания.

Последний пункт может показаться странным, однако, если поразмыслить, он не лишен смысла, ведь хорошо структурированный алгоритм гораздо проще анализировать, к тому же в нем куда сложнее спрятать закладку, с помощью которой разработчик мог бы получить неограниченный доступ к зашифрованным данным.

Прием заявок на конкурс Advanced Encryption Standard продлился полтора года. Всего в нем приняли участие 15 алгоритмов:

  1. CAST-256, разработанный канадской компанией Entrust Technologies на базе CAST-128, созданного Карлайлом Адамсом и Стаффордом Таваресом;
  2. Crypton, созданный криптологом Че Хун Лим из южнокорейской компании Future Systems, занятой в сфере кибербезопасности;
  3. DEAL, концепт которого изначально предложил датский математик Ларс Кнудсен, а впоследствии его идеи развил Ричард Аутербридж, который и подал заявку на участие в конкурсе;
  4. DFC, совместный проект Парижской высшей педагогической школы, Национального центра научных исследований Франции (CNRS) и телекоммуникационной корпорации France Telecom;
  5. E2, разработанный под эгидой крупнейшей телекоммуникационной компании Японии Nippon Telegraph and Telephone;
  6. FROG, детище коста-риканской компании Tecnologia Apropriada Internacional;
  7. HPC, придуманный американским криптологом и математиком Ричардом Шреппелем из Университета Аризоны;
  8. LOKI97, созданный австралийскими криптографами Лоуренсом Брауном и Дженнифер Себерри;
  9. Magenta, разработанный Майклом Якобсоном и Клаусом Хубером для немецкой телекоммуникационной компании Deutsche Telekom AG;
  10. MARS от компании IBM, в создании которого принимал участие Дон Копперсмит один из авторов Lucifer;
  11. RC6, написанный Роном Ривестом, Мэттом Робшау и Рэем Сиднеем специально для конкурса AES;
  12. Rijndael, созданный Винсентом Рэйменом и Джоан Даймон из Лёвенского католического университета;
  13. SAFER+, разработанный калифорнийской корпорацией Cylink совместно с Национальной академией наук Республики Армения;
  14. Serpent, созданный Россом Андерсоном, Эли Бихамом и Ларсом Кнудсеном;
  15. Twofish, разработанный исследовательской группой Брюса Шнайера на базе криптографического алгоритма Blowfish, предложенного Брюсом еще в 1993 году.

По итогам первого тура были определены 5 финалистов, среди которых оказались Serpent, Twofish, MARS, RC6 и Rijndael. Члены жюри нашли изъяны практически у каждого из перечисленных алгоритмов, кроме одного. Кто же оказался победителем? Немного продлим интригу и для начала рассмотрим основные достоинства и недостатки каждого из перечисленных решений.

MARS


В случае с богом войны эксперты отметили идентичность процедуры шифрования и дешифровки данных, однако этим его преимущества и ограничились. Алгоритм IBM вышел на удивление прожорливым, что делало его неподходящим для работы в условиях ограниченных ресурсов. Наблюдались проблемы и с распараллеливанием вычислений. Для эффективной работы MARS нуждался в аппаратной поддержке 32-битного умножения и вращения на переменное число бит, что опять же накладывало ограничения на перечень поддерживаемых платформ.

MARS также оказался достаточно уязвим к атакам по времени и энергопотреблению, имел проблемы с расширением ключей на лету, а его чрезмерная сложность затрудняла анализ архитектуры и создавала дополнительные проблемы на этапе практической реализации. Одним словом, на фоне других финалистов MARS выглядел настоящим аутсайдером.

RC6


Алгоритм унаследовал часть преобразований от своего предшественника, RC5, тщательно исследованного ранее, что в сочетании с простой и наглядной структурой делало его полностью прозрачным для экспертов и исключало наличие закладок. К тому же RC6 демонстрировал рекордные скорости обработки данных на 32-битных платформах, а процедуры шифрования и дешифровки были реализованы в нем абсолютно идентично.

Однако алгоритм имел те же проблемы, что и упомянутый выше MARS: тут и уязвимость к атакам по сторонним каналам, и зависимость производительности от поддержки 32-битных операций, а также проблемы с параллельными вычислениями, расширением ключей и требовательность к аппаратным ресурсам. В связи с этим на роль победителя он никак не годился.

Twofish


Twofish оказался довольно шустрым и хорошо оптимизированным для работы на маломощных устройствах, отлично справлялся с расширением ключей и предполагал несколько вариантов реализации, что позволяло тонко адаптировать его под конкретные задачи. В то же время две рыбки оказались уязвимы к атакам по сторонним каналам (в частности, по времени и потребляемой мощности), не особо дружили с многопроцессорными системами и отличались чрезмерной сложностью, что, кстати, сказалось и на скорости расширения ключа.

Serpent


Алгоритм имел простую и понятную структуру, что существенно упрощало его аудит, был не особо требователен к мощностям аппаратной платформы, имел поддержку расширения ключей на лету и сравнительно легко поддавался модификации, чем выгодно отличался от своих оппонентов. Несмотря на это, Serpent был в принципе самым медленным из финалистов, к тому же процедуры шифровки и дешифровки информации в нем кардинально отличались и требовали принципиально разных подходов к реализации.

Rijndael


Rijndael оказался чрезвычайно близок к идеалу: алгоритм в полной мере удовлетворял требованиям NIST, при этом не уступая, а по совокупности характеристик заметно превосходя конкурентов. Слабых мест у Рейндала было лишь два: уязвимость к атакам по энергопотреблению на процедуру расширения ключа, что является весьма специфичным сценарием, и определенные проблемы с расширением ключа на лету (данный механизм работал без ограничений лишь у двух конкурсантов Serpent и Twofish). Кроме того, по оценкам экспертов, Рейндал имел несколько меньший запас криптостойкости, чем Serpent, Twofish и MARS, что, впрочем, с лихвой компенсировалось устойчивостью к подавляющему большинству разновидностей атак по сторонним каналам и широким спектром вариантов реализации.

Категория


Serpent


Twofish


MARS


RC6


Rijndael


Криптостойкость


+


+


+


+


+


Запас криптостойкости


++


++


++


+


+


Скорость шифрования при программной реализации


-




+


+


Скорость расширения ключа при программной реализации



-




+


Смарт-карты с большим объемом ресурсов


+


+


-



++


Смарт-карты с ограниченным объемом ресурсов



+


-



++


Аппаратная реализация (ПЛИС)


+


+


-



+


Аппаратная реализация (специализированная микросхема)


+



-


-


+


Защита от атак по времени выполнения и потребляемой мощности


+



-


-


+


Защита от атак по потребляемой мощности на процедуру расширения ключа






-


Защита от атак по потребляемой мощности на реализации в смарт-картах



+


-



+


Возможность расширения ключа на лету


+


+





Наличие вариантов реализации (без потерь в совместимости)


+


+




+


Возможность параллельных вычислений






+



По совокупности характеристик Рейндал на голову опережал конкурентов, так что результат финального голосования оказался вполне закономерен: алгоритм одержал уверенную победу, получив 86 голосов за и лишь 10 против. Serpent занял почетное второе место с 59 голосами, тогда как Twofish расположился на третьей позиции: за него вступился 31 член жюри. Вслед за ними следовал RC6, завоевав 23 голоса, а MARS закономерно оказался на последней строчке, получив лишь 13 голосов за и 83 против.

2 октября 2000 года Rijndael был объявлен победителем конкурса AES, по традиции сменив название на Advanced Encryption Standard, под которым он и известен в настоящее время. Процедура стандартизации продлилась около года: 26 ноября 2001 года AES был внесен в перечень Федеральных стандартов обработки информации, получив индекс FIPS 197. Новый алгоритм высоко оценили и в АНБ, а с июня 2003 года Агентство национальной безопасности США даже признало AES с 256-битным ключом шифрования достаточно надежным для обеспечения безопасности документов категории совершенно секретно.

Внешние накопители WD My Book с поддержкой аппаратного шифрования AES-256


Благодаря сочетанию высокой надежности и производительности, Advanced Encryption Standard быстро обрел мировое признание, став одним из самых популярных в мире алгоритмов симметричного шифрования и войдя в состав множества криптографических библиотек (OpenSSL, GnuTLS, Linux's Crypto API и др.). В настоящее время AES широко используется в приложениях корпоративного и пользовательского уровня, а его поддержка реализована во множестве разнообразных устройств. В частности, именно аппаратное шифрование AES-256 применяется во внешних накопителях Western Digital семейства My Book для обеспечения защиты сохраненных данных. Давайте познакомимся с этими девайсами поближе.



Линейка настольных жестких дисков WD My Book включает шесть моделей различной емкости: на 4, 6, 8, 10, 12 и 14 терабайт, что позволяет подобрать устройство, оптимально подходящее под ваши потребности. По умолчанию внешние HDD используют файловую систему exFAT, что обеспечивает совместимость с широким спектром операционных систем, включая Microsoft Windows 7, 8, 8.1 и 10, а также Apple macOS версии 10.13 (High Sierra) и выше. Пользователи ОС Linux имеют возможность смонтировать винчестер с помощью драйвера exfat-nofuse.

Подключение My Book к компьютеру осуществляется с помощью высокоскоростного интерфейса USB 3.0, обратно совместимого с USB 2.0. С одной стороны, это позволяет передавать файлы на максимально возможной скорости, ведь пропускная способность USB SuperSpeed составляет 5 Гбит/с (то есть 640 МБ/с), чего оказывается более чем достаточно. В то же время функция обратной совместимости обеспечивает поддержку практически любых устройств, выпущенных за последние 10 лет.



Хотя My Book и не требует установки дополнительного программного обеспечения благодаря технологии автоматического определения и конфигурирования периферических устройств Plug and Play, мы все же рекомендуем воспользоваться фирменным программным пакетом WD Discovery, который поставляется в комплекте с каждым устройством.



В состав набора вошли следующие приложения:

WD Drive Utilities


Программа позволяет получить актуальную информацию о текущем состоянии накопителя на основе данных S.M.A.R.T. и проверить жесткий диск на наличие битых секторов. Помимо этого, с помощью Drive Utilities можно оперативно уничтожить все сохраненные на вашем My Book данные: при этом файлы будут не просто стерты, но и полностью перезаписаны несколько раз, так что восстановить их по завершении процедуры уже не удастся.

WD Backup


Используя эту утилиту, можно настроить резервное копирование по заданному расписанию. Стоит сказать, что WD Backup поддерживает работу с Google Drive и Dropbox, при этом позволяя выбирать при создании бэкапа любые возможные сочетания источник-цель. Таким образом, вы можете настроить автоматический перенос данных с My Book в облако либо импортировать нужные файлы и папки из перечисленных сервисов как на внешний винчестер, так и на локальную машину. Помимо этого, предусмотрена возможность синхронизации с аккаунтом в социальной сети Facebook, что позволяет автоматически создавать резервные копии фотографий и видеозаписей из вашего профиля.

WD Security


Именно с помощью этой утилиты можно ограничить доступ к накопителю паролем и управлять шифрованием данных. Все, что для этого потребуется, указать пароль (его максимальная длина может достигать 25 символов), после чего вся информация на диске будет зашифрована, а доступ к сохраненным файлам сможет получить лишь тот, кто знает кодовую фразу. Для большего удобства WD Security позволяет создать список доверенных устройств, при подключении к которым My Book будет разблокироваться автоматически.

Подчеркнем, что WD Security лишь предоставляет удобный визуальный интерфейс для управления криптографической защитой, тогда как шифрование данных осуществляется самим внешним накопителем на аппаратном уровне. Такой подход обеспечивает целый ряд важных преимуществ, а именно:

  • за создание ключей шифрования отвечает аппаратный генератор случайных чисел, а не ГПСЧ, что помогает добиться высокой степени энтропии и повысить их криптографическую стойкость;
  • в ходе процедуры шифрования и дешифровки криптографические ключи не выгружаются в оперативную память компьютера, равно как и не создаются временные копии обрабатываемых файлов в скрытых папках системного диска, что помогает свести к минимуму вероятность их перехвата;
  • скорость обработки файлов никак не зависит от производительности клиентского устройства;
  • после активации защиты шифрование файлов будет осуществляться автоматически, на лету, не требуя дополнительных действий со стороны пользователя.

Все вышеперечисленное гарантирует безопасность данных и позволяет практически полностью исключить вероятность хищения конфиденциальной информации. С учетом дополнительных возможностей накопителя это делает My Book одним из лучших защищенных хранилищ среди доступных на российском рынке.
Подробнее..

История изобретения флешки в лицах и занимательных фактах

21.09.2020 22:05:33 | Автор: admin

Случаи, когда изобретатель создает сложное электротехническое устройство с нуля, полагаясь при этом исключительно на собственные изыскания, чрезвычайно редки. Как правило, те или иные девайсы рождаются на стыке сразу нескольких технологий и стандартов, созданных разными людьми в разное время. Для примера возьмем банальную флешку. Это портативный носитель данных, выполненный на базе энергонезависимой памяти NAND и оснащенный встроенным USB-портом, который используется для подключения накопителя к клиентскому устройству. Таким образом, чтобы понять, как подобный девайс в принципе мог появиться на рынке, необходимо проследить историю изобретения не только самих чипов памяти, но и соответствующего интерфейса, без которого привычных нам флешек попросту бы не существовало. Давайте же попробуем это сделать.

Полупроводниковые запоминающие устройства, поддерживающие стирание записанных данных, появились почти полвека назад: первое EPROM было создано израильским инженером Довом Фроманом еще в 1971 году.


Дов Фроман, разработчик EPROM

Инновационные для своего времени ПЗУ достаточно успешно применялись в ходе производства микроконтроллеров (например, Intel 8048 или Freescale 68HC11), однако оказались решительно непригодны для создания портативных накопителей. Главной проблемой EPROM была слишком сложная процедура стирания информации: для этого интегральную схему необходимо было облучить в ультрафиолетовом спектре. Работало это следующим образом: фотоны УФ-излучения придавали избыточным электронам энергию, достаточную для рассеивания заряда на плавающем затворе.


В чипах EPROM были предусмотрены специальные окошки для стирания данных, закрытые кварцевыми пластинами

Это добавляло два существенных неудобства. Во-первых, стереть данные на таком чипе в адекватные сроки можно было лишь с помощью достаточно мощной ртутной лампы, и даже в этом случае процесс занимал несколько минут. Для сравнения: обычная люминесцентная лампа удаляла бы информацию в течение нескольких лет, а если оставить такую микросхему под прямыми солнечными лучами, то на ее полную очистку потребовались бы недели. Во-вторых, даже если бы этот процесс удалось хоть как-то оптимизировать, избирательное удаление конкретного файла было все равно невозможным: информация на EPROM стиралась целиком.

Перечисленные проблемы были решены в следующем поколении чипов. В 1977 году Элай Харари (кстати, впоследствии основавший SanDisk, вошедшую в число крупнейших мировых производителей носителей данных, выполненных на базе флеш-памяти), используя технологию автоэлектронной эмиссии, создал первый прототип EEPROM ПЗУ, в котором стирание данных, как и программирование, осуществлялось сугубо электрически.


Элай Харари, основатель SanDisk, держащий в руках одну из первых SD-карт

Принцип действия EEPROM был практически идентичен таковому у современной NAND-памяти: в качестве носителя заряда использовался плавающий затвор, а перенос электронов сквозь слои диэлектрика осуществлялся благодаря туннельному эффекту. Сама организация ячеек памяти представляла собой двумерный массив, что уже позволяло записывать и удалять данные адресно. Кроме того, EEPROM обладал весьма неплохим запасом прочности: каждая ячейка могла быть перезаписана вплоть до 1 миллиона раз.

Но и здесь все оказалось отнюдь не так радужно. Чтобы получить возможность стирать данные электрически, в каждую ячейку памяти пришлось внедрить дополнительный транзистор, управляющий процессом записи и стирания. Теперь на каждый элемент массива приходилось 3 проводника (1 проводник столбцов и 2 проводника строк), из-за чего усложнялась разводка компонентов матрицы и возникали серьезные проблемы с масштабированием. А значит, о создании миниатюрных и емких устройств не могло быть и речи.

Поскольку готовая модель полупроводниковой ПЗУ уже существовала, дальнейшие научные изыскания продолжились с прицелом на создание микросхем, способных обеспечить более плотное хранение данных. И таковые увенчались успехом в 1984 году, когда Фудзио Масуока, работавший в корпорации Toshiba, представил прототип энергонезависимой флеш-памяти на международной конференции International Electron Devices Meeting, проходившей в стенах Института инженеров электротехники и электроники (IEEE).


Фудзио Масуока, отец флеш-памяти

Кстати, само название придумал вовсе не Фудзио, а один из его коллег, Сёдзи Ариидзуми, которому процесс стирания данных напомнил сияющую вспышку молнии (от английского flash вспышка). В отличие от EEPROM, флеш-память была основана на МОП-транзисторах с дополнительным плавающим затвором, расположенным между p-слоем и управляющим затвором, что позволило отказаться от лишних элементов и создавать действительно миниатюрные чипы.

Первыми коммерческими образцами флеш-памяти стали микросхемы Intel, выполненные по технологии NOR (Not-Or), производство которых было запущено в 1988 году. Как и в случае с EEPROM, их матрицы представляли собой двумерный массив, в котором каждая ячейка памяти находилась на пересечении строки и столбца (соответствующие проводники подключались к разным затворам транзистора, а исток к общей подложке). Однако уже в 1989 году Toshiba представила собственную версию флеш-памяти, получившую название NAND. Массив имел аналогичную структуру, но в каждом его узле вместо одной ячейки теперь располагалось несколько последовательно включенных. Кроме того, в каждой линии использовалось два МОП-транзистора: управляющий, расположенный между разрядной линией и столбцом ячеек, и транзистор заземления.

Более высокая плотность компоновки помогла увеличить емкость чипа, однако при этом усложнился и алгоритм чтения/записи, что не могло не отразиться на скорости передачи информации. По этой причине новая архитектура так и не смогла полностью вытеснить NOR, нашедшую применение в создании встраиваемых ПЗУ. В то же время именно NAND оказалась идеально подходящей для производства портативных накопителей данных SD-карт и, разумеется, флешек.

К слову, появление последних стало возможным лишь в 2000 году, когда стоимость флеш-памяти достаточно снизилась и выпуск подобных устройств для розничного рынка мог окупиться. Первым в мире USB-накопителем стало детище израильской компании M-Systems: компактную флешку DiskOnKey (что можно перевести, как диск-на-брелке, поскольку на корпусе устройства было предусмотрено металлическое кольцо, позволявшее носить флешку вместе со связкой ключей) разработали инженеры Амир Баном, Дов Моран и Оран Огдан. За миниатюрный девайс, способный вместить 8 МБ информации и заменявший собой пяток 3,5-дюймовых дискет, в то время просили $50.


DiskOnKey первая в мире флешка от израильской компании M-Systems

Интересный факт: на территории США у DiskOnKey был официальный издатель, в роли которого выступала IBM. Локализованные флешки ничем не отличались от оригинальных, за исключением логотипа на лицевой части, из-за чего многие ошибочно приписывают создание первого USB-накопителя именно американской корпорации.


DiskOnKey, IBM Edition

Вслед за оригинальной моделью буквально через пару месяцев свет увидели более вместительные модификации DiskOnKey на 16 и 32 МБ, за которые просили уже $100 и $150 соответственно. Несмотря на дороговизну, сочетание компактных размеров, вместительности и высокой скорости чтения/записи (которая оказалась примерно в 10 раз выше, чему у стандартных дискет) пришлось по вкусу множеству покупателей. И с этого момента флешки начали свое триумфальное шествие по планете.

Один в поле воин: битва за USB


Впрочем, флешка не была бы флешкой, не появись пятью годами ранее спецификация Universal Serial Bus именно так расшифровывается привычная нам аббревиатура USB. И историю зарождения данного стандарта можно назвать чуть ли не более интересной, чем изобретение самой флеш-памяти.

Как правило, новые интерфейсы и стандарты в IT являются плодом тесного сотрудничества крупных предприятий, зачастую даже конкурирующих между собой, но вынужденных объединить усилия ради создания унифицированного решения, которое позволило бы существенно упростить разработку новых продуктов. Так произошло, например, с картами памяти формата SD: первая версия Secure Digital Memory Card была создана в 1999 году при участии SanDisk, Toshiba и Panasonic, причем новый стандарт оказался настолько удачным, что удостоился титула отраслевого спустя всего год. Сегодня же SD Card Association насчитывает свыше 1000 компаний-участников, инженеры которых занимаются разработкой новых и развитием существующих спецификаций, описывающих разнообразные параметры флеш-карт.



И с первого взгляда история USB полностью идентична тому, что происходило со стандартом Secure Digital. Чтобы сделать персональные компьютеры более дружелюбными по отношению к рядовому пользователю, производителям железа требовался, помимо прочего, универсальный интерфейс для работы с периферией, поддерживающий горячее подключение и не нуждающийся в дополнительной настройке. Кроме того, создание унифицированного стандарта позволило бы избавиться от зоопарка портов (COM, LPT, PS/2, MIDI-port, RS-232 и т. д.), что в перспективе помогло бы существенно упростить и удешевить разработку нового оборудования, а также внедрение поддержки тех или иных устройств.

На фоне перечисленных предпосылок ряд компаний-разработчиков компьютерных комплектующих, периферии и софта, крупнейшими из которых были Intel, Microsoft, Philips и US Robotics, объединились в попытке найти тот самый общий знаменатель, который бы устроил всех действующих игроков, каковым в итоге и стал USB. Популяризации же нового стандарта во многом поспособствовала Microsoft, добавившая поддержку интерфейса еще в Windows 95 (соответствующий патч входил в состав Service Release 2), а затем внедрившая необходимый драйвер в релизную версию Windows 98. В то же время на железном фронте подмога пришла, откуда не ждали: в 1998 году свет увидел iMac G3 первый компьютер все в одном от Apple, в котором для подключения устройств ввода и другой периферии (за исключением микрофона и наушников) использовались исключительно USB-порты. Во многом такой разворот на 180 градусов (ведь в то время Apple делала ставку на FireWire) был обусловлен возвращением Стива Джобса на пост СЕО компании, состоявшимся годом ранее.


Оригинальный iMac G3 первый USB-компьютер

На самом же деле рождение универсальной последовательной шины проходило куда более мучительно, а само по себе появление USB во многом является заслугой отнюдь не мегакорпораций и даже не одного научно-исследовательского отдела, действующего в составе той или иной компании, а вполне конкретного человека инженера Intel индийского происхождения по имени Аджай Бхатт.


Аджай Бхатт, главный идеолог и создатель интерфейса USB

Еще в 1992 году Аджай задумался о том, что персональный компьютер не особо оправдывает собственное название. Даже такая простая с первого взгляда задача, как подключение принтера и печать документа, требовала от пользователя определенной квалификации (хотя, казалось бы, зачем офисному работнику, от которого требуется создать отчет или ведомость, разбираться в мудреных технологиях?) либо вынуждала обращаться к профильным специалистам. И если все оставить как есть, ПК никогда не станет массовым продуктом, а значит, и о том, чтобы выйти за пределы цифры в 10 миллионов пользователей по всему миру, не стоит и мечтать.

Понимание необходимости некоей стандартизации на тот момент было и у Intel, и у Microsoft. В частности, изыскания в этой области привели к появлению шины PCI и концепции Plug&Play, а значит, инициатива Бхатта, который решил сосредоточить усилия именно в сфере поиска универсального решения для подключения периферии, должна была быть воспринята положительно. Но не тут-то было: непосредственный начальник Аджая, выслушав инженера, заявил, что эта задача настолько сложна, что на нее не стоит тратить время.

Тогда Аджай стал искать поддержку в параллельных группах и нашел таковую в лице одного из заслуженных исследователей Intel (Intel Fellow) Фреда Поллака, известного на тот момент благодаря работе в качестве ведущего инженера Intel iAPX 432 и ведущего архитектора Intel i960, который и дал проекту зеленый свет. Однако это было лишь начало: реализация столь масштабной задумки стала бы невозможна без участия других игроков рынка. С этого момента начались подлинные хождения по мукам, ведь Аджаю предстояло не только убедить участников рабочих групп Intel в перспективности данной идеи, но и заручиться поддержкой других производителей железа.


На многочисленные обсуждения, согласования и мозговые штурмы ушло почти полтора года. За это время к Аджаю присоединились Бала Кадамби, руководивший командой, ответственной за разработку PCI и Plug&Play, а позже занявший пост директора Intel по технологическим стандартам интерфейсов ввода/вывода, и Джим Паппас, эксперт по системам ввода/вывода. Летом 1994 года наконец-то удалось сформировать рабочую группу и приступить к более плотному взаимодействию с другими компаниями.

В течение последующего года Аджай и его команда встретились с представителями более 50 фирм, среди которых были как небольшие, узкоспециализированные предприятия, так и гиганты вроде Compaq, DEC, IBM и NEC. Работа кипела буквально в режиме 24/7: с раннего утра троица отправлялась на многочисленные совещания, а ночью встречалась в ближайшей закусочной, чтобы обсудить план действий на следующий день.

Возможно, кому-то такой стиль работы может показаться пустой тратой времени. Тем не менее все это принесло свои плоды: в результате было сформировано несколько многоплановых команд, куда входили инженеры из IBM и Compaq, специализирующиеся на создании компьютерных комплектующих, люди, занимавшиеся разработкой чипов из самой Intel и NEC, программисты, работавшие над созданием приложений, драйверов и операционных систем (в том числе из Microsoft), и множество других специалистов. Именно одновременная работа по нескольким фронтам помогла в итоге создать по-настоящему гибкий и универсальный стандарт.


Аджай Бхатт и Бала Кадамби на церемонии вручения Европейской премии изобретателя

Хотя команде Аджая удалось блестяще решить проблемы политического (добившись взаимодействия разнообразных компаний, в том числе являвшихся прямыми конкурентами) и технического (собрав под одной крышей множество экспертов в различных областях) характера, оставался еще один аспект, требующий пристального внимания, экономическая сторона вопроса. И здесь пришлось идти на существенные компромиссы. Так, например, именно стремление снизить себестоимость провода привело к тому, что привычный нам USB Type-A, который мы используем и по сей день, стал односторонним. Ведь для создания действительно универсального кабеля требовалось бы не просто изменить конструкцию коннектора, сделав его симметричным, но и вдвое увеличить количество токопроводящих жил, что привело бы и к удвоению стоимости провода. Зато теперь у нас есть нестареющий мем о квантовой природе USB.


На снижении стоимости настаивали и другие участники проекта. Джим Паппас в связи с этим любит вспоминать о звонке от Бетси Таннер из Microsoft, заявившей в один прекрасный день, что, к сожалению, компания намерена отказаться от использования интерфейса USB при производстве компьютерных мышек. Все дело в том, что пропускная способность 5 Мбит/с (именно такая скорость передачи данных планировалась изначально) была излишне высокой, и инженеры опасались, что не смогут уложиться в спецификации по электромагнитной интерференции, а значит, такая турбомышь может помешать нормальному функционированию как самого ПК, так и других периферических устройств.

На резонный довод об экранировании Бэтси ответила, что дополнительная изоляция приведет к удорожанию кабеля: по 4 цента сверху на каждый фут, или 24 цента на стандартный провод 1,8 метра (6 футов), что делает всю затею бессмысленной. Кроме того, кабель мышки должен оставаться достаточно гибким, чтобы не стеснять движения руки. Чтобы решить эту проблему, было принято решение добавить разделение на высокоскоростной (12 Мбит/с) и низкоскоростной (1,5 Мбит/с) режимы. Запас в 12 Мбит/с позволял использовать разветвители и хабы для одновременного подключения нескольких устройств на одном порту, а 1,5 МБит/с оптимально подходил для подключения к ПК мышек, клавиатур и других аналогичных девайсов.

Сам Джим считает эту историю камнем преткновения, который в конечном счете и обеспечил успех всего проекта. Ведь без поддержки Microsoft продвигать новый стандарт на рынке было бы на порядок труднее. К тому же найденный компромисс помог сделать USB значительно дешевле, а значит, и привлекательнее в глазах производителей периферического оборудования.

Что в имени тебе моем, или Безумный ребрендинг


И раз уж сегодня мы с вами обсуждаем USB-накопители, давайте заодно проясним ситуацию с версиями и скоростными характеристиками данного стандарта. Здесь все совсем не так просто, как может показаться на первый взгляд, ведь с 2013 года организация USB Implementers Forum приложила максимум усилий для того, чтобы окончательно запутать не только рядовых потребителей, но и профессионалов из мира IT.

Раньше все было достаточно просто и логично: у нас есть медленный USB 2.0 с максимальной пропускной способностью 480 Мбит/с (60 МБ/с) и в 10 раз более быстрый USB 3.0, у которого предельная скорость передачи данных достигает уже 5 Гбит/с (640 МБ/с). За счет обратной совместимости накопитель с USB 3.0 можно подключить в порт USB 2.0 (или наоборот), однако при этом скорость чтения и записи файлов будет ограничена 60 МБ/с, так как более медленное устройство будет выступать в роли бутылочного горлышка.

31 июля 2013 года USB-IF внесла в эту стройную систему изрядную путаницу: именно в этот день было объявлено о принятии новой спецификации USB 3.1. И нет, дело вовсе не в дробной нумерации версий, что встречалось и раньше (хотя справедливости ради стоит отметить, что USB 1.1 была доработанной версией 1.0, а не чем-то качественно новым), а в том, что USB Implementers Forum зачем-то решила переименовать и старый стандарт. Следите за руками:

  • USB 3.0 превратился в USB 3.1 Gen 1. Это чистой воды переименование: никаких улучшений произведено не было, да и максимальная скорость осталась все той же 5 Гбит/с и не битом больше.
  • По-настоящему новым стандартом стал USB 3.1 Gen 2: переход на кодирование 128b/132b (ранее использовалось 8b/10b) в режиме full-duplex позволил удвоить пропускную способность интерфейса и добиться впечатляющих 10 Гбит/с, или 1280 МБ/с.

Но этого ребятам из USB-IF показалось мало, так что они решили добавить и пару альтернативных названий: USB 3.1 Gen 1 стал SuperSpeed, а USB 3.1 Gen 2 SuperSpeed+. И как раз этот шаг вполне оправдан: розничному покупателю, далекому от мира компьютерной техники, куда проще запомнить броское название, нежели последовательность букв и цифр. А здесь все интуитивно: у нас есть сверхскоростной интерфейс, который, как можно заключить из названия, очень быстрый, и есть сверхскоростной+ интерфейс, который еще быстрее. Но зачем при этом было проводить столь специфический ребрендинг индексов поколений решительно непонятно.

Впрочем, нет предела несовершенству: 22 сентября 2017 года с публикацией стандарта USB 3.2 ситуация еще более усугубилась. Начнем с хорошего: двусторонний разъем USB Type-C, спецификации которого были разработаны еще для прошлого поколения интерфейса, позволил удвоить максимальную пропускную способность шины за счет использования дублирующих выводов в качестве отдельного канала передачи данных. Так появился USB 3.2 Gen 22 (почему его нельзя было назвать USB 3.2 Gen 3, опять же загадка), работающий на скорости вплоть до 20 Гбит/с (2560 МБ/с), который, в частности, нашел применение при производстве внешних твердотельных накопителей (именно таким портом оснащены высокоскоростные WD_BLACK P50, ориентированные на геймеров).


И все бы ничего, но, помимо введения нового стандарта, не заставило себя ждать и переименование предыдущих: USB 3.1 Gen 1 превратился в USB 3.2 Gen 1, а USB 3.1 Gen 2 в USB 3.2 Gen 2. Претерпели изменения даже маркетинговые названия, причем USB-IF отошли от ранее принятой концепции интуитивно понятно и никаких цифр: вместо того, чтобы обозначить USB 3.2 Gen 22 как, например, SuperSpeed++ или UltraSpeed, они решили добавить прямое указание на максимальную скорость передачи данных:

  • USB 3.2 Gen 1 стал SuperSpeed USB 5Gbps,
  • USB 3.2 Gen 2 SuperSpeed USB 10Gbps,
  • USB 3.2 Gen 22 SuperSpeed USB 20Gbps.

И как же разобраться с зоопарком стандартов USB? Чтобы облегчить вам жизнь, мы составили сводную табличку-памятку, с помощью которой сопоставить разные версии интерфейсов не составит особого труда.

Версия стандарта


Маркетинговое название


Скорость, Гбит/с


USB 3.0


USB 3.1


USB 3.2


Версия USB 3.1


Версия USB 3.2


USB 3.0


USB 3.1 Gen 1


USB 3.2 Gen 1


SuperSpeed


SuperSpeed USB 5Gbps


5



USB 3.1 Gen 2


USB 3.2 Gen 2


SuperSpeed+


SuperSpeed USB 10Gbps


10




USB 3.2 Gen 22



SuperSpeed USB 20Gbps


20



Многообразие USB-накопителей на примере продукции SanDisk


Но давайте вернемся непосредственно к предмету сегодняшнего обсуждения. Флешки стали неотъемлемой частью нашей с вами жизни, получив множество модификаций, иногда весьма причудливых. Наиболее полное представление о возможностях современных USB-накопителей позволяет получить портфолио компании SanDisk.

Все актуальные модели флеш-накопителей SanDisk поддерживают стандарт передачи данных USB 3.0 (он же USB 3.1 Gen 1, он же USB 3.2 Gen 1, он же SuperSpeed практически как в фильме Москва слезам не верит). Среди них можно найти как вполне классические флешки, так и более специализированные устройства. Например, если вы хотите обзавестись компактным универсальным накопителем, имеет смысл обратить внимание на линейку SanDisk Ultra.


SanDisk Ultra

Наличие шести модификаций различной емкости (от 16 до 512 ГБ) помогает подобрать наиболее оптимальный вариант в зависимости от ваших потребностей и не переплачивать за лишние гигабайты. Скорость передачи данных вплоть до 130 МБ/с позволяет достаточно быстро скачивать даже объемные файлы, а удобный раздвижной корпус надежно защищает коннектор от повреждений.

Поклонникам элегантных форм мы рекомендуем линейку USB-накопителей SanDisk Ultra Flair и SanDisk Luxe.


SanDisk Ultra Flair

Технически эти флешки полностью идентичны: обе серии характеризуются скоростью передачи данных до 150 МБ/с, а каждая из них включает в себя 6 моделей емкостью от 16 до 512 ГБ. Отличия кроются лишь в дизайне: Ultra Flair получил дополнительный конструктивный элемент из прочного пластика, тогда как корпус версии Luxe полностью выполнен из алюминиевого сплава.


SanDisk Luxe

Помимо эффектного дизайна и высокой скорости передачи данных, перечисленные накопители имеют и еще одну весьма интересную особенность: их USB-коннекторы являются прямым продолжением монолитного корпуса. Такой подход обеспечивает высочайший уровень защищенности флешки: случайно сломать подобный коннектор попросту невозможно.

Помимо полноразмерных накопителей, в коллекции SanDisk присутствуют и решения категории подключил и забыл. Речь идет, конечно же, о сверхкомпактных SanDisk Ultra Fit, размеры которых составляют всего 29,8 14,3 5,0 мм.


SanDisk Ultra Fit

Такой малыш едва выступает над поверхностью USB-разъема, что делает его идеальным решением для расширения хранилища клиентского устройства, будь то ультрабук, автомобильная аудиосистема, Smart-телевизор, игровая приставка или одноплатный компьютер.


Самыми же интересными в коллекции SanDisk можно назвать USB-накопители Dual Drive и iXpand. Оба семейства, несмотря на конструктивные различия, объединяет единая концепция: эти флешки получили по два порта разных типов, что позволяет использовать их для переноса данных между ПК или ноутбуком и мобильными гаджетами без дополнительных кабелей и переходников.

Накопители семейства Dual Drive предназначены для использования со смартфонами и планшетами, работающими под управлением операционной системы Android и поддерживающими технологию OTG. Сюда входят три линейки флешек.

Миниатюрные SanDisk Dual Drive m3.0, помимо USB Type-A, оснащены коннектором microUSB, что обеспечивает совместимость с девайсами прошлых лет, а также смартфонами начального уровня.


SanDisk Dual Drive m3.0

SanDisk Ultra Dual Type-C, как нетрудно догадаться по названию, обзавелись более современным двусторонним коннектором. Сама же флешка стала крупнее и массивнее, однако такая конструкция корпуса обеспечивает лучшую защиту, да и потерять устройство стало куда сложнее.


SanDisk Ultra Dual Type-C

Если же вы ищете нечто более элегантное, рекомендуем обратить внимание на SanDisk Ultra Dual Drive Go. В этих накопителях реализован тот же принцип, что и в упомянутых ранее SanDisk Luxe: полноразмерный USB Type-A является частью корпуса флешки, что исключает его поломку даже при неосторожном обращении. Коннектор USB Type-C, в свою очередь, хорошо защищен поворотным колпачком, на котором также предусмотрена проушина под брелок. Такая компоновка позволила сделать флешку по-настоящему стильной, компактной и надежной.


SanDisk Ultra Dual Drive Go

Серия iXpand полностью аналогична Dual Drive, за исключением того факта, что место USB Type-C занял фирменный коннектор Apple Lightning. Самым необычным устройством в серии можно назвать SanDisk iXpand: данная флешка имеет оригинальный дизайн в виде петли.


SanDisk iXpand

Смотрится эффектно, к тому же в получившуюся проушину можно продеть ремешок и носить накопитель, к примеру, на шее. Да и использовать такую флешку вместе с iPhone куда удобнее, нежели традиционную: при подключении большая часть корпуса оказывается позади смартфона, упираясь в его заднюю крышку, что помогает свести к минимуму вероятность повреждения разъема.


Если же подобный дизайн по тем или иным причинам вас не устраивает, имеет смысл посмотреть в сторону SanDisk iXpand Mini. Технически перед нами все тот же iXpand: модельный ряд также включает четыре накопителя на 32, 64, 128 или 256 ГБ, а максимальная скорость передачи данных достигает 90 МБ/с, чего вполне достаточно даже для просмотра 4K видео непосредственно с флешки. Разница заключается лишь в дизайне: петля исчезла, зато появился защитный колпачок для коннектора Lightning.


SanDisk iXpand Mini

Третий представитель славного семейства, SanDisk iXpand Go, является братом-близнецом Dual Drive Go: их размеры практически идентичны, к тому же оба накопителя получили поворотный колпачок, пусть и немного отличающийся по дизайну. Данная линейка включает в себя 3 модели: на 64, 128 и 256 ГБ.


SanDisk iXpand Go

Перечень продукции, выпускаемой под брендом SanDisk, отнюдь не ограничивается перечисленными USB-накопителями. Познакомиться с другими девайсами именитой марки вы можете на официальном портале Western Digital.
Подробнее..

Облака сгущаются чем cloud-сервисы опасны для игровой индустрии?

04.09.2020 22:23:02 | Автор: admin

Cloud-сервисы стали неотъемлемой частью жизни современного человека. Но понятие облака отнюдь не ограничивается возможностью по мановению ока создавать резервные копии фотографий, сделанных в отпуске, или координировать действия с коллегами с помощью интеллектуальной CRM. Сейчас облачные технологии стали проникать в самые неожиданные отрасли например, в такую сферу, как видеоигры. Если раньше каждый, кто хотел приобщиться к удивительному миру виртуальных развлечений, должен был обзавестись производительным ПК или игровой консолью, то сегодня при наличии стабильного интернет-соединения любой желающий может поиграть в свежий AAA-релиз чуть ли не на калькуляторе.

Впрочем, если копнуть глубже, то окажется, что cloud-гейминг является вовсе не такой уж и выгодной штукой, как рассказывают ангажированные эксперты и блогеры всех мастей. Более того, в отдаленной перспективе именно cloud-гейминг способен привести к окончательной смерти игровой индустрии в том виде, в котором мы с вами ее некогда полюбили. Давайте разбираться.

На сегодняшний день существует несколько десятков сервисов облачного гейминга, использующих различные модели взаимодействия с конечным потребителем. Перечислять их все не имеет смысла, да это и не является целью сегодняшнего материала. Куда интереснее посмотреть на конкретных примерах, насколько выгодным будет их использование с точки зрения игрока. Мы выбрали три наиболее популярные платформы из числа официально доступных на российском рынке и сравнили их возможности и цены на аренду вычислительных мощностей.

LoudPlay




  • Максимальное качество видеопотока: Full HD, 60 FPS, настройки графики выставляются вручную самим пользователем.
  • Оплата: почасовая (65 рублей в час), возможность покупки фиксированных пакетов со скидкой (5 часов 300 рублей, 15 часов 800 рублей, 30 часов 1500 рублей).
  • Поддерживаемые платформы: Windows 10.

Подход LoudPlay является наиболее интересным: подписчикам сервиса предоставляется виртуальная машина с операционной системой Windows 10 и предустановленными лаунчерами популярных цифровых магазинов игр. Но при желании вы можете установить любое другое приложение (например, для работы с 3D-графикой) либо, так сказать, воспользоваться народной демоверсией, благо владельцы сервиса не забыли и о торрент-клиенте.

PlayKey




  • Максимальное качество видеопотока: Full HD, 60 FPS, настройки графики выставляются автоматически (заявлены средневысокие для AAA-тайтлов).
  • Оплата: почасовая, базовая ставка 160 рублей за два часа, скидки за объем (100 часов обойдутся в 6 тысяч рублей).
  • Поддерживаемые платформы: Steam, Origin, Battle.net, Epic Games Store, Uplay, Riot Games, Bethesda, Gaijin, Wargaming, Mail.ru.

Здесь используется несколько иной подход: вы подключаете к сервису свой аккаунт в Steam, Origin или другом цифровом магазине из списка поддерживаемых и после этого сможете играть в любую приобретенную игру (дистрибутивы популярных тайтлов уже установлены на серверах, однако если вашей игры среди них нет, придется подождать ее загрузки). Использовать какие-либо сторонние приложения вы не сможете: PlayKey позиционируется как сугубо игровая платформа и прямого доступа к виртуальным машинам не предоставляет.

GFN (GeForce Now)




  • Максимальное качество видеопотока: 4K, 60 FPS, максимальные настройки графики, включая RTX.
  • Оплата: 999 рублей в месяц, 4999 рублей за полгода либо 9999 рублей за год.
  • Поддерживаемые платформы: Steam, Epic Games Store, Uplay, Riot Games, Wargaming, Mail.ru.

На сегодняшний день это самое выгодное предложение из всех доступных. За 999 рублей в месяц вы получаете возможность играть с разрешением до 4K на ультранастройках графики, при этом единственным ограничением является длительность одной сессии не более 6 часов подряд (по истечении этого срока необходимо подключиться к сервису заново). Среди недостатков можно выделить сравнительно скудную библиотеку: в GFN вы сможете играть только в игры из каталога платформы.

Теперь давайте прикинем годовые затраты на облачный гейминг в каждом из перечисленных сервисов. Для этого выделим три условные категории игроков:

  • казуал в среднем играет не более 1 часа в день, то есть 365 часов в год;
  • хардкорщик играет не менее 3 часов в день, или 1095 часов в год;
  • игроман готов уделять играм по 5 часов в день, или 1825 часов в год.

Приступим к подсчетам. В случае с почасовой оплатой наиболее выгодным вариантом для всех перечисленных категорий геймеров станет приобретение игрового времени максимальными пакетами. Таким образом, затраты на LoudPlay мы считаем исходя из цены 1500 рублей за 30 часов, а на PlayKey отталкиваясь от ставки 6000 рублей за 100 часов за основное время. При покупке дополнительного времени учитываются пакеты меньшего размера, что делает подсчет более реалистичным. Например, казуал купит 3 максимальных пакета в течение года + 1 пакет на 50 часов + 1 пакет на 15 часов. Округлять результаты мы будем в меньшую сторону (опять же, ради реализма), ведь даже заядлый геймер не сможет играть каждый день по 5 часов: учебу, работу и домашние дела никто не отменял. На выходе получаем следующие цифры.

Игрок


Время, ч


LoudPlay


PlayKey


GFN


Казуал


365


18 тыс. руб.


22 тыс. руб.




9999 руб.


Хардкорщик


1095


54 тыс. руб.


66 тыс. руб.


Игроман


1825


90 тыс. руб.


110 тыс. руб.



Что же мы видим? Если говорить о сервисах с почасовой оплатой, то для хардкорщика и игромана их использование оказывается крайне невыгодным. Не будем забывать, что помимо подписки придется потратиться и на ПК начального уровня, который, при условии сборки с нуля из новых, качественных комплектующих, обойдется еще тысяч в 20. Но за 74 тысячи (столько суммарно потратит хардкорщик на LoudPlay + ПК) можно купить вполне приличный игровой компьютер, который точно не придется апгрейдить еще пару-тройку лет как минимум, а за 130 тысяч и вовсе порадовать себя 4K-геймингом, чего ни LoudPlay, ни PlayKey предложить не могут. В случае с казуалом все выглядит не так однозначно. С другой стороны, на третий год затраты такого игрока превысят 90 тысяч рублей, а за эти деньги можно собрать машину, которой точно хватит на 3 года комфортной игры в Full HD, да еще и с запасом.

Сервис nVidia выбивается из общей канвы: 10 тысяч в год, шестичасовые игровые сессии, да еще 4K звучит и правда заманчиво! Но, как говорится, всегда есть варианты. Давайте прикинем, в какую сумму можно уложиться при сборке бюджетного игрового ПК, и уже тогда будем оценивать, насколько выгодным является это предложение.

Бюджетный игровой ПК 2020: дешево и сердито


Байки про игровой ПК за 300 тысяч рублей, который придется обновлять каждые полгода, не имеют ничего общего с реальностью: сегодня вполне приличную машину можно собрать тысяч этак за 5060, и этого вполне хватит, чтобы наслаждаться отменной картинкой (конечно, если не гнаться за 120 FPS в 4K, которые так активно навязывают нам маркетологи). Научно-технический прогресс неумолим: покупая компьютер сегодня, вы получаете куда большую вычислительную мощность в пересчете на каждый вложенный рубль, нежели 10 лет назад. И многие комплектующие, которые некогда были уделом энтузиастов, сегодня доступны подавляющему большинству людей.

Поскольку Western Digital специализируется на разработке носителей данных, мы рассмотрим динамику изменения цен на примере SSD. Хотя сегодня твердотельный накопитель является неотъемлемой частью любого игрового ПК (обычный HDD попросту не справится со стримингом десятков гигабайт текстур), долгое время покупка такого устройства считалась роскошью. Пускай SSD и могли похвастаться производительностью, в несколько раз превышающей возможности традиционных винчестеров, для рядового потребителя их приобретение оставалось малорентабельным из-за высокой удельной стоимости в пересчете на единицу хранения данных.

Так, на момент релиза терабайтные модели с интерфейсом SATA предлагались по базовой цене $325 за штуку, что по сегодняшнему курсу составило бы 24 700 рублей. Учитывая, что за эту цену можно было приобрести предтоповую (а то и топовую) видеокарту, выбор был явно не в пользу SSD. Но время шло, технологии производства флеш-памяти совершенствовались, объемы выпуска чипов росли, и приблизительно в конце 2018 года цены на такие накопители уже находились в пределах от 130 до 162 долларов. Более того, они продолжают падать, несмотря на коронакризис и даже прошлогодний сбой энергоснабжения в Йоккаити, где расположена одна из крупнейших фабрик по производству полупроводниковых компонентов Kioxia, что повлекло за собой повреждение дорогостоящего оборудования и снижение темпов производства.


Ночная панорама города-фабрики Йоккаити завораживает...

Сегодня приобрести тот же WD Blue 3D NAND на 1 ТБ можно за 85008700 рублей, то есть примерно за $115 (здесь не стоит забывать о колебаниях курса, вызванных непростой экономической ситуацией в мире, в противном случае цена накопителя оказалась бы еще ниже). Среди SATA SSD эта модель является топовой, демонстрируя скорость передачи данных в операциях последовательного чтения вплоть до 560 МБ/с (более чем в 2 раза выше по сравнению с винчестерами, потолком для которых является значение 250 МБ/с), что является максимальным показателем для устройств данного класса.


WD Blue 3D NAND SSD емкостью 1 терабайт

Аналогичным образом дела обстоят и в сегменте высокопроизводительных твердотельных накопителей, ориентированных на профессионалов и геймеров. Для примера возьмем тот же WD Blue SN550. Перед нами полноценный NVMe SSD, задействующий все четыре линии PCI Express 3.0, предоставляемые данным интерфейсом, способный похвастаться скоростью записи до 1950 МБ/с и скоростью чтения вплоть до 2400 МБ/с, который без труда справится с любыми приложениями для работы с контентом, включая профессиональные фоторедакторы, программы для монтажа видео, работы с 3D-графикой или проектирования. При этом цена на такое устройство на момент написания статьи колеблется от 10 до 11,5 тысячи рублей за терабайтную версию и от 6 500 до 6 900 рублей за версию на 500 гигабайт. То есть, если сравнивать с SATA-накопителем, будет достаточно доплатить от 1500 до 2500 рублей, чтобы получить в 4 раза большую производительность.


WD Blue SN550 идеальный баланс цены и производительности

Если же добавить еще тысячу-полторы сверху, то мы выходим на топовый WD_BLACK SN750, который демонстрирует скорость передачи данных до 3430 МБ/с в операциях чтения и до 2600 МБ/с в операциях записи. Столь высокая производительность гарантирует не только быструю загрузку локаций и отсутствие фризов даже в самых тяжелых (или плохо оптимизированных) играх, но и позволяет скачивать дистрибутивы размером в сотни гигабайт буквально за считанные минуты (разумеется, при достаточной пропускной способности вашего интернет-соединения).


WD_BLACK SN750 быстрый и надежный

На момент написания данной статьи средняя цена WD_BLACK SN750 на 500 гигабайт составляет около 88,5 тысячи рублей. Установка такого накопителя в бюджетный игровой компьютер может показаться расточительной, однако на деле подобное вложение средств является весьма выгодным вы получите в свое распоряжение действительно ультимативный SSD, который запросто переживет не один апгрейд. Все дело в том, что в WD_BLACK SN750 используется флеш-память TLC 3D NAND последнего поколения, поэтому TBW моделей на 500 гигабайт достигает 300 терабайт перезаписи. Таким образом, даже если предположить, что вы каким-то чудом будете расходовать 5 терабайт в месяц, что нереально даже для самого отпетого игромана, то ресурса накопителя хватит на 5 лет бесперебойной работы. А при средней нагрузке в 2,5 терабайта в месяц (что тоже маловероятно, но все же ближе к реальности) такой SSD прослужит вам не менее 10 лет.

При этом если раньше под такой накопитель требовалась материнская плата за 10+ тысяч рублей, то сегодня за 5,56,5 тысячи рублей можно приобрести ту же ASRock B450M Pro4-F с разъемом Ultra M.2, который берет линии PCIe не от чипсета, а непосредственно от процессора, что, ко всему прочему, позволяет минимизировать уровень задержки сигнала и наслаждаться производительностью SN750 без каких-либо ограничений. Кстати, и сам по себе накопитель имеет туз в рукаве: с помощью бесплатного сервисного ПО модель SSD WD_BLACK можно перевести в игровой режим, отключив энергосберегающие функции группы Autonomous Power State Transitions и, таким образом, добиться стабильной работы даже под высокой нагрузкой за счет минимизации задержек при первичном обращении к сохраненным данным.


Материнская плата ASRock B450M Pro4-F

Добавим сюда боксовую версию Ryzen 5 3300X (1011 тысяч рублей), 16 ГБ оперативной памяти частотой 3200 МГц (два модуля по 8 ГБ обойдутся вам в плюс-минус 5 тысяч рублей), жесткий диск WD Blue на 1 ТБ под файлы (около 3,5 тысячи), блок питания на 500 ватт (качественный БП с активным PFC и сертификатом 80+ Bronze будет стоить порядка 34 тысяч), а также видеокарту nVidia GTX 1660 Super (1921 тысяча в зависимости от модификации) и бюджетный корпус по вкусу (2,53,5 тысячи) и на выходе получим вполне достойную конфигурацию в пределах 5560 тысяч рублей, которая позволит запускать на высоких/максимальных настройках любые современные игры в Full HD и потенциала которой хватит на ближайшие 23 года. А если качество графики для вас не столь важно и на первом месте находится именно стабильный фреймрейт, сборку можно удешевить еще тысяч на 10 (здесь все зависит от того, в какие игры вы планируете играть).


На базе AMD Ryzen можно собрать недорогой, но производительный ПК

Теперь вернемся к нашим выкладкам. Чтобы использовать тот же GFN (а на сегодняшний день это наиболее рентабельный сервис из доступных на рынке), вам понадобится ПК за 20 тысяч, как мы и писали ранее (здесь будет справедливо ориентироваться на новые комплектующие, потому что, если закупаться для нашей игровой сборки на Avito, она получится еще дешевле). Однако три года подписки потребуют еще 30 тысяч рублей, так что на выходе мы получим приблизительно ту же сумму за вычетом таких неприятностей, как инпутлаг, ожидание подключения в прайм-тайм на выходных и праздниках, рассыпающееся изображение или внезапное исчезновение интересной вам игры из списка поддерживаемых. Также вы не будете ограничены рамками игротеки, предлагаемой сервисом.

Конечно, бюджетный игровой компьютер не вытянет 60 FPS в разрешении 4K, тогда как GFN формально предлагает такую возможность (сможете ли вы ею воспользоваться, зависит от места вашего проживания и качества интернет-соединения). С другой стороны, покупать 4K-монитор только для того, чтобы подключить к нему стриминговый проигрыватель, по меньшей мере странно. Если вы можете позволить себе такой аппарат, то, очевидно, сможете собрать и достойную игровую платформу, а значит, использование GFN вновь оказывается бессмысленным.

А знаете, что могло бы повысить привлекательность облачного гейминга? Конечно же, предоставление по подписке не только вычислительных мощностей, но и самих игр, как это реализовано в рамках той же EA Play Pro или Xbox Ultimate Pass. По деньгам это было бы действительно выгодно, даже если бы размер абонентской платы возрос на 50%. Вот только вряд ли нам с вами понравятся подобные игры.

Смерть в облаках: как cloud-гейминг изменит игровую индустрию?



Словно подбитый истребитель из Ace Combat, игровая индустрия неумолимо сваливается в штопор

Представим себе на минуточку светлое будущее, в котором на рынке безраздельно доминирует облачный гейминг, а на консолях и ПК играют разве что ценители ретро, ведь новые игры в привычном нам понимании не выходят даже в цифре, не говоря уже о физических носителях. Технические ограничения тем или иным образом удалось преодолеть, так что теперь любой желающий может за скромную абонентскую плату наслаждаться топовыми AAA-проектами даже на калькуляторе в 16K (у нас светлое будущее все-таки), причем в стоимость подписки входит и доступ к любой игре из каталога сервиса. Что это? Утопия? Сбывшаяся в отдельно взятой нише мечта о счастье для всех, даром, и пусть никто не уйдет обиженным? Отнюдь нет. Давайте порассуждаем, к чему может привести подобное положение вещей.

Проблема 1: Я слишком беден, чтобы экономить на играх


Наиболее близким аналогом облачных игровых сервисов можно назвать онлайн-кинотеатры. С их появлением фильмы и сериалы на Blu-Ray практически канули в Лету, да и приобрести цифровые версии ряда тайтлов сегодня уже нельзя, так как единственный выбор, который предоставляют пользователю большинство онлайн-сервисов, смотреть по подписке или не смотреть вовсе. Согласно статистическим данным, собранным компанией Sandvine, в период с 2011 по 2015 год отмечалось резкое падение популярности пиринговых файлообменных сетей: с 52 до 26% в США и с 59 до 21% в Евросоюзе. Снижение доли пиратского трафика произошло именно за счет низкого интереса пользователей сети Интернет к раздачам фильмов и сериалов, что коррелирует с интенсивным развитием стриминговых сервисов, благодаря которым лицензионный видеоконтент поначалу стал действительно доступным. Однако в период с 2015 по 2018 год маятник качнулся в обратную сторону, и доля пиратского трафика вернулась к прежним показателям. Причиной же этого стала жесточайшая конкуренция между онлайн-кинотеатрами.

Казалось бы, от соперничества крупных игроков потребитель должен только выиграть. Но это утверждение перестает работать, когда речь заходит о развлекательном контенте вообще и о фильмах в частности. Чтобы привести зрителей на свою платформу, компаниям Netflix, Disney или Apple вовсе не обязательно оптимизировать инфраструктуру хранения данных, вкладываться в разработку новых моделей доставки видеоконтента, чтобы удешевить подписку, или создавать продвинутые нейросети, которые будут с высокой точностью рекомендовать человеку шоу, всецело отвечающие его вкусам. Конечно, изыскания в перечисленных направлениях также ведутся, но главная ставка делается на эксклюзивы. В этом и кроется причина роста популярности торрентов.


Иногда конкуренция не приносит пользы конечному потребителю

Как выяснили в Sandvine, среднестатистический житель Америки или Европы подписан на 1, максимум 2 стриминговых сервиса и благополучно скачивает все остальное. А дело в том, что из-за выпуска эксклюзивных проектов в разных жанрах всего $9,99 в месяц превращаются в 50, а то и все 100 для каждого активного потребителя видеоконтента, ведь иного легального способа посмотреть все интересующие человека фильмы или сериалы (например, купив) попросту не существует. И платформы облачного гейминга, получи они карт-бланш на дистрибуцию, наверняка пойдут по аналогичному пути.

Кто-то может возразить: Чтобы поиграть в эксклюзивы, я просто буду оформлять подписку на разные сервисы поочередно. На этот счет можете не беспокоиться: провайдеры cloud-сервисов найдут способы сделать так, чтобы вам это было невыгодно. Где-то будет использоваться пряник (вроде особых плюшек или 50-процентной скидки на годовую подписку), а где-то кнут (к примеру, все ваши сохранения будут удаляться спустя неделю после приостановки абонемента). В общем, как и в других сферах, платформодержатели станут вовсю эксплуатировать FOMO-синдром (синдром упущенной выгоды, который выражается в боязни упустить что-то интересное), и никуда вы от этого не денетесь. Да и отдушины в виде торрентов уже не будет: если видеопоток можно тем или иным образом перехватить, то поиграть, не имея доступа к дистрибутиву, если таковые останутся сугубо в облаках, вы никак не сможете.

Проблема 2: Где моды, Лебовски?



Ничего необычного, просто Линк путешествует по Скайриму

Одной из самых сильных сторон ПК-гейминга является моддинг. Если одни модификации лишь добавляют в игру забавные скины, то другие, напротив, могут кардинально менять баланс, добавлять новые аспекты геймплея или огромные пласты контента, предлагая игрокам принципиально новый опыт. Но в случае с переходом игр в облака это направление фанатского творчества может умереть, и вот почему:

  • Исчезновение неофициальных модов

Моддеры смогут получить доступ к той или иной игре лишь в том случае, если сами разработчики позаботятся о создании SDK. Пощупать дистрибутив и сделать собственный инструментарий ни один моддер не сможет, равно как не сможет и создавать модификации, взаимодействующие с игрой непосредственно в оперативной памяти компьютера.

  • Тотальная цензура

В современных реалиях крупные издатели и платформодержатели из опасений как бы чего не вышло бросаются во все тяжкие, насаждая тотальную цензуру в угоду вокальному меньшинству. Ярким примером этого можно назвать поступок Sony, которая стала цензурить эротический контент в играх 18+, объяснив это тем, что не хочет погрязнуть в исках или оказаться жертвой травли. Нетрудно догадаться, что при наличии полного контроля над модификациями под нож попадут любые фанатские творения, не соответствующие представлениям правообладателя о рамках дозволенного.

  • Отсутствие кроссоверов

По этой же причине стоит ожидать исчезновения и модов-кроссоверов, добавляющих в игру персонажей из других произведений. Если для условного фантастического боевика кто-то создаст модификацию, добавляющую в игру азари или кроганов, платформодержатель почти наверняка не допустит публикации такого мода просто из опасений судебного разбирательства с Electronic Arts, которой принадлежат права на Mass Effect. Ведь одно дело, когда вы устанавливаете мод на свой компьютер, и совсем другое, когда речь идет об облачном гейминге, где провайдер является фактически распространителем контента.

Если же быть реалистом, то единственное, что разрешат делать разработчикам модов крупные издатели, это добавлять различные скины, маунтов, танцы и эмоции. Не больше. О том, чтобы позволить кому-то со стороны вмешиваться в геймплей или баланс, и речи быть не может, даже если говорить о The Elder Scrolls, где фанатское творчество исконно играло ключевую роль в обеспечении популярности серии. Почему? Переходим к проблемам 3 и 4.

Проблема 3: Игра по чужим правилам


Тем, кто играл в азиатские MMORPG, такая ситуация отлично знакома. Будучи совсем зеленым новичком, вы играете в безопасном загончике, проходите квесты один за другим, прокачиваете своего персонажа и чувствуете себя хозяином ситуации, тем самым избранным, о котором говорилось в пророчестве и которому все по плечу. Так продолжается до тех пор, пока вы не достигнете определенного уровня, после чего вас отправляют в огромный открытый мир. И вот вы, ничего не подозревая, подбегаете к точке, отмеченной на карте, где, по словам NPC, должен находиться лагерь гоблинов, и беспомощно наблюдаете, как персонаж 100+ уровня, буквально уничтоживший вас одним ударом, снимает с вашего трупа легендарную броню, с огромным трудом добытую в самом первом подземелье. А как вы хотели? Здесь у нас Free PVP как никак! Впрочем, на этом ваши беды не кончаются: воскреснув в ближайшем городе, вы обнаруживаете дебафф в 50% на получение опыта.


Хотел пофармить? Сначала придется пройти через этих ребят

Если отбросить маркетинговую чепуху про хардкор, превозмогание, суровый мир для настоящих ценителей жанра, то, с точки зрения издателя, подобный гейм-дизайн преследует единственную цель вынудить вас потратить как можно больше денег. Ведь во внутриигровом магазине всего за $4,99 вы можете приобрести защитный амулет, который не даст противнику обобрать ваше тело (разумеется, одноразовый), а также зелье очищения, снимающее с вашего персонажа штраф к получаемому опыту. Вас заведомо ставят в такие условия, чтобы вы были вынуждены платить для более-менее комфортной игры, и Free PVP является самым лучшим стимулом, благо абсолютно в любом проекте отыщется достаточно желающих поиздеваться над новичками. Наверное, единственной MMORPG, где нуб может противостоять ветерану, используя знания механик, является EVE Online: особенности геймплея позволяют игроку избегать засад и на равных сражаться с более сильным (с точки зрения прокачки и вооружения) противником. Но это исключение лишь подтверждает правило.


EVE Online единственная MMORPG, где тащат острый ум и прямые руки

Но при чем здесь облачные сервисы и одиночные игры? спросите вы. Порочные практики из азиатских MMORPG уже давно перекочевали в ряд сингловых проектов. Взять хотя бы Assassins Creed: Odyssey: здесь вам и paywall (выполняй все побочные квесты, иначе отстанешь по уровню и не сможешь убить даже рядового наемника), и таймсейверы для тех, кто не хочет гриндить, и эксклюзивные предметы во внутриигровом магазине, которые невозможно достать игровым путем.


Assassins Creed: Odyssey: любой каприз за ваши деньги

Внедрение PVP, которое будет вызывать дискомфорт у игрока, является вполне логичным шагом, благо примеры реализации механик player-vs-player в синглах также существуют.

В играх серии Souls PVP весьма органично вписывается в концепцию игровой вселенной: существует множество параллельных миров, границы между которыми истончились, чем и могут воспользоваться как герои, так и злодеи. Вы можете вторгнуться в чужой мир, подключившись к сессии другого игрока, чтобы сразиться с ним или же, напротив, помочь в убийстве очередного босса. Однако если эта механика вас не устраивает и вы желаете насладиться атмосферой темного фэнтези в полном одиночестве, то можете просто перевести клиент Steam в офлайн-режим.


Хотя Dark Souls является сингловым проектом, в нем нашлось место и для PVP

Вот только, если игра находится на серверах cloud-сервиса, отключиться от сети вы не сможете, даже если очень сильно этого захотите. Впрочем, чтобы поиграть с комфортом, всегда можно приобрести специальный оберег, который стабилизирует ткань мироздания и препятствует вторжению злоумышленников в вашу реальность, всего за $4,99. Конечно же, силы артефакта будут со временем истощаться, так что каждые три часа придется покупать новый. Но ведь оно того стоит, не так ли?

И не надо думать, что подобные практики никогда не затронут крупные AAA-проекты. Во-первых, уже затронули, пусть и не в той мере, как в азиатских MMORPG, но это лишь вопрос времени. Во-вторых, в мобильных играх можно встретить куда более жесткие схемы монетизации и ничего: люди тратят сотни (и тысячи, и даже миллионы) долларов, считая это абсолютно нормальным. Так что в случае с большими играми все упирается в фактор времени: нужно лишь подождать, пока подрастет поколение игроков, которые и слыхом не слыхивали об играх, где костюмы даются в качестве бонуса за прохождение, сюжет целостный и не требует покупки отдельных квестов по цене до от стоимости самой игры, а геймплей сбалансирован таким образом, чтобы приносить игроку удовольствие, а не вынуждать платить еще больше. Ну а в-третьих, в модели игр по подписке издатели неизбежно станут закручивать гайки. И вот почему.

Проблема 4: Нужно больше золота!


Портал GameRevolution провел весьма интересное исследование, посвященное тому, как люди проходят видеоигры, на примере 12 тайтлов. Цифры говорят сами за себя.

Игра


Доля игроков, прошедших игру до конца


Detroit: Become Human


61,7%


God of War


53,6%


Marvels Spider-Man


50,3%


Yakuza Kiwami 2


49,1%


Uncharted 4: A Thiefs End


41,7%


Darksiders 3


37,9%


Far Cry 5


35,8%


Persona 5


34,8%


Assassins Creed Odyssey


24,6%


Red Dead Redemption 2


22%


Dead Cells


15%


Crash Bandicoot


12,6%



Оказывается, даже топовые эксклюзивы PlayStation, вокруг которых традиционно кипит ажиотаж, проходят в среднем лишь 50% владельцев, тогда как менее распиаренные релизы не могут похвастаться даже такими цифрами.


Пройти Uncharted могут не только лишь все. Мало кто может это сделать...

Когда речь заходит о традиционной модели дистрибуции на физических носителях или в цифре, с точки зрения издателя, процент прохождений не играет какой-либо значимой роли, ведь человек уже заплатил $60 (или $120, если речь идет об Ultra Premium Elite First Day Edition). Конечно, было бы здорово, чтобы игрок приобрел все DLC и потратился во внутриигровом магазине (при наличии такового), но базовая сделка в любом случае уже заключена и свои деньги издатель получил.

В случае же с подпиской издателю будет начисляться определенный процент от прибыли платформы, который будет тем выше, чем больше людей играют в ту или иную игру и чем дольше они это делают. Это неизбежно выльется в еще более навязчивую, чем это реализовано сейчас, эксплуатацию аддиктивных механик, в искусственное затягивание прохождения, а также в использование более грубых методов монетизации вроде описанного выше принудительного PVP, дабы успеть получить с игрока как можно больше денег в ограниченный промежуток времени на тот случай, если увлечь его надолго не удастся. Как следствие, крупные проекты с действительно интересным и разнообразным геймплеем вымрут как класс и в конечном счете мы получим нечто вроде тех же мобильных игр, только в безумно дорогой и красивой обертке.

Что же имеем на выходе? Как бы пафосно это ни прозвучало, игнорируя сервисы облачного гейминга, отдавая предпочтение традиционным платформам, будь то ПК или консоли, и отказываясь от модели предоставления доступа к играм по подписке, мы с вами голосуем рублем за оздоровление игровой индустрии, за возможность играть в будущем в добротные, оригинальные сингловые проекты, а не безликие клоны, весь геймплей которых сводится к бесконечному гринду. И поверьте, это стоит того, чтобы подождать пару-тройку месяцев, подкопив на игровой ПК, благо с нынешним уровнем производительности комплектующих это не так уж и сложно.
Подробнее..

Количество VS качество главные проблемы игр с открытым миром

05.02.2021 20:16:55 | Автор: admin

В последние годы игры с открытым миром стали чрезвычайно популярны. Подобные проекты есть практически у каждого крупного издателя, да и независимые разработчики не отстают, благо современные технологии существенно упростили процесс создания бескрайних виртуальных просторов. Но, как говорится, важен не размер, а умение пользоваться. Зачастую сама модель openworld оказывается неуместной, ломая нарратив и разрушая атмосферу даже в том случае, когда все прочие аспекты игры выполнены на достаточно высоком уровне. Сегодня мы попробуем разобраться, почему так происходит и где пролегает тонкая грань между отвратительным и великолепным открытым миром.

Конфликт геймплея и повествования


Давайте не будем теоретизировать впустую, а рассмотрим типичные ошибки гейм-дизайна на примере конкретных тайтлов разных лет. Для начала вернемся в прошлое и вспомним Vampire the Masquerade: Bloodlines, предоставляющую нам уникальную возможность почувствовать себя в шкуре новообращенного вампира. Перед нами яркий пример отличной RPG с ужасным открытым миром.

Рекламный постер Vampire the Masquerade: Bloodlines

Ролевая система VtMB отлично проработана. Каждый квест в игре уникален и имеет несколько вариантов прохождения, а большинство заданий радуют игрока неожиданными сюжетными поворотами, заставляющими совершенно иначе взглянуть на происходящее и кардинально поменять свое отношение к участникам событий (причем это касается как основной сюжетной линии, так и побочных).

Тереза или Жанетт? Судьба этой парочки в ваших руках

Огромное влияние на геймплей оказывает и первоначальное создание персонажа: от выбора клана зависят уникальные особенности нашего протагониста, а распределение очков навыков и тактика дальнейшей прокачки (получить все умения, как в современных проектах, лишь пытающихся казаться ролевыми, но на деле таковыми не являющимися, здесь не выйдет) определяют дальнейший стиль игры и отыгрыш выбранной роли.

И хотя основной сюжет Bloodlines можно завершить часов за 20, а полное прохождение занимает 40 часов максимум, если игра вас зацепит, вы проведете в ней и 100, и 200, и 1000 часов, ведь благодаря развитой ролевой составляющей каждое новое прохождение не будет похожим на все предыдущие.

Играя за уродливых носферату, вы не сможете общаться с обычными людьми и будете вынуждены перемещаться по канализации

Реализацию же самого открытого мира иначе, чем отвратительной, не назовешь. Действие Vampire the Masquerade: Bloodlines происходит в ночном Лос-Анджелесе. Город разделен на четыре района: Санта-Моника, Голливуд, Даунтаун и Чайна-таун, каждый из которых представляет собой обособленный загончик, который мы никак не сможем покинуть благодаря невидимым стенам, что само по себе негативно сказывается на погружении. Перемещаться между районами можно единственным способом используя такси, которое будет услужливо ожидать нас на одном и том же месте в каждой локации. Кстати, никаких машин по улицам не ездит, и, хотя все действо по понятным причинам происходит ночью, когда движение не столь оживленное, полное отсутствие автотрафика выглядит странно.

Автомобили в игре встречаются, но только на парковках и в катсценах

Местные жители представляют собой безмозглых болванчиков, которые большую часть времени перемещаются по жестко заданным зацикленным маршрутам, хотя еще в вышедшей двумя годами ранее Gothic 2 каждый NPC имел собственное расписание и достаточно внушительный набор действий, что делало компьютерных персонажей, да и мир в целом, куда более живым.

Хоринис маленький, но по-настоящему живой портовый город из Gothic 2

Каких-то побочных активностей, не связанных с квестами, здесь попросту нет: все, что может делать главный герой, питаться от прохожих и находить новых квестодателей. Или устроить бойню, что фатально скажется на прохождении: нарушение маскарада является самым страшным грехом для вампира, и жестокая кара со стороны сородичей не заставит себя ждать. Ах да, еще можно потанцевать в ночном клубе, хотя здешние танцы больше напоминают эпилептические конвульсии.

Да и сам openworld получился излишне камерным: локации весьма компактны, и все точки интереса на них расположены рядом друг с другом, что лишь усиливает чувство нереальности происходящего. Можно подумать, что наш протагонист стал участником дорогого спектакля: какими бы шикарными ни были декорации, ограниченное пространство театра разрушает все иллюзии.

Тем более символично выглядит тот факт, что основной сюжет начинается в заброшенном театре

Пример Vampire the Masquerade: Bloodlines наглядно демонстрирует, что само по себе наличие открытого мира еще ничего не решает. Игра стала культовой именно благодаря проработанной ролевой системе и вопреки многим другим аспектам, среди которых не последнее место занимал и довольно неказистый открытый мир.

Когда важна каждая мелочь


Но как же выглядит идеальный openworld? Быть может, он должен быть наполнен мельчайшими деталями или предлагать игроку разнообразный дополнительный контент? А может быть, будет достаточно реалистичной графики и взаимодействия с окружением? На самом деле ни то, ни другое, ни третье, и все сразу. В идеале открытый мир должен гармонично переплетаться с историей, сеттингом и геймплеем, не вызывая у игрока лудонарративного диссонанса так называется ситуация, когда игровой процесс вступает в прямой конфликт с повествованием или лором игры.

Продолжим вампирскую тематику, но рассмотрим уже другой пример Legacy of Kain: Soul Reaver. Открытый мир в этой игре не предлагает ничего, кроме сражений, поиска артефактов, усиливающих Разиеля, и порталов для быстрого перемещения между локациями. Все прочие приключения и головоломки, с которыми сталкивается наш протагонист, вписаны в основной сюжет, так что обилия побочных активностей вы здесь не найдете. И это абсолютно логично и правильно.


Мир Soul Reaver можно охарактеризовать как вампирский постапокалипсис: большая часть человечества истреблена, оставшиеся люди держат оборону в немногочисленных городах-крепостях, да и сами здешние вампиры давно превратились в отвратительных монстров, немногим отличающихся от зомби. Безжизненные руины Ностгота, по которым путешествует Разиель, гармонично сочетаются с сеттингом, ведь если бы главный герой на каждом шагу встречал чудом оставшихся в живых людей или не утративших рассудок и человеческий облик вампиров, раздающих второстепенные квесты, игра лишилась бы львиной доли своего очарования: атмосфера безысходности и обреченности была бы полностью разрушена.

О былом величии Ностгота напоминают лишь древние развалины

Яркая противоположность Soul Reaver и еще одна иллюстрация того, как надо делать открытые миры, игры Rockstar Games. К той же Grand Theft Auto V можно относиться как угодно, однако отрицать, что перед нами шедевр, попросту язык не поворачивается.



В данном случае разработчики постарались оживить виртуальный мир за счет добавления огромного количества деталей, начиная от реалистичного поведения одежды на персонажах и заканчивая симуляцией лунных фаз.

Чтобы в полной мере оценить небывалый уровень проработки многочисленных нюансов, достаточно ознакомиться с альбомом, в котором пользователь Reddit под ником Alexxd94 собрал свыше 800 наиболее интересных примеров. Вот один из них. Когда персонаж надевает солнцезащитные очки, то при переключении к виду от первого лица к изображению применяется соответствующий фильтр, оттенок которого зависит от цвета стекла. Однако если ваш протагонист носит очки достаточно долго, его глаза постепенно адаптируются и интенсивность тонировки снижается.


Этот нюанс заметят и оценят единицы, тем не менее RockStar его учли. Ведь наряду с необязательными побочными активностями (вы можете поиграть в боулинг, гольф или покер, заняться спортом, сходить в кино, приобщиться к дайвингу и сделать многое, многое другое) такие мелочи работают на целостность и достоверность мира: в глазах игрока Лос-Сантос становится по-настоящему живым и интересным.

В Legend of Zelda: Breath of the Wild используется несколько иной подход. Безусловно, и в этой игре присутствует внимание к мелочам, однако основной акцент сделан именно на геймплее, что вполне логично: отправляясь в сказочный Хайрул, игрок хочет насладиться невероятными приключениями и почувствовать себя первооткрывателем в неизведанном мире, поэтому реалистичная симуляция повреждений наподобие той, что используется в GTA V, здесь не нужна, тогда как занятные механики, позволяющие преодолевать те или иные трудности, просто необходимы.

После драк в GTA V на лицах персонажей появляются ссадины и кровоподтеки, которые заживают со временем

И таковых здесь великое множество. Хотите спуститься по склону в долину? Используйте собственный щит вместо доски для сноуборда! Данный прием работает на любой поверхности, однако лучше всего вы сможете разогнаться на снегу или в дождливую погоду, когда земля становится мокрой и скользкой.


В локациях с низкой температурой можно замораживать продукты, чтобы они дольше хранились. Для этого достаточно бросить нужный предмет на землю и немного подождать, пока он не обледенеет.


Путешествуя по пустыне, не забудьте вооружиться ледяным мечом: заговоренный клинок, излучающий морозную прохладу, поможет Линку легче переносить жару.


Для открытия прохода требуется пара электрических шаров, но вы нашли поблизости только один? Не беда! Установите его на нужное место, а затем выложите цепочку из любых металлических предметов, подведя электричество ко второму постаменту, и врата откроются!


Грозовая буря застала вас в пылу битвы? Заставьте стихию работать на вас! Просто киньте металлический предмет в противника и во врага ударит молния, которая нанесет ему серьезный урон, а то и вовсе убьет.


А вот еще один лайфхак: если на охоте использовать огненные стрелы, то в качестве добычи вы получите прожаренное, готовое к употреблению мясо, а заодно сэкономите время на приготовление пищи.


Существует и альтернативный способ быстрой готовки. Бросив мясо в горящую траву или на раскаленные камни вулкана, через несколько секунд вы получите в свое распоряжение аппетитное блюдо.


Подобных неочевидных, но вполне логичных механик в игре огромное количество. Именно они и делают исследование Хайрула по-настоящему интересным и захватывающим.

Прыгнуть выше головы


Аналогичный подход используется и в Metal Gear Solid V. За 30 лет существования франшизы Хидео Кодзима приучил игроков к тому, что в мире Metal Gear возможно все. Здесь могут уживаться драма и комедия на грани фола, фантастические гаджеты и реально существующие образцы оружия, глубоко проработанные персонажи и откровенно гротескные ребята вроде толстяка-сапера на роликовых коньках или эскимосского шамана с авиационным пулеметом, а любые странности и нестыковки объясняются емким: Nanomachines, son!. Поэтому, когда дело дошло до создания первой в серии игры с открытым миром, японский гейм-дизайнер оторвался по полной программе, предложив игрокам своеобразный парк развлечений в милитари-тематике.


Получив задание, вы сами вольны решать, каким именно образом достигнете цели. Вы можете отправиться на дело в одиночку или взять с собой напарника, пройти миссию в стиле стелс, отвлекая дозорных эротическими журналами и усыпляя из транквилизаторного пистолета, вооружиться какой-нибудь смертоносной игрушкой из весьма обширного арсенала или угнать танк и аннигилировать всех и вся на своем пути, а в трудную минуту запросить поддержку с воздуха или артиллерийский удар по заданной позиции. Огромное количество разнообразных геймплейных механик и возможность их комбинировать позволяют сделать прохождение любой, даже самой банальной миссии неповторимым.

Есть военная база и отвественная миссия. Способы проникновения на объект и выполнения поставленной задачи выбирает сам игрок

Ну а отдельным видом развлечения, воспетым в мемах, является воровство всего, что не прибито и не прикручено, включая солдат противника для последующей перевербовки, с помощью системы Фултона, представляющей собой высокотехнологичные воздушные шарики.

Другой эксперимент Хидео Кодзимы с открытым миром также оказался весьма интересным, хотя в этот раз японский гейм-дизайнер сделал все с точностью до наоборот: вместо добавления множества механик он сосредоточился на детальной проработке одной-единственной перемещения по постапокалиптическим пустошам. И если в большинстве openworld-проектов следование из точки A в точку B является наиболее скучной частью геймплея, то в Death Stranding, напротив, именно путешествия и процесс подготовки к ним оказываются самым увлекательным из всего, что только есть в игре.

Death Stranding самый амбициозный симулятор пешего туризма

Оно и немудрено: ведь, чтобы добраться до пункта назначения и доставить груз, вам придется тщательно подобрать экипировку (раскладные лестницы, тросы, запасные ботинки и т.д.), а также правильно распределить вес, чтобы протагонист меньше уставал и не спотыкался на каждом шагу.


Одна беда: в жертву core-геймплею были принесены все прочие аспекты. Хотя боевых секций в Death Stranding немного, они все же имеют место, и это, пожалуй, худшая часть игры, особенно если сравнивать с MGS: сражения и с рядовыми противниками, и с боссами получились удивительно скучными. Стелс чуть получше, но и он проигрывает тому, что мы уже видели в рамках главного детища Кодзимы, что заставляет задаться логичным вопросом: почему он не использовал собственные наработки из своих прошлых творений?

Впрочем, ответ лежит на поверхности. Death Stranding стала первой игрой Кодзимы, выпущенной после ухода из Konami. Фактически гейм-дизайнеру пришлось начинать с нуля (он даже не имел прав на разработанный его командой движок Fox Engine, использовавшийся при создании MGS V), а поскольку игра была весьма амбициозной, Хидео был вынужден заручиться поддержкой Sony. Для японского гиганта проект стал во многом имиджевым, поэтому Кодзима получил хорошее финансирование на условиях временной эксклюзивности и известную долю творческой свободы, но лишь долю, ведь, как известно, кто девушку ужинает, тот ее и танцует.

Грандиозные задумки Кодзимы редко укладываются в доступный бюджет

В частности, по данным известного инсайдера Dusk Golem, изначально Кодзима хотел сделать игру куда более мрачной (чуть ли не научно-фантастическим хоррором), однако Sony посчитала, что это отпугнет аудиторию от и без того нишевого проекта, и настояла на том, чтобы из финальной версии игры подобные элементы были полностью убраны. А примерно за 1,5 года до релиза проект был мягко перезапущен. Точные причины софт-релонча неизвестны, однако это в любом случае не могло не сказаться на ходе разработки. Судя по всему, Кодзима в данной ситуации принял единственно правильное решение: не распыляться, а сосредоточить усилия на проработке ключевых механик, что и объясняет недостатки боевой системы.

По крайней мере, во время боя можно сделать прикольное селфи

И тут мы подходим к фундаментальной проблеме практически всех игр в открытом мире, независимо от жанра и сеттинга: их разработка требует огромных временных, финансовых и трудозатрат, объем которых зачастую невозможно предсказать заранее. Именно поэтому многие такие проекты получаются либо весьма однобокими, либо сырыми и недоработанными, как это произошло с CyberPunk 2077.


Попав в ловушку собственных амбиций, в CD Project Red попросту не смогли совладать со своим детищем, и это несмотря на многократные переносы релиза. Результат закономерен: отличное повествование, проработанные персонажи и превосходный визуал здесь соседствуют с крайне невыразительным с точки зрения механик открытым миром и обилием багов. Версии же для консолей прошлого поколения получились и вовсе неиграбельными: все оказалось настолько плохо, что Sony официально сняла CyberPunk 2077 с продаж, предложив всем владельцам игры вернуть средства без каких-либо дополнительных условий.

Впрочем, даже когда речь заходит об удачных релизах, полностью избежать тех или иных проблем не удается. Давайте вспомним замечательную The Elder Scrolls IV: Oblivion, удостоенную в 2006 году звания Game of the Year и множества престижных наград, и сравним с уже упомянутой нами Gothic 2. А для анализа возьмем такой аспект, как гильдейские квесты.

The Elder Scrolls IV: Oblivion прекрасная, но неидеальная игра

Протагонисты обеих игр имеют возможность вступать в местные гильдии, однако подход разработчиков к этой части кардинально различается. В Готике главный герой может присоединиться на выбор к паладинам, магам огня или наемникам. Делает он это сугубо для достижения главной цели, и, поскольку каждая из фракций находится в напряженных отношениях с другими, сотрудничать сразу со всеми не выйдет: став паладином, вы сможете присоединиться к магам лишь при повторном прохождении. Закономерно, что выбор влияет на отношение к вам различных NPC, доступность квестов, прокачку навыков и, как следствие, на стиль прохождения.

Став паладином, вы сможете попробовать себя в другом амплуа лишь при следующем прохождении

Oblivion исповедует принципиально иную идеологию. Квестовые линейки гильдий здесь являются побочными, причем разработчики никак не ограничивают игрока: вы можете вступить в каждую из них, завершить все задания и даже возглавить соответствующую фракцию. С одной стороны, это позволяет увидеть максимум контента за одно прохождение, но в то же время приводит к весьма забавным казусам. Вот один из примеров.

Присоединившись к гильдии магов, вы делаете головокружительную карьеру, становясь в итоге ее главой. Далее вы решаете попытать счастья в гильдии воров и в конце концов получаете ответственное задание похитить посох архимага из его собственного кабинета. То есть ваш посох из ваших собственных покоев. В итоге вся миссия сводится к посещению личной резиденции и передаче невесть откуда взявшегося там посоха (к слову, довольно бесполезного по сравнению с уже полученной вами экипировкой) вашему наставнику.

Ситуация осложняется тем, что в Oblivion есть система репутации: чем больше подвигов совершил наш герой, тем более известным он становится. Доходит до того, что вас могут узнать на улице и подойти с какой-нибудь просьбой. Но члены гильдий, видимо, не подписаны на Вороной курьер (местная газета) и не в курсе последних событий. Одним словом, лудонарративный диссонанс во всей своей красе.

В гильдиях Сиродила никому не интересно ни ваше темное прошлое, ни светлое будущее

Кстати, этот термин был впервые использован в 2007 году Клинтом Хокингом креативным директором Ubisoft, получившим известность благодаря таким играм, как Splinter Cell: Chaos Theory и Far Cry 2. Как вы могли догадаться, больше Хокинг в Ubisoft не работает, что вполне закономерно: сегодняшнее руководство компании не заботят такие мелочи, как гармоничное сочетание повествования и геймплея, а конвейерные проекты издателя являются отличным примером того, как не надо делать игры с открытым миром. И раз уж речь зашла о серии Far Cry, нельзя не вспомнить вот это замечательное видео.

Как мы видим, в своих проектах Ubisoft всецело сосредоточена на оптимизации расходов на разработку. Практически все свои сериалы компания стремится привести к общему знаменателю, эксплуатируя одни и те же подходы и успешно избавляясь от ненужных (читать ресурсозатратных) механик. На выходе мы с вами получаем шедевры вроде Far Cry New Dawn и Ghost Recon Breakpoint абсолютно безликие, крайне посредственные и скучные лутер-шутеры, в которых радости не приносит даже сам процесс добычи новой экипировки, хотя именно это является основой подобных игр.

Не миновала сия печальная участь и Assassin's Creed. Если на релизе Origins еще теплилась надежда на то, что Ubisoft решила возродить и обновить серию, то уже с выходом Odyssey все иллюзии окончательно развеялись и стало понятно, что издатель стремится сделать нечто вроде офлайн-MMORPG, разумеется, не забыв о фирменной оптимизации.

Сегодня сага об ассасинах больше всего напоминает Perfect World в дорогой обертке. В китайской MMO вам могли на протяжении нескольких минут рассказывать о духовном развитии и философии, а затем послать уничтожать мутировавших росянок. То же самое можно наблюдать в Odyssey или Valgalla: разница лишь в том, что здешние NPC общаются с вами голосом, а не текстом, и имеют неплохую лицевую анимацию. В остальном мы видим все то же самое: что бы ни поведал вам квестодатель, все сводится к однообразным действиям вроде зачистки очередного лагеря, без какой-либо вариативности.

Хотя ничего удивительного здесь нет: если такие произведения искусства, как Red Dead Redemption 2, разрабатываются по 8 лет, то номерные части Assassin's Creed выходят с интервалом 12 года, и, чтобы такой конвейер работал, приходится жертвовать очень многим. И так будет продолжаться ровно до тех пор, пока люди из года в год покупают эту жвачку для мозга, а вместе с ней и бустеры на прокачку во внутриигровом магазине, чтобы (вот ведь парадокс) как можно меньше соприкасаться с чрезвычайно нудным игровым процессом.

К счастью, еще остались компании вроде той же Rockstar, которые, будучи заложниками собственной репутации, продолжают выпускать добротные игры с открытым миром, так что без поделок Ubisoft вполне можно обойтись. Да и инди-сегмент периодически радует масштабными проектами наподобие Subnautica, изобилующими интересными механиками и предлагающими невероятный простор для творчества.

В Subnautica к услугам игрока огромный подводный мир, полный тайн и загадок

Это еще один яркий пример правильной реализации openworld. Хотя здесь нет сотен знаков вопросительных знаков на карте, виртуальное пространство игры действительно интересно изучать: благодаря разнообразию флоры и фауны, множеству биомов и загадок, которые они скрывают, необходимостью выживать и сбалансированной прогрессии, поощряющей ваше стремление к ислледованиям, вы чувствуете себя настоящим первопроходцем на неизведанной ранее планете. Увы, подобные эмоции сегодня могут подарить лишь единичные AAA-проекты.

Идеальный накопитель для игр с открытым миром


С играми в открытом мире связана и еще одна серьезная проблема: любой подобный проект, независимо от глубины геймплейной составляющей и внимания к деталям со стороны разработчиков, требует весьма серьезных вычислительных мощностей. Причем это касается вашей игровой системы в целом, ведь пресловутым бутылочным горлышком могут стать не только видеокарта или центральный процессор, но и сам накопитель, на котором установлена игра.

Размеры игровых миров достигли невиданных масштабов, а с улучшением качества графики для визуализации бескрайних просторов той же Red Dead Redemption 2 компьютеру приходится обрабатывать огромное количество данных, периодически подгружая все новые и новые ассеты, ведь ПК, способного одновременно держать в памяти все необходимое для отрисовки 75км2 детализированного виртуального пространства, попросту не существует.


Если вы установите эту игру на обычный винчестер, то даже при наличии топовых CPU и видеоускорителя неизбежно будете испытывать проблемы в виде фризов, вызванных слишком медленной загрузкой файлов, необходимых для построения новых локаций. И все это при том, что та же RDR2 игра, изначально выпущенная на консолях прошлого поколения, разработчикам которой пришлось учитывать, что их проект будет запускаться в том числе на маломощных платформах, оснащенных медленными винчестерами. В текущем же поколении игровых приставок используются высокоскоростные SSD, а это значит, что для комфортной игры в новые игры, которые начинают выходить уже сейчас, без производительного твердотельного накопителя никак не обойтись.

Не стоит забывать и об инди-сегменте, хотя в данном случае требовательность к производительности бывает обусловлена не кинематографичной графикой, а поддержкой модификаций, без которых иные проекты становятся на порядок скучнее. Ярким примером здесь можно назвать RimWorld, который вполне вписывается в каноничное определение игры с открытым миром. Разница в том, что мы управляем группой колонистов и в нашем распоряжении оказывается целая планета, которую мы вольны исследовать вдоль и поперек, как нам заблагорассудится.


Моддерское комьюнити RimWorld является одним из самых сильных: в мастерской Steam вы найдете огромное количество глобальных модификаций, добавляющих в игру целые отрасли (атомную энергетику, технологии утопических миров, полеты на космических кораблях, продвинутую медицину), новые биомы и фауну, наборы экипировки, разнообразные улучшения AI колонистов и боевой системы, кастомные сценарии и многое, многое другое. При желании вы можете собрать настоящую игру мечты, но расплатой за это станет многократное увеличение времени загрузки. Хотя оригинальный RimWorld отлично работает даже на калькуляторе, после установки 300+ модификаций (а оно того, поверьте, стоит) время запуска игры с жесткого диска возрастает до 30 минут: винчестер оказывается неспособным адекватно справиться с загрузкой множества XML-файлов, описывающих различные виртуальные сущности.

Несмотря на упрощенную графику, RimWorld с несколькими сотнями модов будет загружаться более получаса

Впрочем, решить проблему длительных загрузок довольно просто, благо в портфолио Western Digital вы без труда отыщете подходящий накопитель практически под любую платформу. Так, обладатели игровых компьютеров на базе материнских плат с чипсетом X570 и центральных процессоров Ryzen 3000/5000 уже сейчас могут приобрести самый быстрый из представленных на рынке NVMe SSD WD_BLACK SN850, способный без особого труда справиться с любой AAA-игрой в открытом мире.

Специально же для владельцев систем с поддержкой PCI-Express 3.0 мы разработали плату расширения WD_BLACK AN1500, которая, лишь немного уступая по производительности накопителям нового поколения, позволяет наслаждаться непревзойденной скоростью в самых навороченных проектах без дорогостоящего апгрейда. Впрочем, не будем забегать вперед и остановимся на каждом из перечисленных продуктов более подробно.

Линейка NVMe SSD WD_BLACK SN850 включает в себя три модели емкостью 500 ГБ, 1 и 2 ТБ. Накопители выполнены в форм-факторе M.2 2280 и доступны в двух вариантах:

  • версии без радиатора, которые имеют толщину 2,38 мм и прекрасно подходят для установки на материнские платы со встроенной системой активного охлаждения слота M.2 или в игровой ноутбук;
  • версии с 9-миллиметровым радиатором (будут доступны для покупки весной 2021 года), отводящим тепло от контроллера SSD, что помогает избежать троттлинга и обеспечивает стабильный уровень производительности при пиковых нагрузках.


WD_BLACK SN850 с радиатором также получат встроенную светодиодную подсветку, которую можно будет настраивать через сервисное приложение WD_BLACK Dashboard, поставляемое с каждым устройством. Помимо этого, для управления светодиодным модулем можно будет использовать фирменные утилиты от производителей материнских плат, среди которых Asus Aura Sync, Gigabyte RGB Fusion и MSI Mystic Light Sync.

Кстати, управление RGB-подсветкой отнюдь не единственное, на что способно это приложение. WD_BLACK Dashboard предлагает полный набор инструментов для обслуживания твердотельного накопителя: с ее помощью вы можете оценить состояние SSD, запустить сборку мусора или загрузить актуальную версию прошивки. Кроме того, данная утилита позволяет перевести накопитель в режим максимальной производительности (Gaming mode) за счет полного отключения энергосберегающих функций, что поможет забыть о фризах, вызванных подгрузкой текстур и ассетов, даже в самых тяжелых играх.


По сравнению с предыдущим поколением игровых SSD от Western Digital, в SN850 заметно изменилась топология печатной платы. Новый 8-канальный контроллер WD Black G2 (SanDisk 20-82-1003) был перенесен поближе к разводке контактов, в средней части твердотельного накопителя распаян микрочип DDR4-буфера емкостью 1 ГБ, тогда как кристаллы флеш-памяти переместились в правую часть SSD.


Подобно предшественнику, WD_BLACK SN850 имеет одностороннее исполнение: на обратной стороне текстолита вы не найдете SMD-компонентов.


Такая компоновка обеспечивает наиболее оптимальное охлаждение накопителя, также позволяя без проблем устанавливать модели без радиатора в низкопрофильные слоты.

WD_BLACK SN850 были созданы на базе высокоскоростной 96-слойной флеш-памяти 3D NAND BiCS четвертого поколения, отличающейся не только быстродействием, но и расширенным ресурсом перезаписи: таковой варьируется от 300 ТБ для накопителей емкостью 500 ГБ до 1200 ТБ у 2-терабайтных моделей. Таким образом, даже если вы будете ежемесячно перезаписывать 120 терабайт файлов (что практически нереально), флагман WD_BLACK SN850 исправно прослужит вам не менее 10 лет.

Что же касается производительности, то здесь SN850 демонстрирует поистине впечатляющие показатели: вплоть до 7000 МБ/с в операциях последовательного чтения и до 5300 МБ/с при последовательной записи. Это стало возможным отнюдь не только благодаря переходу на новую версию интерфейса PCI Express 4.0. Весьма важную роль сыграл оригинальный контроллер WD Black G2 собственной разработки Western Digital. Среди всего многообразия инноваций, реализованных в WD_BLACK SN850, необходимо выделить следующие:

  • обновленная микроархитектура и улучшенная микропрограмма способствовали сокращению накладных расходов на передачу данных, что помогло достичь впечатляющего показателя в 1 миллион операций ввода/вывода в секунду (для моделей на 1 и 2 ТБ);
  • технология динамического SLC-кэширования обеспечивает стабильную производительность даже при чтении/записи объемных файлов или работе в многопоточном режиме;
  • внедрение поддержки IPR (Independent Plane Reads) помогло дополнительно оптимизировать быстродействие SSD при обработке малых очередей запросов и минимизировать время задержки их выполнения.

Возможности нового WD_BLACK SN850 можно наглядно оценить по результатам тестирования в PCMark 10. В отличие от подавляющего большинства собратьев, данный бенчмарк включает в себя обширный арсенал тестов, эмулирующих работу архиваторов, видео- и аудиокодеков, популярных приложений (Microsoft Excel, Adobe Illustrator, Adobe Photoshop) и компьютерных игр (Battlefield V, Call of Duty Black Ops 4, Overwatch).


Для тестирования твердотельных накопителей в PCMark 10 предусмотрено несколько сценариев, однако наиболее показательными из них являются Full System Drive Benchmark, позволяющий оценить, как SSD справится с экстремальными нагрузками, и более легковесный Quick System Drive Test, весьма точно имитирующий реальные задачи, с которыми пользователи ПК сталкиваются ежедневно.

В режиме Full System Drive Benchmark выполняются 23 трассировки, по 3 прохода каждая, во время которых на диск записывается около 204 ГБ данных. И здесь SN850 становится абсолютным лидером, оказываясь быстрее конкурентов на 15%.


Аналогичную картину мы можем наблюдать и в ходе тестирования пропускной способности твердотельного накопителя.


В тесте на среднее время доступа к данным накопитель SN850 также уверенно закрепился на первом месте, обойдя прежнего чемпиона, Samsung SSD 980 PRO, на 8микросекунд.


Quick System Drive Benchmark использует лишь 6 трассировок, каждая из которых также выполняется по 3 раза, и в данном сценарии на SSD записывается лишь 23 ГБ данных. При более щадящей нагрузке разрыв между лидерами немного сокращается, а Plextor M9P+ даже обгоняет Samsung 980 Pro, однако SN850 по-прежнему занимает первое место с перевесом в 13%.


В тесте на полосу пропускания ситуация идентична.


Среднее время доступа к данным также сократилось, однако в процентном соотношении мы видим вполне ожидаемый результат: WD_BLACK SN850 оказывается быстрее конкурентов на 14%.


Таким образом, на сегодняшний день именно WD_BLACK SN850 является самым быстрым в мире NVMe-накопителем с поддержкой интерфейса PCI-Express 4.0. Не случайно авторитетное издание TweakTown назвало SN850 лучшим потребительским SSD среди доступных на рынке в настоящее время, присудив награду Выбор редакции.


Но как же быть тем, чьи компьютеры не поддерживают новейший стандарт? Если вы не планируете в ближайшее время обновлять свою систему на базе процессора Intel или Ryzen 2000-й серии, а возможностей обычных NVMe-накопителей, поддерживающих интерфейс PCI-Express 3.0, вам уже явно недостаточно, стоит обратить внимание на карту расширения WD_BLACK AN1500.


Устройство представляет собой аппаратный RAID 0, собранный из двух высокопроизводительных NVMe SSD. Дисковый массив работает под управлением контроллера enterprise-класса Marvell 88NR2241, отвечающего за распараллеливание потоков данных и балансировку нагрузки между накопителями. Каждый из пары SSD получил фирменный трехъядерный контроллер SanDisk 20-82-00705-A2 собственной разработки Western Digital. Подобно SN850, WD_BLACK AN1500 созданы на базе высокоскоростной 96-слойной флеш-памяти 3D NAND BiCS4. Благодаря этому ресурс перезаписи данного устройства варьируется от 600 до 2400 терабайт в зависимости от объема.


Далее простая математика. RAID с чередованием позволяет одновременно задействовать 8 линий PCI-E 3.0 вместо 4, как было бы в случае с обычным NVMe M.2 SSD, и за счет этого добиться удвоения производительности. Как следствие, WD_BLACK AN1500 демонстрирует честные 6500 МБ/с в операциях последовательного чтения и 4100 МБ/с при последовательной записи, а в отдельных сценариях его скорость оказывается еще выше.


Например, при работе с тестовыми блоками размером 1 МБ производительность WD_BLACK AN1500 вплотную приближается к показателям Samsung EVO 980 Pro, использующего интерфейс PCI-Express 4.0, причем скорость последовательного чтения возрастает до 6600 МБ/с, а последовательной записи до 5200 МБ/с. Впрочем, и в операциях со 128-килобайтными блоками AN1500 чувствует себя вполне комфортно, уверенно опережая даже 2-терабайтный Sabrent Rocket.


Среди отличительных особенностей WD_BLACK AN1500 необходимо выделить и продуманную систему охлаждения: массивный радиатор толщиной 13 мм эффективно отводит тепло от контроллеров и флеш-памяти, а расположенный с обратной стороны бэкплейт обеспечивает охлаждение и защиту SMD-компонентов от механических повреждений, также придавая карте расширения необходимую жесткость.


Эффективность такого подхода налицо: хотя при пиковой нагрузке в Gaming mode WD_BLACK AN1500 потребляет до 16 ватт электроэнергии, его температура без дополнительной вентиляции не превышает 55C (при 24C окружающей среды) на радиаторе и 67C на основном контроллере, что гарантирует стабильный уровень производительности.

При проектировании радиатора мы не забыли и о чисто эстетической стороне вопроса: WD_BLACK AN1500 может похвастаться эффектной, полностью настраиваемой RGB-подсветкой.


С помощью фирменной утилиты WD_BLACK Dashboard владелец накопителя может выбрать один из 13 доступных пресетов. Как и SN850, устройства WD_BLACK AN1500 совместимы со многими популярными утилитами для управления светодиодной подсветкой, включая Asus Aura Sync, Gigabyte RGB Fusion и MSI Mystic Light Sync.


Таким образом, установив WD_BLACK AN1500 в свой компьютер, вы уже сейчас сможете опробовать в деле всю мощь нового поколения твердотельных накопителей, и это без дорогостоящего апгрейда. А поскольку для подключения карты расширения достаточно одного слота PCI-Express 3.0 8, SSD будет прекрасно работать даже в сборках средней ценовой категории.
Подробнее..

Технологии противоударной защиты жестких дисков

15.02.2021 22:09:28 | Автор: admin


Поскольку жесткий диск является не просто электронным, а электромеханическим устройством, его главными врагами были и остаются сильная вибрация и удары. Но если вибрационное воздействие приводит к снижению производительности винчестера, что объясняется отклонением блока головок от заданной траектории и повторной инициализацией процедуры позиционирования, то даже достаточно сильный толчок (не говоря уже о падении) может спровоцировать полный выход накопителя из строя. Почему HDD такие нежные и на какие меры идут производители винчестеров для повышения их надежности? Попробуем разобраться.

Удары судьбы: почему жесткие диски такие хрупкие?


Прежде всего давайте вспомним, как устроен жесткий диск. Внутри HDD находится набор тонких металлических пластин (в просторечии блинов), покрытых слоем ферромагнетика вещества, способного сохранять намагниченность в течение длительного времени даже при отсутствии воздействия внешнего магнитного поля. Эти пластины вращаются с огромной скоростью от 5400 оборотов в минуту и более, перемещаясь относительно блока головок, состоящего из нескольких штанг, приводимых в движение так называемыми звуковыми катушками.

На острие каждой штанги расположены пишущие головки и считывающие сенсоры. Пишущие головки призваны менять направление векторов намагниченности дискретных участков ферромагнитного покрытия (магнитных доменов) в соответствии с командами, поступающими от контроллера HDD. При этом каждый домен кодирует один бит информации, принимая логическое значение 0 или 1 в зависимости от направления вектора намагниченности.



В основе работы считывающих модулей современных жестких дисков лежит гигантский магниторезистивный эффект: электрическое сопротивление сенсора меняется под действием магнитного поля доменов ферромагнитного слоя, что и фиксируется контроллером HDD, который, в свою очередь, интерпретирует увеличение или уменьшение сопротивления относительно заданного уровня как логический ноль или единицу.

Чтобы добиться высокой плотности записи, магнитные головки пришлось сделать чрезвычайно маленькими, ведь именно от их габаритов зависит ширина треков на магнитной пластине. Размер пишущего модуля в современных винчестерах не превышает 120 нанометров, а считывающего 70 нанометров.

Сопоставление размеров пищущей и считывающей головок жесткого диска и ребра 10-центовой монеты

Именно благодаря такой миниатюризации плотность записи данных удалось довести до впечатляющего показателя 1 Тбит/дюйм2, и это с помощью традиционного метода CMR. Однако у такого подхода существует и побочный эффект. Поскольку размеры магнитных головок существенно сократились, снизилась и сила создаваемого ими магнитного поля, что вынудило инженеров значительно уменьшить расстояние между головками и поверхностью магнитных пластин.

Когда HDD функционирует, магнитные головки парят над поверхностью блинов на высоте всего около 1215 нанометров, причем достигается это за счет экранного эффекта: под каждой штангой, словно под крылом взлетающего самолета, образуется воздушная подушка, обеспечивающая необходимую подъемную силу. Нетрудно догадаться, что сами по себе магнитные пластины должны быть идеально гладкими и не иметь каких-либо неровностей. Это и правда так: перепад высот на поверхности каждой пластины не превышает 0,6 нанометра. Немыслимая точность!



Однако подобная конструкция имеет один весьма существенный недостаток: жесткий диск оказывается чрезвычайно уязвимым к ударным воздействиям во время работы. Ударостойкость современных накопителей потребительского и корпоративного класса достигает 300350G за 2 мс в покое и лишь 3050G за 2 мс в режиме чтения/записи.

Столь высокий разброс значений объясняется тем, что пока диск отключен от питания, блок головок остается припаркованным. Рассмотрим фотографию ниже: каждый кронштейн получает дополнительную точку фиксации, опираясь на пластиковые пилоны в парковочной зоне, причем сами головки не касаются пластика, а нависают над ним. В таком состоянии им не страшны ни сильная вибрации, ни даже удары.



В рабочем же состоянии актуатор HDD лишен дополнительной опоры, поэтому удар достаточной силы, вектор которого будет направлен перпендикулярно к плоскости диска (или под незначительным углом к перпендикулярной оси), неизбежно приведет к соприкосновению головок и магнитных пластин. Схематично этот процесс можно изобразить так.



Выше приведен самый удачный сценарий развития событий: из-за миниатюрных размеров головок и огромной скорости вращения магнитных пластин пишущий и считывающий модули с большой долей вероятности попросту оторвутся от кронштейна и жесткий диск моментально придет в негодность. Если же вам все-таки повезло и дело ограничилось лишь появлением царапин на ферромагнитном слое, не стоит думать, что в этом случае удастся отделаться некоторым количеством битых кластеров. Увы, жесткий диск начнет медленно, но верно умирать, а количество ошибок чтения/записи множиться с каждым днем. И вот почему.

Проблема 1: частицы ферромагнетика остаются на поверхности магнитных пластин


Хотя блины винчестера и вращаются с огромной скоростью, осколки ферромагнитного слоя никуда не денутся: они слишком маленькие и легкие, так что величины магнитного поля доменов будет вполне достаточно, для того чтобы противостоять центробежной силе и удерживать мельчайшие частицы. Само по себе их присутствие на поверхности магнитных пластин чревато ошибками чтения/записи даже в том случае, если они не будут непосредственно соприкасаться с самими головками.

Проблема 2: частицы ферромагнетика играют роль абразива


Поскольку расстояние между поверхностью магнитных пластин и головок чрезвычайно мало, микроскопические частицы ферромагнетика будут неизбежно их задевать, постепенно стачивая подобно наждачной бумаге. Да и сама поверхность блинов станет все больше и больше царапаться, что будет выражаться в постепенном увеличении количества битых кластеров.

Проблема 3: считывающий сенсор будет нагреваться под действием силы трения


Когда частицы ферромагнетика, движущиеся на огромной скорости, задевают сенсор, последний, в силу микроскопических размеров, мгновенно разогревается, из-за чего сопротивление в датчике резко повышается и данные со считывающей головки интерпретируются неверно. Это приводит к многочисленным ошибкам чтения даже на том этапе, когда считывающая головка еще исправна.

Повреждение блока головок отнюдь не единственное (хотя и наиболее тяжелое) последствие ударного воздействия на жесткий диск. В зоне риска также находятся подшипники магнитных пластин. Сильный удар шарика по обойме подшипника может привести к ее деформации, повреждению самого шарика или дорожки качения (иногда ко всему перечисленному сразу). Хотя HDD продолжит работать, поврежденный подшипник будет сильно вибрировать, что негативно скажется на производительности винчестера и повлечет за собой преждевременный износ мотора шпинделя.



И наконец, самое меньшее из зол проскальзывание магнитных пластин в пакете, когда один или несколько блинов, получив дополнительное ускорение, проворачивается относительно своих собратьев. При этом именно данная проблема встречается значительно реже всех, перечисленных выше, и оказывает минимальное влияние на работоспособность HDD.

Ключевые подходы к защите HDD от ударных воздействий


Хотя история жестких дисков насчитывает более 64 лет, производители винчестеров всерьез озаботились их противоударной защитой лишь в 1997 году. Такое отношение выглядит легкомысленным, но на самом деле объяснить промедление достаточно просто.

В конце 90-х мода на компактные внешние HDD лишь начинала набирать обороты. Отправной точкой можно назвать появление IBM Microdrive, выпущенных в 1999 году, о которых мы уже писали ранее в материале, посвященном внешним накопителям данных. А между тем именно портативные накопители наиболее уязвимы.

Вскрытый IBM Microdrive в сравнении с монетой достоинством 50 евроцентов

Представить ситуацию, когда внутренний жесткий диск, будучи уже установленным в ПК, может выйти из строя от удара, довольно сложно (разве что вы специально станете бить кувалдой по его корпусу). Массивный каркас Full Tower вполне способен обеспечить адекватную защиту установленных внутри винчестеров, эффективно поглощая кинетическую энергию. Если вы, к примеру, случайно заденете компьютер ногой, воздействие на жесткий диск будет гораздо слабее 30G за 2 мс (и даже меньше 10G за 2 мс именно столько могли выдерживать HDD, выпущенные на рубеже XXXXI веков), так что здесь предпринимать какие-то особые меры не имеет практического смысла.

Корпуса лэптопов тех времен тоже были не чета современным сверхтонким моделям: ноутбуки 90-х годов обеспечивали вполне достойную защиту установленных в них винчестеров, пусть и не такую надежную, как стационарные компьютеры.

Старые ноутбуки были куда прочнее. На фото Siemens Nixdorf PCD-5ND

Напротив, в портативных накопителях данных HDD отделяет от внешнего мира лишь тонкий пластиковый корпус, неспособный поглотить всю энергию удара. Каким же образом в этом случае винчестер можно защитить от повреждения?

Первопроходцем в сфере разработки систем противоударной защиты стала сама IBM. Именно инженеры американской корпорации создали технологию с незамысловатым названием Ramp Load/Unload, которая сегодня используется повсеместно в каждом жестком диске независимо от ценовой категории. Речь идет об упомянутой выше парковочной зоне и системе пластиковых пилонов, фиксирующих штанги блока головок, пока HDD отключен от питания. Для своего времени такое решение стало по-настоящему инновационным, позволив увеличить ударостойкость винчестеров в покое в несколько раз.

В старых моделях жестких дисков система парковки блока головок в принципе отсутствовала

Среди таких же простых, но достаточно эффективных мер необходимо упомянуть и технологию Samsung ShockSkinBumper (SSB). Как нетрудно догадаться по названию, суть инновации заключается в наличии встроенного в корпус накопителя бампера, представленного тонким силиконовым ободком, облегающим металлическую крышку гермозоны винчестера.

Если присмотреться, то можно заметить кромку Samsung ShockSkinBumper

Согласно данным Samsung, бампер оказался чрезвычайно эффективен и помог снизить втрое перегрузки, воздействующие на внутренние узлы винчестера при ударе или падении, значительно повысив его ударостойкость в состоянии покоя.

Что касается проблемы повреждения подшипников, то изначально производители винчестеров экспериментировали с формой обоймы и размерами тел качения, стремясь найти оптимальный баланс между величиной площади соприкосновения шариков с дорожками (чем она больше, тем лучше подшипник переносит ударные воздействия) и сопротивлением, возникающим при трении их поверхностей друг о друга. В дальнейшем на смену обычным подшипникам качения пришли более совершенные гидродинамические подшипники скольжения, в которых вращение вала шпинделя происходит в слое жидкости, удерживающейся внутри втулки за счет создающейся при работе двигателя разницы давлений. Такой подход помог не только повысить ударостойкость жестких дисков, но и снизить уровень вибрации и шума, создаваемых ими во время работы, а заодно повысить их отказоустойчивость.

Нет шариков нет проблем

Однако главное, чего стремились добиться все без исключения производители винчестеров, максимально защитить от ударных воздействий блок головок. Пионером на этом поприще стала компания Quantum, представившая еще в 1998 году собственную систему защиты жестких дисков Quantum Shock Protection System (SPS), первая практическая реализация которой увидела свет в составе винчестеров Fireball EL.

Жесткий диск с улучшенной ударостойкостью Fireball EL от компании Quantum на 2,5 гигабайта

В общей сложности пакет улучшений SPS включал в себя 14 технологических нововведений, направленных на поглощение и компенсацию ударного воздействия на актуатор. Уже в 1999 году свет увидела доработанная система SPS II, а первым диском с поддержкой обновленной противоударной технологии закономерно стал Fireball Ict.

Параллельно с Quantum изыскания в области защиты винчестеров от ударов и падений вел и их прямой конкурент Maxtor Corporation. Результатом усилий инженеров компании стала технология ShockBlock, нашедшая применение в накопителях алмазной линейки DiamondMax.

Жесткий диск Maxtor DiamondMax Plus 21

Усовершенствованием блока головок активно занимался и Samsung: запатентованная технология корейской корпорации, получившая название Impact Guard, включала в себя ряд усовершенствований конструкции несущих кронштейнов, подвески и системы стабилизации. Не отставала и Western Digital: набор улучшений Shock Guard, специально разработанный для жестких дисков марки Caviar, помог довести ударостойкость жестких дисков, выпускаемых компанией, до значений, сопоставимых с показателями современных HDD.

Досконально описывать каждую из перечисленных технологий не имеет смысла: конструктивные решения, призванные повысить ударостойкость жестких дисков, так или иначе повторяли друг друга, хотя и имели различия в способах реализации. Перечислим основные приемы, которые брали на вооружение производители HDD, чтобы повысить их ударостойкость:

  • поглощение кинетической энергии конструкционными элементами корпуса;
  • уменьшение хлесткости кронштейнов за счет повышения их жесткости;
  • установка амортизирующей подвески головок, позволяющей минимизировать повреждения модулей чтения/записи и ферромагнитного слоя при контакте между ними.

Последний пункт требует дополнительных пояснений. В ходе испытаний было установлено, что степень разрушения ферромагнитного покрытия, равно как и вероятность отрыва магнитных головок, зависит не столько от силы удара, сколько от того, как именно модули чтения и записи соприкасаются с поверхностью блинов. Самые обширные повреждения закономерно наблюдаются в том случае, если головка задевает пластину краем или углом.

Усовершенствованный механизм подвески позволил добиться того, чтобы магнитные головки соприкасались с пластинами плашмя, всей своей поверхностью, как это показано на приведенной ниже схеме.



Поскольку их поверхности практически идеально гладкие, вероятность образования сколов (и тем более полного отрыва магнитных головок) заметно снижается, а при самом благоприятном стечении обстоятельств и ферромагнитное покрытие, и сами модули остаются невредимыми.

Неубиваемые накопители для спорта и активного отдыха


Хотя перечисленные меры помогли значительно повысить надежность жестких дисков, чуда так и не произошло. Как ни крути, но с физикой не поспоришь, и если тот же Maxtor в свое время смог довести ударостойкость винчестеров в состоянии покоя до впечатляющих 1000G за 2 мс, пусть и на тестовых образцах, то обеспечить сопоставимый уровень защиты блока головок во время работы HDD оказалось практически невозможно.

Однако с удешевлением флеш-памяти ситуация на рынке в корне изменилась, а потребность в противоударных внешних жестких дисках практически исчезла, ведь им на смену пришли твердотельные накопители. В силу технологических особенностей, SSD оказываются в значительно более выгодном положении: они не содержат подвижных компонентов, а значит, все, чего необходимо добиться, чтобы получить на выходе устройство, устойчивое к ударам, создать достаточно прочный корпус, способный обеспечить должный уровень защиты печатной платы, что гораздо проще по сравнению с разработкой динамических систем компенсации. Впрочем, лучше один раз увидеть, чем сто раз услышать. Просто посмотрите на эту фотографию.



На туристическом карабине, пристегнутом к рюкзаку, висит SanDisk Extreme Portable SSD компактный твердотельный накопитель, ориентированный на поклонников активного отдыха. Если подобным образом обращаться с обычным HDD, то он почти наверняка придет в полную негодность уже через пару марш-бросков. Однако SSD поломка не грозит: благодаря резиновопластиковому корпусу он способен выдерживать перегрузки вплоть до 1500G за 2 мс, что в 5 раз больше, чем ударостойкость жесткого диска в покое, и практически в 30 раз больше по сравнению с ударостойкостью HDD при чтении/записи данных. При этом показатель 1500G является константой и никак не изменяется, даже когда вы работаете с твердотельным накопителем.

Помимо того, что SanDisk Extreme Portable SSD способен выдерживать значительные перегрузки, устройство превосходно защищено от воздействия пыли и влаги по стандарту IP55.



Первая цифра индекса указывает на то, что SSD имеет пылезащищенное исполнение: хотя некоторое количество мелкодисперсных частиц и может проникнуть внутрь его корпуса, это никак не скажется на работоспособности устройства. Вторая цифра говорит о том, что корпус твердотельного накопителя способен противостоять даже сильным водяным струям, падающим с любого направления.

С водонепроницаемостью связана и еще одна интересная особенность данной серии накопителей. Обратите внимание: разъем USB Type-C, расположенный на нижнем торце, не имеет резиновой заглушки, которую обычно ожидаешь увидеть на подобном устройстве.



Недоработка? Отнюдь нет. Все дело в том, что порт никак не сообщается с внутренними полостями корпуса: он полностью обособлен и герметичен, так что попавшая в него вода никак не навредит электронным компонентам SSD, хотя перед использованием разъем и придется как следует просушить. Такой подход позволил сделать твердотельный накопитель еще надежнее и долговечнее, ведь любые заглушки имеют свойство разбалтываться со временем.

Что же касается производительности, то и здесь SanDisk Extreme Portable не подкачал, демонстрируя устойчивую скорость передачи данных 550 МБ/с. Если же вам этого недостаточно, то рекомендуем обратить внимание на Pro-версию устройства.



У накопителей старшей линейки немного изменился дизайн: боковая оранжевая вставка и измененная форма проушины сделали облик SSD более спортивным и выразительным. Но главное отличие Pro-версии от обычной кроется в поддержке высокоскоростного интерфейса USB 3.2 Gen 2, благодаря чему быстродействие накопителя возросло до впечатляющих 1050 МБ/с. С такой скоростью даже на передачу 100 ГБ данных уйдет не более 2 минут.



Хотите большего? В этом году свет увидели обновленные версии отказоустойчивых накопителей SanDisk Extreme Portable V2. Как и ранее, семейство компактных SSD разделено на две линейки: стандартную и Pro. С точки зрения защиты от ударов, пыли и воды ровным счетом ничего не изменилось, однако их производительность возросла ровно в два раза.

SanDisk Extreme Portable V2 обзавелись USB 3.2 Gen 2 и теперь могут похвастаться скоростью 1050 МБ/с в операциях чтения и до 1000 МБ/с при записи файлов. В свою очередь, SanDisk Extreme Portable Pro V2 придутся по вкусу обладателям устройств с поддержкой USB 3.2 Gen 2 x 2: впечатляющие 2000 МБ/с делают этот SSD самым быстрым среди защищенных моделей, доступных на рынке, и позволяют в считанные секунды передавать даже весьма объемные файлы, что наверняка понравится любителям фото- и видеосъемки, тревел-блогерам, журналистам и другим создателям контента.



В качестве же дополнительного бонуса необходимо упомянуть встроенную поддержку аппаратного шифрования AES с 256-битным ключом, которое на сегодняшний день является одним из наиболее надежных методов криптографической защиты данных. Таким образом, с новыми SanDisk Extreme Portable вы можете быть на 100% спокойны за сохранность ценной для вас информации.
Подробнее..

Технологии магнитной записи HDD просто о сложном

21.10.2020 20:04:14 | Автор: admin

Первый в мире жесткий диск, IBM RAMAC 305, увидевший свет в 1956 году, вмещал лишь 5 МБ данных, а весил при этом 970 кг и по габаритам был сопоставим с промышленным рефрижератором. Современные корпоративные флагманы способны похвастаться емкостью уже в 20 ТБ. Только представьте себе: 64 года назад, для того чтобы записать такое количество информации, потребовалось бы свыше 4 миллионов RAMAC 305, а размеры ЦОДа, необходимого для их размещения, превысили бы 9 квадратных километров, тогда как сегодня для этого будет достаточно маленькой коробочки весом около 700 грамм! Во многом добиться столь невероятного повышения плотности хранения удалось благодаря совершенствованию методов магнитной записи.
В это сложно поверить, однако принципиально конструкция жестких дисков не меняется вот уже почти 40 лет, начиная с 1983 года: именно тогда свет увидел первый 3,5-дюймовый винчестер RO351, разработанный шотландской компанией Rodime. Этот малыш получил две магнитные пластины по 10 МБ каждая, то есть был способен вместить вдвое больше данных, чем обновленный ST-412 на 5,25 дюйма, выпущенный Seagate в том же году для персональных компьютеров IBM 5160.


Rodime RO351 первый в мире 3,5-дюймовый винчестер

Несмотря на инновационность и компактные размеры, на момент выхода RO351 оказался практически никому не нужен, а все дальнейшие попытки Rodime закрепиться на рынке винчестеров потерпели фиаско, из-за чего в 1991 году компания была вынуждена прекратить свою деятельность, распродав практически все имеющиеся активы и сократив штат до минимума. Однако стать банкротом Rodime оказалось не суждено: в скором времени к ней начали обращаться крупнейшие производители винчестеров, желающие приобрести лицензию на использование запатентованного шотландцами форм-фактора. В настоящее время 3,5 дюйма является общепринятым стандартом производства как потребительских HDD, так и накопителей корпоративного класса.

С появлением нейросетей, Deep Learning и интернета вещей (IoT) объем создаваемых человечеством данных стал лавинообразно расти. По оценкам аналитического агентства IDC, к 2025 году количество информации, генерируемой как самими людьми, так и окружающими нас девайсами, достигнет 175 зеттабайт (1 Збайт = 1021 байт), и это при том, что в 2019-м таковое составляло 45 Збайт, в 2016-м 16 Збайт, а в далеком 2006-м общий объем данных, произведенных за всю обозримую историю, не превышал 0,16 (!) Збайт. Справиться с информационным взрывом помогают современные технологии, среди которых не последнее место занимают усовершенствованные методы записи данных.

LMR, PMR, CMR и TDMR: в чем разница?


Принцип работы жестких дисков достаточно прост. Тонкие металлические пластины, покрытые слоем ферромагнитного материала (кристаллического вещества, способного сохранять намагниченность даже при отсутствии воздействия на него внешнего магнитного поля при температуре ниже точки Кюри) движутся относительно блока пишущих головок на большой скорости (5400 оборотов в минуту или более). При подаче электрического тока на пишущую головку возникает переменное магнитное поле, которое изменяет направление вектора намагниченности доменов (дискретных областей вещества) ферромагнетика. Считывание данных происходит либо за счет явления электромагнитной индукции (перемещение доменов относительно сенсора вызывает в последнем возникновение переменного электрического тока), либо за счет гигантского магниторезистивного эффекта (под действием магнитного поля изменяется электрическое сопротивление датчика), как это реализовано в современных накопителях. Каждый домен кодирует один бит информации, принимая логическое значение 0 или 1 в зависимости от направления вектора намагниченности.

Долгое время жесткие диски использовали метод продольной магнитной записи (Longitudinal Magnetic Recording, LMR), при котором вектор намагниченности доменов лежал в плоскости магнитной пластины. Несмотря на относительную простоту реализации, данная технология имела существенный недостаток: для того чтобы побороть коэрцитивность (переход магнитных частиц в однодоменное состояние), между треками приходилось оставлять внушительную буферную зону (так называемое guard space защитное пространство). Вследствие этого максимальная плотность записи, которой удалось добиться на закате данной технологии, составляла всего 150 Гбит/дюйм2.


В 2010 году LMR была практически полностью вытеснена PMR (Perpendicular Magnetic Recording перпендикулярная магнитная запись). Главное отличие данной технологии от продольной магнитной записи состоит в том, что вектор магнитной направленности каждого домена располагается под углом 90 к поверхности магнитной пластины, что позволило существенно сократить промежуток между треками.

За счет этого плотность записи данных удалось заметно увеличить (до 1 Тбит/дюйм2 в современных устройствах), при этом не жертвуя скоростными характеристиками и надежностью винчестеров. В настоящее время перпендикулярная магнитная запись является доминирующей на рынке, в связи с чем ее также часто называют CMR (Conventional Magnetic Recording обычная магнитная запись). При этом надо понимать, что между PMR и CMR нет ровным счетом никакой разницы это всего лишь другой вариант названия.


Изучая технические характеристики современных жестких дисков, вы также можете наткнуться на загадочную аббревиатуру TDMR. В частности, данную технологию используют накопители корпоративного класса Western Digital Ultrastar 500-й серии. С точки зрения физики TDMR (что расшифровывается как Two Dimensional Magnetic Recording двумерная магнитная запись) ничем не отличается от привычной нам PMR: как и прежде, мы имеем дело с непересекающимися треками, домены в которых ориентированы перпендикулярно плоскости магнитных пластин. Разница между технологиями заключается в подходе к считыванию информации.

В блоке магнитных головок винчестеров, созданных по технологии TDMR, на каждую пишущую головку приходятся по два считывающих сенсора, осуществляющих одновременное чтение данных с каждого пройденного трека. Такая избыточность дает возможность контроллеру HDD эффективно фильтровать электромагнитные шумы, появление которых обусловлено межтрековой интерференцией (Intertrack Interference, ITI).


Решение проблемы с ITI обеспечивает два чрезвычайно важных преимущества:

  1. снижение коэффициента помех позволяет повысить плотность записи за счет уменьшения расстояния между треками, обеспечивая выигрыш по общей емкости вплоть до 10% по сравнению с обычной PMR;
  2. в сочетании с технологией RVS и трехпозиционным микроактуатором, TDMR позволяет эффективно противостоять ротационной вибрации, вызванной работой винчестеров, что помогает добиться стабильного уровня производительности даже в наиболее сложных условиях эксплуатации.

Что такое SMR и с чем его едят?


Размеры пишущей головки примерно в 1,7 раза больше по сравнению с размерами считывающего сенсора. Столь внушительная разница объясняется достаточно просто: если записывающий модуль сделать еще более миниатюрным, силы магнитного поля, которое он сможет генерировать, окажется недостаточно для намагничивания доменов ферромагнитного слоя, а значит, данные попросту не будут сохраняться. В случае со считывающим сенсором такой проблемы не возникает. Более того: его миниатюризация позволяет дополнительно снизить влияние упомянутой выше ITI на процесс считывания информации.

Данный факт лег в основу черепичной магнитной записи (Shingled Magnetic Recording, SMR). Давайте разбираться, как это работает. При использовании традиционного PMR пишущая головка смещается относительно каждого предыдущего трека на расстояние, равное ее ширине + ширина защитного пространства (guard space).


При использовании черепичного метода магнитной записи пишущая головка смещается вперед лишь на часть своей ширины, поэтому каждый предыдущий трек оказывается частично перезаписан последующим: магнитные дорожки накладываются друг на друга подобно кровельной черепице. Такой подход позволяет дополнительно повысить плотность записи, обеспечивая выигрыш по емкости до 10%, при этом не отражаясь на процессе чтения. В качестве примера можно привести Western Digital Ultrastar DC HC 650 первые в мире 3.5-дюймовые накопители объемом 20 ТБ с интерфейсом SATA/SAS, появление которых стало возможным именно благодаря новой технологии магнитной записи. Таким образом, переход на SMR-диски позволяет повысить плотность хранения данных в тех же стойках при минимальных затратах на модернизацию IT-инфраструктуры.


Несмотря на столь значительное преимущество, SMR имеет и очевидный недостаток. Поскольку магнитные дорожки накладываются друг на друга, при обновлении данных потребуется перезапись не только требуемого фрагмента, но и всех последующих треков в пределах магнитной пластины, объем которой может превышать 2 терабайта, что чревато серьезным падением производительности.

Решить данную проблему помогает объединение определенного количества треков в обособленные группы, называемые зонами. Хотя такой подход к организации хранения данных несколько снижает общую емкость HDD (поскольку между зонами необходимо сохранять достаточные промежутки, препятствующие перезаписи треков из соседних групп), это позволяет существенно ускорить процесс обновления данных, так как теперь в нем участвует лишь ограниченное количество дорожек.


Черепичная магнитная запись предполагает несколько вариантов реализации:

  • Drive Managed SMR (SMR, управляемая диском)

Основным ее преимуществом является отсутствие необходимости в модификации программного и/или аппаратного обеспечения хоста, поскольку управление процедурой записи данных берет на себя контроллер HDD. Такие диски могут быть подключены к любой системе, в которой присутствует необходимый интерфейс (SATA или SAS), после чего накопитель будет сразу готов к работе.

Недостаток этого подхода заключается в изменчивости уровня производительности, в связи с чем Drive Managed SMR оказывается неподходящей для корпоративных приложений, в которых постоянство быстродействия системы является критически важным параметром. Тем не менее такие диски хорошо показывают себя в сценариях, предоставляющих достаточное время для выполнения фоновой дефрагментации данных. Так, например, DMSMR-накопители WD Red, оптимизированные для использования в составе малых NAS на 8 отсеков, станут отличным выбором для системы архивирования или резервного копирования, предполагающей долговременное хранение бэкапов.


  • Host Managed SMR (SMR, управляемая хостом)

Host Managed SMR наиболее предпочтительный вариант реализации черепичной записи для использования в корпоративной среде. В данном случае за управление потоками данных и операциями чтения/записи отвечает сама хост-система, задействующая для этих целей расширения интерфейсов ATA (Zoned Device ATA Command Set, ZAC) и SCSI (Zoned Block Commands, ZBC), разработанные комитетами INCITS T10 и T13.

При использовании HMSMR весь доступный объем накопителя разделяется на зоны двух типов: Conventional Zones (обычные зоны), которые используются для хранения метаданных и произвольной записи (по сути, играют роль кэша), и Sequential Write Required Zones (зоны последовательной записи), занимающие большую часть общей емкости жесткого диска, в которых данные записываются строго последовательно. Неупорядоченные данные сохраняются в области кэширования, откуда затем могут быть перенесены в соответствующую зону последовательной записи. Благодаря этому все физические сектора записываются последовательно в радиальном направлении и перезаписываются только после циклического переноса, что позволяет добиться стабильной и предсказуемой производительности системы. При этом HMSMR-диски поддерживают команды произвольного чтения аналогично накопителям, использующим стандартный PMR.

Host Managed SMR реализована в жестких дисках enterprise-класса Western Digital Ultrastar HC DC 600-й серии.


Линейка включает в себя SATA- и SAS-накопители высокой емкости, ориентированные на использование в составе гипермасштабных центров обработки данных. Поддержка Host Managed SMR существенно расширяет сферу применения таких винчестеров: помимо систем резервного копирования, они прекрасно подойдут для облачных хранилищ, CDN или стриминговых платформ. Высокая емкость жестких дисков позволяет существенно повысить плотность хранения (в тех же стойках) при минимальных затратах на апгрейд, а низкое энергопотребление (не более 0,29 Ватта на каждый терабайт сохраненной информации) и тепловыделение (в среднем на 5 C ниже, чем у аналогов) дополнительно сократить операционные расходы на обслуживание ЦОДа.

Единственным недостатком HMSMR является сравнительная сложность имплементации. Все дело в том, что на сегодняшний день ни одна операционная система или приложение не умеют работать с подобными накопителями из коробки, в силу чего для адаптации IT-инфраструктуры требуются серьезные изменения стека программного обеспечения. В первую очередь это касается, конечно же, самой ОС, что в условиях современных ЦОД, использующих многоядерные и многосокетные сервера, является достаточно нетривиальной задачей. Узнать подробнее о вариантах реализации поддержки Host Managed SMR можно на специализированном ресурсе ZonedStorage.io, посвященном вопросам зонального хранения данных. Собранные здесь сведения помогут предварительно оценить степень готовности вашей IT-инфраструктуры для перевода на зональные системы хранения.

  • Host Aware SMR (SMR, поддерживаемая хостом)

Устройства с поддержкой Host Aware SMR сочетают в себе удобство и гибкость Drive Managed SMR и высокую скорость записи Host Managed SMR. Такие накопители обратно совместимы с устаревшими системами хранения и могут функционировать без непосредственного контроля со стороны хоста, однако в этом случае, как и при работе с DMSMR-дисками, их производительность становится непредсказуемой.

Подобно Host Managed SMR, Host Aware SMR использует два типа зон: Conventional Zones для произвольной записи и Sequential Write Preferred Zones (зоны, предпочтительные для последовательной записи). Последние, в отличие от упомянутых выше Sequential Write Required Zones, автоматически переводятся в разряд обычных в том случае, если в них начинает вестись неупорядоченная запись данных.

Реализация SMR с поддержкой хоста предусматривает внутренние механизмы восстановления после непоследовательной записи. Неупорядоченные данные записываются в области кэширования, откуда диск может переносить информацию в зону последовательной записи, после того как будут получены все необходимые блоки. Для управления неупорядоченной записью и фоновой дефрагментацией диск использует таблицу косвенного обращения. Однако, если корпоративным приложениям требуется предсказуемая и оптимизированная производительность, достичь этого по-прежнему можно лишь в случае, когда хост берет на себя полное управление всеми потоками данных и зонами записи.
Подробнее..

Великолепный Марио рождение легенды

09.10.2020 22:10:21 | Автор: admin

Ровно 35 лет назад, 13 сентября 1985 года, состоялся релиз игры, на долгие годы определившей облик индустрии и заложившей фундаментальные основы жанра платформер. Игры, которая принесла компании Nintendo баснословную прибыль и наглядно доказала, что спасение принцесс под силу не только рыцарям в сияющих доспехах, но и обычным водопроводчикам. В честь этой знаменательной даты мы подготовили для вас материал, повествующий о череде удивительных событий, подаривших миру одного из самых обаятельных персонажей за всю историю видеоигр.

Только бизнес и немного личного


30 апреля 1934 года в семье итальянских иммигрантов Луи и Рины Сегали, проживавших в Сиэтле (штат Вашингтон), родился долгожданный ребенок. В 1952 году Сегали-младший окончил среднюю школу, после чего в течение 5 лет работал в одной из местных строительных компаний, а в 1957 году принял решение основать собственный бизнес в сфере городского девелопмента и дорожного строительства. На старте будущая M.A. Segale Inc. состояла всего из двух сотрудников (самого Сегали и его жены Донны), однако благодаря упорной работе семейной пары предприятие постепенно трансформировалось из небольшой конторы, в активах которой значился единственный пикап, в одного из крупнейших региональных подрядчиков, а в 1998 году компания вошла в состав крупного ирландского концерна CRH plc, став частью его дочки Oldcastle Materials, базирующейся в Атланте. На тот момент совокупная стоимость M.A. Segale Inc. достигла 60 миллионов долларов США.

Ведение бизнеса в столь конкурентной нише требовало немалых денежных вливаний, поэтому Сегали параллельно осваивал смежные отрасли с целью получения дополнительных средств, которые в дальнейшем можно было бы инвестировать в развитие M.A. Segale Inc. Одним из таких направлений стала сдача в аренду складских помещений в пригороде Сиэтла. Занятие оказалось довольно прибыльным, хотя и доставляло бизнесмену немало хлопот: Сегали регулярно приходилось иметь дело с нерадивыми арендаторами, ни в какую не желавшими своевременно выполнять взятые на себя финансовые обязательства.

Одна из таких историй произошла в 1981 году. Небольшая японская компания, производившая аркадные автоматы, задумала покорить американский рынок и арендовала у Сегали под свою продукцию вместительный склад. Увы, ее дебютная игра потерпела полный коммерческий провал, что привело к неизбежной просрочке арендной платы. Сегали тогда лично встретился с главой американского филиала и строго отчитал его прямо перед подчиненными, однако в конечном счете сторонам удалось прийти к взаимовыгодному соглашению: компания получила необходимую отсрочку, благодаря чему ей удалось поправить свое финансовое положение и сполна расплатиться со всеми долгами.

Вряд ли хоть кто-то мог предположить, что благосклонность предпринимателя сыграет решающую роль в становлении индустрии видеоигр и приведет к появлению самого популярного в мире персонажа платформеров. Ведь нерадивым арендатором был не кто иной, как Минору Аракава, президент Nintendo of America, а устроившим ему разнос бизнесменом Марио Сегали, в честь которого впоследствии и получил свое имя всемирно известный водопроводчик.


Марио Сегали и его виртуальный протагонист мало похожи друг на друга

Игра на выживание: от Donkey Kong до Super Mario Bros.


Само по себе появление в меру упитанного усатого коротышки в самом расцвете сил является следствием целой череды компромиссов и совпадений. Дебют Nintendo на американском рынке игровых автоматов действительно обернулся грандиозным провалом. Пользующийся огромной популярностью в Японии аркадный шутер Radar Scope (вариация на тему Space Invaders), на который компания делала основную ставку, с треском провалился. Из 3 тысяч привезенных в США игровых автоматов (всю партию пришлось заказать заранее у Ikegami Tsushinki, так как сама Nintendo не имела достаточных производственных мощностей) удалось реализовать лишь около тысячи, а остальные продолжили пылиться на том самом злополучном складе.


В такой ситуации наиболее логичным (и безопасным) для Nintendo стало бы признание поражения и сосредоточение на внутреннем рынке, однако Минору Аракава смог убедить своего отчима Хироси Ямаути, возглавлявшего компанию в те времена, пойти на рискованный шаг и вложиться в создание новой игры. Поскольку в компании катастрофически не хватало профессиональных гейм-дизайнеров, на должность руководителя проекта утвердили тогда еще совсем зеленого Сигэру Миямото, на счету которого было участие в одном-единственном проекте (и то лишь на вторых ролях) том самом Radar Scope, который столь прохладно встретили американцы.

Однако это решение оказалось абсолютно верным: именно Сигэру смог создать подлинный шедевр, с которого и началось триумфальное восхождение Nintendo на олимп игровой индустрии.


Счастливая семья: Сигэру Миямото в окружении своих детей Марио и Луиджи

Неопытность Миямото в гейм-дизайне в конечном счете и определила концепцию будущего проекта. В то время при разработке игр было модным заимствовать отдельные эпизоды из боевиков, будь то погони, перестрелки или сражения с пришельцами. Однако Сигэру хотел создать более целостный продукт, способный рассказать пусть короткую, но самодостаточную историю в рамках видеоигры для аркадного автомата. Да, как бы странно это ни звучало, но будущий Donkey Kong был во многом именно про сюжет, благодаря чему и смог завоевать сердца игроков.

Хотя сперва ни о какой гигантской горилле речи не шло, а в качестве главных героев игры предполагалось использовать персонажей комикса и одноименного мультфильма о Попае. По изначальной задумке в роли damsel in distress (кстати, этот троп был задействован в видеоигре впервые) выступала возлюбленная моряка Олив Ойл, а главным антагонистом должен был стать громила Блуто. Однако King Features Syndicate, которой принадлежали права на персонажей, отказала Nintendo, посчитав затею не слишком удачной. И пожалела об этом спустя всего год: на фоне успеха Donkey Kong компания все же дала проекту зеленый свет, и в 1982 году вышла игра Popeye, имевшая схожую концепцию, однако обрести мировую известность ей, увы, не было суждено.


После отказа King Features Syndicate Миямото нашел вдохновение в кинокартине 1933 года Кинг-Конг. По сути, сюжет игры представлял собой переосмысление заключительной сцены фильма: обезумевший примат гигантских размеров карабкается по строительным лесам, сжимая в лапе красавицу Паулину (именно Паулину, а не принцессу Пич, как многие считают), а игрок берет на себя роль храброго плотника, который должен, минуя все препятствия, спасти свою возлюбленную.


Рекламный плакат к оригинальной игре Donkey Kong

Концепция оказалась гениальной в своей простоте: вся фабула умещалась на одном экране и не требовала каких-то особых выразительных средств или пояснений. Игрок мог сразу понять что почем: вот главный враг, вот красавица, которую нужно спасти, а вот и наш протагонист, на плечи которого возложена эта нелегкая задача. Сюжет игры был предельно прост, однако отличался целостностью и завершенностью.


Концепт-арт Donkey Kong, нарисованный Сигэру Миямото

Изначально главный герой значился во всех диздоках не иначе как Jumpman (Прыгун), и лишь благодаря просроченной аренде обрел простое, но запоминающееся имя. Что же касается образа персонажа, то он во многом стал таким из-за технических ограничений игровых автоматов. Спецовка и кепка появились благодаря тому, что существенно упростили работу художников и аниматоров, избавив от необходимости прорисовывать мелкие детали одежды и прическу, яркие цвета помогли выделить протагониста на фоне декораций, а перчатки Микки Мауса четко обозначить кисти рук при совершении различных действий.


Широко раскрытые глаза, роскошные усы и нос картошкой делали Марио узнаваемым, но, чтобы все это можно было разглядеть на миниатюрном спрайте, человечка пришлось наделить анатомией Карлсона. Ну а профессию он сменил и вовсе благодаря бывшему однокурснику Сигэру Миямото: как-то раз в личном разговоре приятель гейм-дизайнера отметил, что костюм Марио решительно не подходит плотнику, а вот для водопроводчика будет в самый раз. Вот так, благодаря череде случайностей и несовершенству техники, на свет появился самый популярный персонаж за всю историю видеоигр, ставший впоследствии талисманом Nintendo.


На момент завершения разработки еще никто не подозревал, насколько успешной окажется новая игра. Поскольку судьба американского филиала Nintendo висела на волоске, производство аркадных автоматов было развернуто все на том же складе. Трем сотрудникам компании (дополнительный персонал был непозволительной роскошью) поручили установить новые программные платы в невостребованные 2 тысячи игровых автоматов Radar Scope и заменить наклейки на лицевых панелях. Впрочем, совсем скоро Nintendo столкнулась с другой проблемой: спрос на новую игру оказался настолько велик, что компания едва справлялась с его удовлетворением.


Аркадные автоматы Radar Scope, Donkey Kong и его сиквелов: найдите 10 отличий

На фоне успеха оригинала сиквел не заставил себя долго ждать: в 1982 году свет увидела игра Donkey Kong Jr. (Донки-Конг младший), в которой Марио выступил уже в роли главного антагониста (в первый и последний раз). По сюжету игры наш тогда еще плотник построил для гигантской гориллы прочную клетку, а игрок управлял племянником человекообразного хулигана, который должен был вызволить нерадивого родственника из неволи.


Следующее пришествие Марио на экраны игровых автоматов состоялось уже в 1983 году и расставило все точки над i. Обаятельный усач официально сменил профессию, став водопроводчиком, да и действие игры перенеслось со строительных лесов под землю. Теперь Марио предстояло очистить городскую канализацию от невесть откуда взявшихся агрессивных черепах, крабов и гигантских мух, причем достаточно нетривиальным способом: когда противник появлялся на платформе, персонаж должен был ударить по ней снизу в прыжке и затем выбить врага за пределы экрана мощным пинком, пока тот беспомощно лежит на спине. Если не успеть этого сделать, противник переходил в следующую стадию, становясь более агрессивным и быстрым. А помогал в этом нелегком деле нашему героическому усачу брат-близнец Луиджи, носивший комбинезон зеленого цвета.


Следующее приключение братьев Марио (да-да, Марио, помимо прочего, еще и фамилия главных героев, что Сигэру Миямото официально подтвердил лишь в 2015 году, во время празднования 30-летия франшизы) не заставило себя долго ждать: в 1985 году компания выпустила полноценный платформер Super Mario Bros. для домашней игровой системы Nintendo Entertainment System (Famicom). Игра имела оглушительный успех и даже попала в Книгу рекордов Гиннесса, став самым продаваемым тайтлом в истории индустрии: совокупный тираж Super Mario Bros. превысил 40 миллионов копий.


Что касается сюжета, то здесь со времен Donkey Kong мало что поменялось: Миямото вновь использовал девицу в беде, с той лишь разницей, что теперь наш водопроводчик спасал не абы кого, а принцессу Грибного королевства Пич (от английского Peach персик), а в роли его противника выступал грозный Король Боузер лидер злобных черепах Купа. Зато по наполнению контентом Super Mario Bros. могла дать фору практически любой игре тех времен.

Инженерам Nintendo удалось совершить невозможное и выжать максимум из ограниченных ресурсов консоли, что позволило создать по-настоящему увлекательную и разнообразную игру, у которой на момент релиза попросту не было достойных аналогов. Super Mario Bros. включала в себя 32 уровня, по 4 в каждом из 8 уникальных миров, а ее боевая система предполагала сразу несколько способов устранения врагов: Марио мог запрыгнуть на противника сверху, ударить по платформе, на которой тот находился, снизу, использовать виртуального оппонента в качестве оружия (спрятавшуюся в панцирь черепаху можно было запустить в других противников, причем она могла отрикошетить от стены и попасть в самого Марио) или уничтожить с помощью огненного шара (для этого надо было подобрать специальный бонус).


Ограниченное количество жизней (Марио, ко всему прочему, погибал с одного удара) делало платформер по-настоящему хардкорным, а таймер обратного отсчета добавлял динамики, мотивируя игрока постоянно двигаться вперед, ориентироваться в происходящем на ходу и совершенствовать собственные навыки. В сочетании с разрушаемым окружением и множеством секретов, большинство из которых можно было обнаружить лишь случайно, все это обеспечивало невероятную насыщенность игрового процесса.

Ну а после успешного прохождения в Super Mario Bros. открывался режим повышенной сложности, привносящий дополнительное разнообразие в геймплей:

  • противников становилось больше, они начинали передвигаться заметно быстрее;
  • оглушенные враги практически сразу приходили в себя;
  • все грибы Гумба заменялись на более опасных жуков Баззи;
  • платформы-лифты уменьшались в размерах, и на них становилось сложнее запрыгнуть;
  • количество вращающихся огненных стержней увеличивалось, при этом они становились длиннее;
  • на некоторых картах появлялись дополнительные ловушки и препятствия.


Super Mario Bros. стала подлинной иконой индустрии, обозначив фундаментальные основы жанра, поэтому именно дату ее релиза и принято считать официальным днем рождения Марио. А герои игры во главе с великолепным водопроводчиком и по сей день кочуют из проекта в проект, продолжая радовать игроков по всему миру.

Впрочем, Nintendo не забыла и о других персонажах, принесших компании мировую славу. Простоватый Донки-Конг окончательно перевоспитался (видимо, пребывание в клетке, сооруженной Марио, оказало на примата благотворное влияние), получив собственную франшизу. Да и красотка Паулина в дальнейшем неоднократно появлялась в играх Nintendo и даже смогла выстроить политическую карьеру, став мэром Нью-Донка: в этом качестве ее можно встретить в Super Mario Odyssey.


А еще Паулина неплохо поет

Праздник со слезами на глазах


Увы, в наше время редкая бочка меда обходится без ложки дегтя, и даже столь знаменательное событие, как 35-летний юбилей Марио, не стало исключением. Хотя, казалось бы, кто мог испортить такой праздник, кроме, разумеется, самой Nintendo? Но ирония как раз и заключается в том, что именно большая N и не преминула воспользоваться столь удачно подвернувшимся случаем.

Давайте пофантазируем. Вы являетесь владельцем одной из богатейших компаний в игровой индустрии, и вам принадлежит самая успешная франшиза в истории видеоигр. Ключевому маскоту бренда исполняется 35 лет. Что можно придумать по такому случаю? Да буквально все что угодно. Например, выпустить лимитированную версию Nintendo Switch с уникальным дизайном и выгравированным на корпусе автографом Сигэру Миямото, способную занять почетное место на полке любого коллекционера. Или предложить фанатам достойные ремастеры классических игр серии, выполненные на уровне Super Mario Odyssey (если речь идет о 3D-играх) или New Super Mario Bros. U Deluxe (если говорить о традиционных платформерах с видом сбоку). Nintendo решили пойти по второму пути: 18 сентября 2020 года состоялся официальный релиз сборника Super Mario 3D All-Stars, куда вошли ремастеры Super Mario 64 (1996), Super Mario Sunshine (2002) и Super Mario Galaxy (2007). Вот только назвать их достойными язык не поворачивается, да и слово ремастеры стоит взять в кавычки.


Строго говоря, перед нами даже не совсем порты. Как выяснил дата-майнер OatmealDome еще до официального релиза, портом с натяжкой является лишь Super Mario Galaxy: в данном случае разработчики действительно перекомпилировали код оригинальной игры, добавив поддержку nVidia Tegra X1, однако нативно APU обрабатывает лишь игровую логику, в то время как за рендер и даже за воспроизведение звука отвечает эмулятор под кодовым названием hagi. В то же время Super Mario 64 и Super Mario Sunshine не были переделаны вообще: при желании их можно хоть сейчас запустить на том же Dolphin.

Все улучшения графики (весьма скромные, надо отметить) и исправления перевода применяются на лету, точно так же, как это реализовано в свободных эмуляторах классических консолей, хотя последние справляются со своей задачей куда лучше, нежели фирменный костыль от Nintendo. И только главное меню сборника является оригинальным: оно выполнено на базе LunchPack, который также использовался в играх серии Splatoon, Super Mario Maker и Animal Crossing.


В Super Mario 64 немного улучшены текстуры и увеличено разрешение рендера, но этим дело и ограничивается

Таким образом по факту мы имеем дело не с ремастерами, а с максимально ленивым ретекстуром, где не было изменено практически ничего. На фоне недавних Crash Bandicoot N. Sane Trilogy от главных жадин индустрии Activision или того же Medievil от Sony такое отношение к преданным фанатам можно назвать откровенно свинским, особенно с учетом круглой даты.

Впрочем, за положительными примерами даже не надо ходить к другим издателям, ведь в прошлом году Nintendo наглядно продемонстрировала, что способна сделать шикарный ремейк классической игры в современной обертке. Речь идет, конечно же, о во всех смыслах замечательной The Legend of Zelda: Link's Awakening.


The Legend of Zelda: Link's Awakening образцовый ремейк от Nintendo

Оригинальный проект был выпущен в далеком 1993-м, став первой игрой франшизы, вышедшей на портативной консоли Game Boy. Ремейк образца 2019 года был воссоздан с нуля в полном 3D, причем с каким-то сверхчеловеческим вниманием к деталям: буквально каждый кустик остался на своем законном месте. И хотя многие критики ставили игре в укор устаревший гейм-дизайн, на практике The Legend of Zelda: Link's Awakening как раз и можно назвать образцовым ремейком: запустив эту игру, вы испытаете ровно те же самые ощущения, что дарил вам оригинал, с поправкой на современные визуальные технологии, которые, впрочем, ничуть не испортили ни геймплей, ни ламповость атмосферы.


Даже пасхалки остались на своих местах

На фоне The Legend of Zelda: Link's Awakening ситуация с Super Mario 3D All-Stars выглядит несуразной, словно кто-то внутри компании намеренно саботировал юбилей Марио. Впрочем, если рассуждать логически, то все встает на свои места, хотя выводы для игрового сообщества будут и не самыми утешительными.

Nintendo подарила нам с вами немало замечательных игр (и все еще продолжает их разрабатывать), но сегодня это в первую очередь огромная корпорация, действия которой определяются экономической целесообразностью. Собрав вокруг себя многомиллионную армию фанатов, компания весьма прозрачно обозначила намерение монетизировать собственные репутационные активы. И столь контрастное качество продуктов лишь наглядно это подтверждает. Давайте сравним между собой The Legend of Zelda: Link's Awakening образца 1993 и 2019 годов.


В оригинал, если бы Nintendo выпустила его без изменений, лишь адаптировав под разрешение экрана Switch и добавив цветные спрайты, сегодня смог бы играть разве что ностальгирующий геймер, заставший тот самый релиз, вышедший 27 лет назад, или более позднее переиздание 1998 года The Legend of Zelda: Links Awakening DX, выпущенное для Game Boy Color. А поскольку эта игра даже не является номерной частью франшизы (ее действие происходит не в королевстве Хайрул, а на острове Кохолинт, да и самой Зельды вы здесь не встретите), ленивый порт не смог бы привлечь внимание ни новых игроков, ни тех, кто приобщился к легендарной серии лишь недавно. Поэтому большая N приложила все возможные усилия, чтобы сделать ремейк-конфетку, который окажется интересен достаточно широкому кругу игроков, при этом досконально воссоздала исходные локации, добавив отличный оркестровый саундтрек и сохранив дух оригинала.

Ситуация с Super Mario 3D All-Stars диаметрально противоположная. Из всей троицы лишь Super Mario 64 выглядит морально устаревшим, но с учетом популярности франшизы (а об усатом водопроводчике знают даже те, кто не интересуется видеоиграми в принципе) и знаковости перечисленных тайтлов, даже эту игру с удовольствием купят и пройдут заново, благо core-геймплей всех трех игр таков, что они будут актуальны и еще через 10 лет. Выходит, что и напрягаться незачем: достаточно прикрутить к исходным дистрибутивам эмулятор, сделать новое меню для сборника и дело в шляпе!

А если не будут брать, отключим газ, подумал про себя один из топ-менеджеров компании, решив добавить эксклюзивности в и без того эксклюзивный проект, и подписал распоряжение о том, чтобы ремастеры находились в продаже лишь ограниченное время до 31 марта 2021 года включительно. Уже в апреле Super Mario 3D All-Stars должен навсегда исчезнуть из eShop, и вскоре единственным легальным способом поиграть в этот сборник станет приобретение физической копии с рук, ведь дополнительный тираж картриджей также не планируется. Так что всем, кто находится в поисках надежных активов для инвестиций, рекомендуем присмотреться к покупке этого издания, ведь со временем оно будет лишь дорожать.


Super Mario 3D All-Stars самое надежное вложение ваших средств

Если вы полагаете, что после всего этого игроки стали массово бойкотировать релиз, то глубоко ошибаетесь: еще на этапе предзаказов Super Mario 3D All-Stars заняла второе место в рейтинге бестселлеров Amazon (на момент написания статьи сборник расположился на 7-й позиции), а цены у перекупщиков на старте предпродаж достигали $350. Иными словами, люди стали действовать именно так, как от них ожидали в Nintendo: побоявшись, что физических копий не хватит на всех, поклонники Марио начали в срочном порядке скупать картриджи. И продолжают до сих пор: в британском чарте Super Mario 3D All-Stars прочно удерживает первое место, а продажи самой Nintendo Switch после выхода сборника достигли 146 тысяч устройств, что на 90% больше по сравнению с сентябрем прошлого года.

И хотя без ревью-бомбинга в этот раз не обошлось, это мало на что повлияло: 6,5 балла пользовательского рейтинга и гневные отзывы на Metacritic практически не отразились на продажах.


Пользователи Metacritic активно жалуются на качество ремастеров, но Nintendo не обращает на это внимания

С другой стороны, раз уж Nintendo в текущем поколении стала экономить на консолях и при этом даже не боится судебных разбирательств (а 23 сентября в адрес компании был направлен уже второй иск, связанный с качеством джойконов, на этот раз составленный французской ассоциацией потребителей UFC-Que Choisir), то использованию порочных практик в сфере цифровой дистрибуции не приходится удивляться.

Кстати, если уж речь зашла о железе, вот еще один интересный факт: внутренней памяти Nintendo Switch недостаточно для того, чтобы вместить все игры о Марио и его друзьях, официально доступные на данной платформе. Давайте посчитаем!

Игра


Объем, МБ


Super Mario Odyssey


5747


New Super Mario Bros. U Deluxe


2572


Paper Mario: The Origami King


6662


Mario Kart 8 Deluxe


7059


Mario Tennis Aces


2491


Luigi's Mansion 3


7554


Mario + Rabbids


2980


Super Mario Party


2885


Super Mario Maker 2


3135


VS. SUPER MARIO BROS.


98


Марио и Соник на Олимпийских играх 2020 в Токио


6574


Super Mario 3D All-Stars


5013


Итого


52770



Около 53 гигабайт величина по нынешним временам весьма скромная даже для смартфона, но не для Nintendo Switch. Гибридная консоль получила встроенный накопитель на 32 ГБ, причем реальный доступный для хранения данных объем составляет лишь 25,4 ГБ, так как остальное пространство занимает операционная система. Вот и получается, что каждому, кто пожелает достойно отметить юбилей героического водопроводчика, перепройдя любимые игры, для начала придется обзавестись картой памяти SanDisk for Nintendo Switch как минимум на 64 ГБ (а лучше на все 128 с учетом будущих релизов). В этом случае вы сможете установить дистрибутивы перечисленных игр на microSD-карточку, а внутреннюю память консоли оставить для сохранений, скриншотов и видео.


Самое забавное, что при использовании карты памяти вы практически не теряете в производительности, как это было бы в случае со смартфоном. Все дело в том, что внутри Nintendo Switch установлен NAND-чип Toshiba THGBMHG8C2LBAIL eMMC 5.1, максимальная теоретическая пропускная способность которого составляет 600 МБ/с в операциях чтения и 125 МБ/с при записи файлов. Хотя на момент релиза консоли в мобильных устройствах уже вовсю использовался стандарт UFS 2.0, способный похвастаться вдвое большей производительностью (1200 МБ/с), Nintendo закономерно проигнорировала данный факт. Более того, гибридная консоль не задействует на все 100% даже возможности eMMC 5.1, что наглядно продемонстрировала в своем исследовании Digital Foundry.


Как показали тесты, при использовании карт памяти со скоростью чтения 100 МБ/с (а именно такой производительностью и характеризуются SanDisk for Nintendo Switch) длительность загрузки игр увеличивается не более чем на 14%. Например, в случае с достаточно тяжелой Legend of Zelda: Breath of the Wild разница составляет всего 5 секунд максимум с учетом того, что на загрузку каждой локации уходит около 30 секунд. При этом microSD-карты оказываются примерно на 6% быстрее по сравнению с фирменными картриджами, так что при прочих равных вы не заметите какой-либо разницы в длительности загрузки.

Да и в надежности подобного решения не приходится сомневаться. Традиционно продукция SanDisk проходит самые суровые испытания на способность противостоять факторам внешней среды и техногенным воздействиям, и линейка microSD-карт для Nintendo Switch не является исключением. Флеш-карты серии выдерживают падение с высоты до 5 метров на бетонный пол, сохраняют работоспособность даже спустя 72 часа пребывания в пресной или соленой воде на глубине до 1 метра, защищены от воздействия рентгеновского излучения и статических магнитных полей с силой индукции до 5000 Гс, а также будут исправно функционировать при экстремально низких (до -25 C) и экстремально высоких (до +85 C) температурах в течение как минимум 28 часов. Таким образом карты памяти от SanDisk имеют все шансы пережить консоль, ведь не случайно на каждую модель распространяется пожизненная гарантия.


Но как бы ни были хороши microSD-карточки от SanDisk, сама необходимость их приобретения не может не удручать. Тем более что еще в прошлом поколении Nintendo предлагала покупателям два варианта Wii U: Basic с накопителем на 8 ГБ и Premium, получившую внутреннее хранилище на 32 гигабайта. Разумеется, для домашней консоли вопрос дискового пространства не стоял столь же остро, ведь к Wii U можно было подключить внешний винчестер емкостью до 2 терабайт, однако сам факт выбора позволял надеяться на то, что в текущем поколении нам предложат несколько консолей в разной ценовой категории скажем, с 32, 64 и 128 ГБ памяти на борту. Но чуда не произошло, и оно уже вряд ли произойдет, особенно если учесть, что Nintendo до сих пор не решила проблему с джойконами.

Впрочем, давайте завершим этот материал на мажорной ноте, ведь в рамках конференции Super Mario Bros. 35th Anniversary Direct компания Nintendo сделала два весьма интересных анонса. Первый из них скорый выход на Nintendo Switch Super Mario 3D World. Порт хита с Wii U получит поддержку кооперативной игры по сети (в оригинале был лишь локальный кооператив), новое DLC Bowser's Fury и улучшенную графику. И если последний пункт после Super Mario 3D All-Stars вызывает лишь скептическую ухмылку, то в качестве дополнительного контента сомневаться не приходится (все же на талантливых геймдизайнерах Nintendo никогда не экономила), да и возможность поиграть с друзьями в онлайне определенно стоит того, чтобы приобрести данную игру. Релиз состоится уже 12 февраля 2020 года.


Второй анонс выглядит еще интереснее и в то же время вызывает недоумение: почему до такого никто не додумался раньше? Речь идет, конечно же, о Mario Kart Live: Home Circuit AR-гонке для Nintendo Switch. В комплекте с игрой будет поставляться миниатюрная радиоуправляемая машинка, в которую встроена камера, передающая изображение на экран консоли. Switch же, в свою очередь, будет создавать дополненную реальность в режиме реального времени, добавляя к транслируемому изображению разметку трассы, виртуальных соперников и разнообразные бонусы. При этом игра поддерживает локальный мультиплеер на четверых игроков, благодаря чему способна стать отличным семейным развлечением, а может, чем Боузер не шутит, и совершить очередную революцию в жанре! Релиз Mario Kart Live: Home Circuit состоится уже 16 октября.

Подробнее..

Эмуляторы игровых консолей правовые аспекты разработки и использования

22.10.2020 16:15:14 | Автор: admin

Давным-давно в далекой галактике разработчики видеоигр концентрировали свои усилия на увлекательном геймплее, не боялись экспериментировать, придумывая новые фичи и даже целые жанры, и стремились создавать не просто коммерческие продукты, но целостные, гармоничные произведения искусства, каждое из которых было в своем роде уникальным. Увы, золотой век игровой индустрии давно прошел: сегодня даже иные AAA-проекты больше всего напоминают онлайн-казино в красивой обертке, предлагающие целый букет аддиктивных механик и не способные удивить ничем, кроме цен во внутриигровом магазине.

К счастью, благодаря эмуляторам игровых консолей мы с вами можем вернуться в те замечательные времена, когда балом правили творцы, а не эффективные менеджеры, а игры стремились развлечь игрока и приносили подлинную радость. Но насколько законно использование подобных программ и не является ли это формой пиратства? Попробуем разобраться вместе.

От IBM System/360 до iNES


Поскольку все начинается с идеи, можно сказать, что появлением эмуляторов мы обязаны корпорации IBM, являющейся главным трендсеттером в мире информационных технологий. Выпуск в далеком 1964 году мейнфреймов серии IBM System/360 ознаменовал наступление новой эры, ведь именно в этих ЭВМ впервые была очерчена четкая граница между архитектурой и реализацией, что стало возможным благодаря использованию микрокода, который обеспечивал взаимодействие между центральным процессором и программным обеспечением.


Мейнфрейм IBM System/360

Новый уровень абстракции позволял использовать идентичный софт на всех устройствах серии (за исключением нескольких узкоспециализированных модификаций), начиная от бюджетных и заканчивая высокопроизводительными решениями, превосходящими по быстродействию модели начального уровня практически в 50 раз, что открывало дополнительные возможности для конечного потребителя. Теперь компания могла приобретать оборудование, отвечающее ее текущим потребностям, и переходить по мере роста на более мощные платформы без необходимости модифицировать существующее ПО, что помогало значительно снизить финансовые и временные затраты на модернизацию IT-инфраструктуры.

С легкой руки IBM использование программных и/или аппаратных средств, предназначенных для копирования функций одной вычислительной системы (гостевой) на другую (хост), стали называть эмуляцией. Изобретение эмуляции определило генеральный вектор развития всей компьютерной индустрии на долгие годы вперед, а впоследствии принесло и немало радости поклонникам видеоигр, ведь по гамбургскому счету именно благодаря инновациям IBM сегодня мы с вами можем вернуться в прошлое и насладиться любимыми игрушками, вышедшими несколько десятков лет назад.


Интерес к созданию эмуляторов игровых систем появился в сообществе разработчиков в 90-х годах прошлого века, когда производительность персональных компьютеров достигла достаточного уровня, чтобы воспроизводить поведение консолей с приемлемой скоростью. Большой вклад в развитие данного направления внес наш с вами бывший соотечественник, уроженец Перми, Марат Файзуллин, более известный в сети под ником fms, эмигрировавший в США в 1992 году. Будущий обладатель докторской степени по информатике от Мэрилендского университета в Колледж-Парке, впоследствии устроившийся в компанию Intel на позицию Senior Software Engineer, стал широко известен среди поклонников видеоигр благодаря разработке эмулятора платформы MSX (Machines with Software eXchangeability) fMSX, первая версия которого увидела свет в 1993 году, а также благодаря проектам Virtual Game Boy (VGB, 1995 год) и Virtual Game Boy Advance (VGBA), предназначенным для запуска игр, выпущенных на одноименных портативных консолях Nintendo, и разработке одного из самых первых (и наиболее удачных) эмуляторов Nintendo Entertainment System iNES, релиз которого состоялся в 1996 году.


Перечисленные проекты продолжают развиваться по сей день и доступны практически на всех актуальных платформах. А код эмуляции восьмиразрядного процессора MOS Technology 6502, написанный Файзуллиным, оказался настолько удачным, что впоследствии использовался при разработке xNES, созданного Николасом Хамелом, FreeNES от Самуэля Бронсона, NES and PCEngine emulator от Bero и во многих других проектах.

Первый Bleem! комом


Хотя, по понятным причинам, именно консоли Nintendo пользовались особой любовью среди разработчиков эмуляторов, первое судебное разбирательство в данной сфере инициировала вовсе не большая N, а Sony, подавшая в 2000 году иск против Connectix Corporation, автора Bleem! эмулятора игровой системы PlayStation.


Боксовое издание эмулятора Bleem! для Windows 95/98

С учетом того, что весной этого же года в Японии состоялась премьера PlayStation 2, а осенью консоль стала продаваться в США и Евросоюзе, подобный шаг выглядит, мягко говоря, странно. Тем не менее у Sony были три вполне веских повода для судебного разбирательства:

  • Bleem! оказался действительно быстрым

Bleem! был написан на ассемблере и, в отличие от многих других эмуляторов того времени, использующих исключительно вычислительные мощности CPU, умел работать с графическими ускорителями, что позволяло играть в эксклюзивы Sony даже на относительно слабых машинах. Для японского гиганта это могло стать серьезной проблемой, ведь 7 июня 2000 года, на закате поколения, свет увидела обновленная версия PlayStation PSone, а доступный широкому кругу потребителей эмулятор мог негативно отразиться на ее продажах.

  • Эмулятор работал на Sega Dreamcast

Проект Bleemcast! позволял запускать игры с первой PlayStation на консоли прямого конкурента Sega Dreamcast. Для этого Connectix Corporation воспользовалась уязвимостью в стандарте MIL-CD (Music Interactive Live CD), созданном Sega для воспроизведения на домашней консоли мультимедийных дисков. Причем Bleemcast! не просто эмулировал приставку от Sony, а существенно улучшал графику в запускаемых играх, увеличивая разрешение рендера до 640 480 пикселей, то есть ровно в два раза (на PS1 игры работали в разрешении 320 240), добавляя сглаживание и билинейную фильтрацию текстур.


Обложка CD-ROM с Bleem! для игровой консоли Sega Dreamcast

  • Bleem! являлся коммерческим продуктом

Connectix Corporation разработала Bleem! отнюдь не из альтруистических соображений и не ради пожертвований от благодарных фанатов: и оригинальный эмулятор, и Bleemcast! продавались на физических носителях. Поскольку имело место извлечение прибыли, это позволило Sony инициировать судебное разбирательство.

И как ни странно, японский гигант проиграл по всем фронтам, а данный процесс создал весьма важный судебный прецедент. По его итогам суд принял решение о том, что само по себе создание эмуляторов и даже их коммерческая реализация не нарушают Бернскую конвенцию (основное международное соглашение в области авторского права) и не противоречат местному законодательству. Но лишь в том случае, если был написан оригинальный код и все сведения об архитектуре, необходимые для разработки, получены методом реверс-инжиниринга, а не из внутренней документации платформодержателя, попавшей в открытый доступ в результате утечек или похищенной умышленно.

Тем не менее для самой Connectix Corporation победа оказалась пирровой. За время судебных разбирательств дело прошло через несколько инстанций, и хотя в итоге решение было вынесено в пользу разработчиков Bleem!, небольшая компания попросту не смогла справиться с огромными издержками. Ситуацию осложнило и прекращение выпуска Dreamcast на территории Северной Америки, о чем Sega объявила уже в 2001 году, так что вся работа над Bleemcast! (а в конечном счете разработчикам пришлось адаптировать эмулятор под каждую конкретную игру) оказалась бессмысленной.


Обложка Bleemcast! для Tekken 3

В результате в ноябре 2001 года Connectix Corporation объявила о закрытии Bleem!.. На официальном сайте проекта появилась заставка, изображающая надгробный камень с названием эмулятора и рыдающего над ним ежика Соника, сжимающего в руке поникший цветок (отсылка к консоли Sega, на успех которой разработчики рассчитывали больше всего).


Покойся с миром, Bleem!..

Сказ о том, как читеры засудили Nintendo


Можно сколько угодно спорить, кто прав, а кто виноват в истории с Bleem!, однако нельзя отрицать огромное значение данного инцидента. Во многом именно судебное противостояние Sony и Connectix Corporation отбило у крупных компаний всякое желание судиться с разработчиками эмуляторов игровых систем. В частности, данное мнение разделяет Пьер Бурдон, один из создателей Dolphin эмулятора Wii и GameCube с открытым исходным кодом.

Напомним, что 3 мая 2003 года свет увидела The Legend of Zelda: Ocarina of Time для GameCube, и Dolphin смог запустить эту игру спустя всего неделю после релиза. И пусть это была не новая часть серии, а лишь порт с Nintendo64, утечка лучшей видеоигры за всю историю индустрии, и по сей день имеющей самый высокий балл на Metacritic среди всех ранжируемых проектов, не могла укрыться от неусыпного взора юристов большой N. Тем более что при запуске на эмуляторе игра выглядела значительно лучше, чем на оригинальной консоли.


The Legend of Zelda: Ocarina of Time

Однако Nintendo попросту не за что было уцепиться. Исходный код Dolphin изначально был доступен для всестороннего анализа, и ни одна его строчка не подпадала ни под закон об авторском праве, ни под действие собственных лицензионных соглашений компании о неразглашении технических данных, составляющих коммерческую тайну. Именно прозрачность позволила Dolphin избежать печальной участи.

Другой скользкий момент, касающийся как разработки, так и использования эмуляторов, заключается в том, что для нормального функционирования ряда таких программ требуется дамп BIOS консоли. В одних случаях оригинальная микропрограмма позволяет повысить точность эмуляции, избавиться от графических артефактов и иных ошибок, в других же без ее наличия запуск игр становится вовсе невозможным. Но насколько законными являются манипуляции с BIOS? Ответ на этот вопрос был дан еще в 1992 году в ходе судебного разбирательства между Lewis Galoob Toys и Nintendo of America, хотя предметом спора были отнюдь не эмуляторы, а, говоря современным языком, хардварные читы.

В начале 90-х компания Codemasters, ныне известная как разработчик автомобильных симуляторов DiRT, GRID и F1, заказала у Lewis Galoob Toys производство особых устройств для Nintendo Entertainment System, получивших название Game Genie. Впоследствии аналогичные девайсы были созданы для SNES, Game Boy, а также Sega Genesis.


Game Genie устанавливалось в слот игровой консоли, тогда как картридж подключался к разъему на самом устройстве, распиновка которого повторяла оригинальную. После запуска приставки на экране появлялось специальное меню, в котором игрок мог ввести код в формате адрес-значение, изменяющий те или иные данные, поступающие из ПЗУ картриджа в RAM игровой системы, и таким образом модифицировать параметры игры. В комплекте с девайсом поставлялся справочник, содержащий список известных кодов с описанием того, на что они влияют. Game Genie позволяло сделать персонажа бессмертным, открывать бонусные уровни без прохождения основной игры, накручивать необходимые ресурсы в общем, делать все то же самое, что и современные читы.


Game Genie, подключенное к Super Nintendo Entertainment System

Самое забавное, что судопроизводство началось задом наперед. В мае 1990 года именно Galoob инициировала процесс, целью которого было получение официального заключения о том, что Game Genie не нарушает авторские права Nintendo, а также постановления суда, которое бы запрещало японской компании умышленно модифицировать NES таким образом, чтобы сделать чит-приставку и консоль несовместимыми.

В ответ Nintendo подала встречный иск с весьма интересной формулировкой. Юристы компании утверждали, что творение Galoob нарушает авторские права Nintendo на разработанные игры, так как Game Genie создает производное произведение (игру с измененным кодом) без разрешения правообладателя. Не будет преувеличением сказать, что в тот год над всеми эмуляторами нависла реальная угроза, ведь в случае победы Nintendo был бы создан серьезный прецедент, благодаря которому платформодержатели получили бы реальный инструмент давления на разработчиков такого ПО. Не говоря уже о том, что под аналогичную формулировку подпадает и деятельность моддеров.

Но американская судебная система оказалась на стороне геймеров. Сказать спасибо за наше с вами светлое настоящее стоит окружному судье Ферн Мейерсон Смит (Fern Meyerson Smith), которая справедливо заключила, что после приобретения игровой консоли и картриджа покупатель имеет право экспериментировать с продукцией Nintendo так, как сочтет нужным, в том числе модифицируя программный код и создавая его новые варианты для личного использования. Пока речь не идет о распространении полученных таким образом копий программного обеспечения (оригинальных или модифицированных), ничего противозаконного в подобных деяниях нет.


Ферн Мейерсон Смит именно ее должны благодарить все поклонники ретроигр

Nintendo попробовала опротестовать это решение в Апелляционном суде девятого округа, однако апелляция была отклонена. В результате большая N не только проиграла, но и лишилась более 15 миллионов долларов. Все дело в том, что на первых порах японскому гиганту удалось добиться запрета на реализацию Game Geniе вплоть до завершения разбирательства, однако для этого компании пришлось внести залог в размере 15 миллионов долларов, дабы гарантировать, что в случае выигрыша Galoob получит компенсацию убытков. Поскольку тяжба продлилась более года, в декабре 1991-го залог в полном объеме присудили Galoob, также обязав Nintendo погасить все судебные издержки производителя Game Geniе.

Три аргумента в пользу эмуляторов


Решение Ферн Мейерсон Смит легализовало целый ряд важных аспектов, связанных с разработкой и использованием эмуляторов. Теперь любой обладатель консоли имеет законное право на создание дампа BIOS купленного им устройства, чтобы в дальнейшем использовать его для изучения архитектуры системы или запуска игр. Во многом именно благодаря данному прецеденту сегодня мы с вами можем поиграть в любую из тысяч игр прошлых лет для ныне мертвых платформ, насладившись всеми преимуществами, которые обеспечивают современные эмуляторы консолей. Среди всего их многообразия можно выделить три основных.

Преимущество 1: оригинальный пользовательский опыт


Не секрет, что издатели в попытке выжать максимум прибыли из принадлежащих им IP частенько халтурят. И справедливости ради надо сказать, что ситуация с Super Mario 3D All-Stars является отнюдь не самой вопиющей. Разумеется, за такую цену, да еще и в честь столь знаменательной даты, как 35-летие Марио, хотелось бы увидеть полноценные ремейки классических хитов, а не ленивый ретекстур, чем на самом деле и является этот своеобразный подарочек от большой N. Впрочем, данный сборник все же имеет одно весьма важное преимущество: игры, в него вошедшие, исправно работают.

Чего не скажешь о Silent Hill 4: The Room, релиз которой состоялся 2 октября в сервисе цифровой дистрибуции GoG. Konami захотела подзаработать на похороненной ею же франшизе, решив продать фанатам тот самый порт 16-летней давности с вырезанной DRM и адаптацией под современные системы (которой, кстати, занимались сами ребята из Good old Games). По меркам 2004 года порт Silent Hill 4 был не так уж и плох: по крайней мере, в нем отсутствовали фатальные недостатки вроде проблем с картинкой или производительностьюм, чем грешили те же Capcom. Однако по пути на персональные компьютеры Silent Hill 4 растеряла немало скриптов, из-за чего ПК-игроки лишились множества весьма атмосферных моментов. В первую очередь это касается разнообразных проявлений потусторонней активности в квартире главного героя, которые попросту исчезли из PC-версии игры.


Это проявление полтергейста в квартире Генри Таунсенда так и осталось эксклюзивом PlayStation 2

В этом плане Konami отличается завидным постоянством и толерантным отношением ко всем платформам. Достаточно вспомнить Silent Hill HD Collection, вышедший в 2012 году для PlayStation 3 и Xbox 360. Поскольку исходный код оригинальных игр был утрачен, Konami пришлось работать с прекомпилированными дистрибутивами со всеми вытекающими последствиями: Silent Hill 2 и 3, вошедшие в сборник, растеряли львиную долю своего очарования и обзавелись новыми багами. Так, например, из второй части куда-то исчез туман, не только работавший на атмосферу, но и скрывавший границы карты и текстуры низкого разрешения, что полностью сломало все погружение в мрачный мир культового ужастика. На скриншоте ниже слева приведены кадры из ремастера, а справа скриншоты из оригинальной версии игры.


Нет, Мария, Its not okay. Its disgusting!

Поэтому всем, кто хотел бы поностальгировать или впервые приобщиться к, пожалуй, лучшей игровой хоррор-серии, можно посоветовать воспользоваться PCSX2, дабы в полной мере прочувствовать изначальный замысел авторов, вместо того чтобы отдавать деньги Konami за откровенную халтуру.

Преимущество 2: старые игры в новом качестве


Наиболее очевидное преимущество, которое обеспечивает использование эмуляторов, возможность поиграть в классические игры на широкоформатном мониторе в разрешении Full HD или выше с полноэкранным сглаживанием, анизотропной фильтрацией текстур, объемным звуком, возможностью сохранения в любой момент и другими атрибутами современного гейминга. Ведь как бы ни были хороши классические тайтлы, сегодня играть в большинство из них без изменений уже физически больно, особенно когда речь заходит о раннем 3D, благо качественный пиксель-арт практически не подвластен времени.

С помощью эмуляторов можно прокачать даже относительно свежие релизы. Взять ту же The Legend of Zelda: Breath of the Wild. Будучи запущенной на CEMU, игра выглядит куда лучше, нежели на Switch, а если вы являетесь обладателем достаточно мощного ПК, то сможете играть со стабильными 60 FPS, что для гибридной консоли является недостижимой планкой.


The Legend of Zelda: Breath of the Wild на Cemu выглядит просто потрясающе

Если же вы хотите попробовать нечто действительно интересное, рекомендуем обратить внимание на проект 3DSen. Необычный эмулятор NES вышел летом этого года в раннем доступе в Steam. Главной его фишкой является конвертация 2D-графики в 3D (или, если быть совсем точным, в 2,5D) на лету. На данный момент заявлена поддержка 70 тайтлов.


Micro Mages, запущенная на 3DSen

Преимущество 3: больше свободного места в доме


Объем игрового дистрибутива для NES не превышал 40 КБ это в несколько десятков раз меньше объема данного материала, сохраненного в формате docx. При этом размеры картриджа с одной игрой составляли 13,3 12 2 сантиметра. Всего для NES было выпущено 715 игр. Разумеется, отнюдь не каждая из них достойна внимания, а многие проекты, как бы хороши они ни были, могут не понравиться именно вам. Но даже если вы пожелаете обзавестись парой сотен таких игрушек, для их хранения вам потребуется полка весьма внушительных размеров. Учитывая же, что NES лишь одна из множества игровых систем, выпущенных за последние 30 лет, под коллекцию игр для консолей от второго до восьмого поколения вам придется арендовать небольшой склад или выделить целый этаж загородного дома. Именно так и пришлось поступить Антонио Монтейро, коллекционеру из Ричмонда (штат Техас).


Антонио Монтейро и его коллекция видеоигр

Антонио является обладателем самой большой коллекции видеоигр по версии Книги рекордов Гиннесса, включающей 20 139 тайтлов. На точный подсчет всех картриджей, CD, DVD и Blue-Ray ушло в общей сложности 8 дней чистого времени. Ну а сколько места занимает все это добро, вы можете оценить самостоятельно.


Если же вы не испытываете страсти к коллекционированию, то эмуляторы помогут вам сэкономить немало свободного пространства и денежных средств. Ведь, чтобы на долгие годы обеспечить сохранность коллекции, подобной той, что собрал Антонио, вам придется позаботиться и о поддержании постоянного микроклимата в помещении, что также чревато серьезными капитальными и операционными затратами.

Вооружившись же набором эмуляторов вместо самих консолей и цифровыми копиями дистрибутивов, вы избавите себя от множества проблем, связанных с размещением и обслуживанием такой коллекции, благо современные накопители данных способны обеспечить куда большую плотность хранения, нежели архаичные картриджи или оптические диски. Возьмем, для примера, внешний винчестер WD_BLACK P10, разработанный специально для геймеров.


Наиболее вместительная модель емкостью 5 ТБ имеет габаритные размеры всего 11,8 8,8 2 см, то есть оказывается даже меньше картриджа для Nintendo Entertainment System. При этом такой диск способен вместить 125 миллионов копий игр для NES (почти в 175 раз больше, чем в принципе вышло), более 7 тысяч игр для Sony PlayStation (то есть практически все выпущенные проекты) или 1200 игр для PlayStation 2.

WD_BLACK P10 поддерживает высокоскоростной интерфейс USB 3.1 Gen 1, а его производительность достигает показателей 140 МБ/с, что сопоставимо со скоростью внутренних HDD. Помимо этого, данная модель адаптирована для многочасовой работы под нагрузкой, что стало возможным в первую очередь благодаря продуманной системе пассивного охлаждения: крышка корпуса выполнена из металла и играет роль радиатора, эффективно отводя тепло от 2,5-дюймового винчестера.

Если же возможностей P10 вам покажется недостаточно, рекомендуем обратить внимание на WD_BLACK D10.


Если вновь проводить параллели с картриджем NES, то данная модель будет немного длиннее (19,5 см против 13,3) и вдвое толще (4,4 см против 2), что, впрочем, с лихвой компенсируется ее емкостью и производительностью. WD_BLACK D10 способен вместить 8 ТБ данных (200 игр времен NES, 11,5 тысяч игр для PS1 или 1900 игр для PS2), а его производительность достигает уже 250 МБ/с, то есть идентична топовым игровым HDD. Поскольку во вместительном корпусе WD_BLACK D10 нашлось место для кулера, данный винчестер можно эксплуатировать даже в режиме 24/7, не опасаясь его перегрева. В качестве же приятного бонуса стоит упомянуть наличие на боковой панели пары портов USB Type-A мощностью 7,5 Вт, за счет чего диск можно использовать в качестве док-станции для зарядки беспроводной периферии (например, мышки, геймпада или гарнитуры). Благодаря всему перечисленному такой накопитель способен в полной мере удовлетворить потребности не только поклонника ретроигр, но и любителя современных крупнобюджетных проектов.
Подробнее..

Слежка за подчиненными и закон

29.03.2021 20:20:50 | Автор: admin

Системы видеонаблюдения, мониторинг сетевого трафика, просмотр корпоративной почты в современных реалиях практически каждая компания в той или иной степени отслеживает действия своих сотрудников на рабочих местах. Кто-то стремится таким образом защититься от корпоративного шпионажа и утечек данных, кто-то использует собранную информацию для оптимизации бизнес-процессов и оценки продуктивности нанятых работников, а кто-то в первую очередь заботится о безопасности своих подчиненных. Но насколько вообще законна слежка за персоналом и где проходит невидимая черта, отделяющая контроль за добросовестным исполнением служебных обязанностей от вторжения в частную жизнь? Попробуем разобраться.

Во вступительной части сегодняшнего материала мы поговорим о доступности систем мониторинга и видеонаблюдения, а также о продукции Western Digital для устройств видеофиксации. Затем мы подробно рассмотрим особенности российского законодательства в сфере отслеживания действий подчиненных на примере кейсов из реальной судебной практики. Также мы приготовили для вас небольшое практическое задание для самопроверки, поэтому обязательно дочитайте статью до конца.

Слежка за всеми и каждым, и пусть никто не уйдет...



Благодаря развитию модели SaaS процесс организации всестороннего контроля за деятельностью вашего персонала становится как никогда простым. В сегодняшних реалиях вам не нужно создавать систему отслеживания действий сотрудников с нуля или заказывать ее разработку у сторонних компаний: достаточно зайти на любой отраслевой портал, вроде того же G2, открыть раздел Employee Monitoring Software и выбрать наиболее подходящий вариант в зависимости от требуемого функционала, специфики бизнес-процессов вашего предприятия и доступных опций интеграции. Современные программные комплексы мониторинга способны заткнуть за пояс даже самые навороченные spyware, предлагая клиентам весьма богатый набор инструментов контроля, среди которых:

  • отслеживание запускаемых приложений и посещаемых сайтов;
  • мониторинг сетевого трафика;
  • создание снимков экрана контролируемого устройства;
  • видеозахват экрана, запись и/или потоковая передача полученного видео в реальном времени;
  • регистрация нажатий клавиш на клавиатуре компьютера, движений курсора и нажатий клавиш мыши (кейлоггинг);
  • отслеживание местоположения контролируемого устройства с помощью спутниковой навигации (актуально для мобильных девайсов);
  • запись видео и аудио с интегрированных или подключенных к устройству веб-камеры и микрофона;
  • удаленный перехват управления рабочим столом.

Впрочем, не стоит рассматривать такое ПО только в качестве этаких легальных троянов. Многие подобные решения сочетают в себе функции CRM, системы учета рабочего времени, поддерживают интеграцию с популярными таск-трекерами, системами контроля версий и отслеживания ошибок, позволяют составлять и обрабатывать платежные ведомости, а также предоставляют полноценный API, существенно упрощающий процесс интеграции в корпоративную IT-инфраструктуру. Все это помогает не только более эффективно использовать саму платформу отслеживания, но и дополнительно оптимизировать затраты, отказавшись от узкоспециализированного софта с дублирующим функционалом.

Контролировать персонал в реальности физической почти так же просто, как и в виртуальном пространстве, благо современный рынок предлагает множество разнообразных способов организации видеонаблюдения на любой вкус и кошелек. Предположим, вы являетесь владельцем небольшой компании и хотите следить за происходящим на территории малого офиса, состоящего из пары-тройки рабочих помещений. В таком случае все, что вам понадобится, несколько сетевых камер EZVIZ (дочерний бренд HikVision), маршрутизатор с функцией хранения данных EZVIZ Vault Plus, жесткий диск WD Purple и по одной карте памяти WD Purple SC QD101 microSD на каждую IP-камеру, благодаря которым система видеонаблюдения продолжит функционировать в автономном режиме в случае возникновения непредвиденных ситуаций.


Выгода приобретения подобного комплекта заключается не только в его дешевизне, но и в простоте установки и обслуживания, что позволяет полностью отказаться от услуг сторонних специалистов или ангажированных лиц из числа сотрудников компании. Поскольку же бренд EZVIZ был изначально ориентирован на широкий круг потребителей, включая и частных лиц, устройства, выпускаемые под данной маркой, отличаются удобством эксплуатации и могут похвастаться рядом нетипичных функций вроде возможности дистанционного управления с помощью клиентского приложения для смартфона на Android или iOS либо использования IP-камер в качестве коммутаторов для переговоров с сотрудниками.

Свою лепту вносят и специализированные накопители для систем видеонаблюдения от Western Digital.


Если говорить о жестких дисках WD Purple, то применительно к рассматриваемому нами сценарию их главными преимуществами становятся оптимизация использования кэш-памяти в зависимости от количества обрабатываемых видеопотоков и управление приоритетом исполнения команд чтения/записи, реализованное на уровне фирменной прошивки AllFrame AI. Данная особенность позволяет свести к минимуму вероятность пропуска кадров и появление артефактов изображения при обработке значительного числа (до 64) изохронных видеопотоков высокой четкости. В сочетании с широким спектром поддерживаемого оборудования, в перечень которого входит и продукция HikVision, это избавляет от необходимости тонкой настройки используемой аппаратуры: видеорегистратор, роль которого в нашем примере играет роутер EZVIZ, сам прекрасно договорится с жестким диском без какого-либо вашего участия.

Что же касается карт памяти WD Purple, то их ключевой особенностью является гарантированный рабочий ресурс в 1000 циклов программирования/стирания (P/E), что практически в 10 раз больше по сравнению с гражданскими моделями. Таким образом, если при использовании обычных microSD-карт вам пришлось бы осуществлять их замену чуть ли не каждые 56 месяцев, то карточка пурпурной линейки исправно прослужит вам долгие годы. Давайте посчитаем.


Если предположить, что видеозапись будет вестись непрерывно в течение 8-часового рабочего дня в разрешении Full HD при максимально возможном качестве картинки, то на карту памяти каждый день будет записываться около 50 гигабайт видео. Для наглядности конвертируем рабочий ресурс карты из количества циклов перезаписи в более привычный TBW. Сделать это можно по следующей формуле:

TBW = (Емкость Количество циклов P/E)/1000

Для модели емкостью 256 ГБ получим: TBW = (256 1000)/1000 = 256 терабайт. Значит, при текущей нагрузке карта памяти WD Purple гарантированно проработает 256 000 / 50 = 5120 дней, или около 14 (!) лет.

Помимо расширенного рабочего ресурса, microSD-карты WD Purple отличаются влагостойкостью (они могут выдержать погружение на глубину до 1 метра в пресную или соленую воду), способны исправно функционировать в расширенном диапазоне рабочих температур (от -25C до +85C) или пережить удар силой до 500g. Таким образом, вы можете быть на 100% уверены в сохранности записанных данных при возникновении любых нештатных ситуаций вроде ложного срабатывания системы пожаротушения или импульсивных действий со стороны сотрудника вашей компании, если тот вдруг захочет искупать видеокамеру в стакане с горячим кофе или поиграть несчастным девайсом в футбол.

Последнее вполне может произойти в реальной жизни. Ведь когда речь заходит о тотальном контроле, начальник и его подчиненные неизбежно оказываются по разные стороны баррикад. Оно и понятно: даже самый честный человек, которому нечего скрывать, будет чувствовать себя неуютно под неусыпным оком большого брата, в роли которого в данном случае выступает работодатель. И все то, что с точки зрения владельца компании является лишь средством защиты бизнеса и оптимизации рабочего процесса, в глазах рядовых сотрудников выглядит как вероломное вмешательство в частную жизнь, нарушение права на тайну личной переписки и телефонных переговоров. Но это, как ни крути, лишь субъективное восприятие ситуации. А как же обстоят дела с точки зрения реального законодательства Российской Федерации?

Письмецо в конверте погоди, не шли!



Чтобы быть последовательными и не запутаться в правовых нюансах, начнем с традиционной модели трудовых отношений, когда наемные сотрудники работают в офисе, используя помещение, аппаратуру (компьютеры, ноутбуки, смартфоны, планшеты) и программное обеспечение, предоставленные самим работодателем. В такой ситуации действуют следующие часть 1 и часть 2 статьи 22 Трудового Кодекса РФ. Согласно закону, работодатель обязан обеспечить работников всем необходимым для исполнения ими трудовых обязанностей. Сами сотрудники могут использовать предоставленное оборудование исключительно в рабочих целях. При этом работодатель имеет право контролировать исполнение работником возложенных на него трудовых обязанностей, а также то, как именно работник использует предоставленное ему оборудование.

Из этих положений следует логичный вывод: работодатель, обеспечив сотрудника компьютером, необходимым для исполнения служебных обязанностей, имеет право устанавливать на него любое программное обеспечение, включая и средства мониторинга, отслеживающие действия пользователя. В свою очередь, сам подчиненный может использовать ПК лишь в рабочих целях, в противном случае к нему могут быть применены санкции. Рассмотрим несколько примеров.

Кейс 1


Сотрудник N авторизовался с рабочего компьютера в личном e-mail-аккаунте, после чего прикрепил к электронному письму несколько служебных документов и переслал их некоему гражданину X. Данный факт удалось отследить с помощью программы мониторинга интернет-трафика, после чего сотрудник N был уволен за разглашение сведений, составляющих коммерческую тайну. N вознамерился обжаловать данное решение, а также подал встречный иск, утверждая, что работодатель нарушил его право на тайну личной переписки. Если бы суд вынес решение в пользу N, увольнение было бы признано неправомерным, так как сведения, перехваченные системой фильтрации трафика, получили бы статус недопустимых доказательств как полученные с нарушением требований Уголовно-процессуального кодекса и не имели бы юридической силы.

Тем не менее в рассматриваемой ситуации суд признал увольнение вполне законным. Поскольку компьютер является собственностью работодателя, последний имеет право устанавливать на него любое контролирующее ПО, в том числе способное отслеживать и анализировать сетевой трафик (именно таким образом и были получены сведения, которые помогли уличить N). Поскольку программа не имела прямого доступа к почтовому ящику работника, полученные таким образом доказательства являются абсолютно законными и имеют юридическую силу. Напротив, если бы работодатель получил прямой доступ к личному e-mail сотрудника и узнал о пересылке файлов, содержащих коммерческую тайну, просмотрев папку Исходящие, это было бы прямым нарушением статей 2324 Конституции РФ и ответный иск N был бы удовлетворен.

Кейс 2


Сотрудник Z был уволен за нарушение кодекса этики государственного служащего и регламента использования служебной техники. В ходе проверки работодатель установил, что Z использовал рабочую почту для личной переписки, а также обсуждал действия своих коллег с посторонними лицами. Работник был уволен в связи с утратой доверия к гражданскому служащему в соответствии с п. 1.1 ч. 1 ст. 37 Федерального закона РФ от 27 июля 2004 года О государственной гражданской службе Российской Федерации.

Z подал апелляционную жалобу и проиграл процесс. Судья принял во внимание имеющиеся доказательства, которыми послужили акт осмотра рабочего места и содержание электронной переписки. Здесь тоже нет ровным счетом никаких нарушений: работодатель имел доступ к служебному почтовому ящику сотрудника и мог просматривать всю ведущуюся переписку на законных основаниях. И именно сотрудник совершил нарушение, так как воспользовался служебной почтой для ведения личной переписки.

Кейс 3


После увольнения на законных основаниях сотрудница O подала в суд на работодателя, так как не смогла получить доступ к рабочему компьютеру и корпоративному e-mail, и потребовала возместить моральный вред в связи с нарушением прав на неприкосновенность личной жизни и тайну переписки, поскольку использовала свой аккаунт в том числе для общения с друзьями и родственниками, а ее учетная запись была передана другому сотруднику (при этом был сменен пароль). Суд постановил, что никакого нарушения не было, так как корпоративный аккаунт априори принадлежит компании.

Резюмируем все вышесказанное:

  • Работодатель имеет право контролировать исполнение работником трудовых обязанностей любыми законными способами, в том числе и осуществлять контроль за использованием вверенного ему служебного ПК, ноутбука или другой техники, а также корпоративных e-mail или мессенджеров. Риск раскрытия личной переписки лежит исключительно на работнике, если он ведет ее со служебного компьютера, с использованием рабочего почтового ящика или иных средств связи, предоставленных работодателем.
  • Работодатель имеет право доступа к содержанию личных писем и сообщений в том случае, если они были отправлены с использованием корпоративного аккаунта и/или рабочего компьютера. Однако анализ полученной информации может проводиться исключительно в целях выявления признаков разглашения коммерческой тайны, нарушений корпоративного кодекса и в иных аналогичных ситуациях. Использование данной информации в других целях можно расценивать как нарушение неприкосновенности частной жизни.
  • Указанная выше информация может быть получена напрямую при анализе электронной переписки или сообщений в мессенджере, отправленных с корпоративных аккаунтов. Если сотрудник использовал личную почту, сведения могут быть получены с помощью технических средств мониторинга (например, посредством анализа интернет-трафика). Прямой доступ (например, путем перехвата пароля) к личному почтовому аккаунту сотрудника, личному мессенджеру, профилю в социальной сети является противозаконным и может классифицироваться как неправомерный доступ к компьютерной информации (статья 272 УК РФ).

Эти глаза напротив, воли моей супротив



С перепиской все ясно, а что же говорит закон о видеонаблюдении? Согласно уже упомянутой нами ч. 1 ст. 22 ТК РФ, работодатель имеет право установить систему видеонаблюдения в целях обеспечения безопасности на рабочих местах, сохранности товарно-материальных ценностей, контроля за условиями труда, предотвращения различных нарушений и противоправных действий, а также для контроля за исполнением сотрудниками их обязанностей.

Однако здесь имеется ряд ограничений, продиктованных статьей 23 Конституции РФ, гарантирующей право человека на личную тайну и неприкосновенность частной жизни. Что это означает на практике? Предположим, вы являетесь владельцем крупного предприятия и вам принадлежит обширный офисный комплекс. Вы можете вести видеонаблюдение в опен-спейсе, конференц-зале или на КПП, однако не имеете права устанавливать видеокамеры в комнате отдыха, раздевалке, туалетах и других аналогичных помещениях. При этом, в соответствии со статьей 6 Федерального закона Об оперативно-розыскной деятельности, использовать для съемки скрытые камеры категорически запрещено: видеонаблюдение должно вестись открыто, а в зонах видимости камер должны быть установлены информационные таблички.

Рассмотрим пару показательных кейсов, иллюстрирующих законность видеонаблюдения на рабочих местах.

Кейс 4


После установки системы видеонаблюдения сотрудник A отказался работать в новых условиях и подал на работодателя в суд, посчитав это нарушением его права на защиту частной жизни и персональных данных. Суд, однако, не усмотрел в действиях работодателя каких-либо нарушений, поскольку в данном случае видеонаблюдение осуществляется в целях контроля за трудовой деятельностью работника, а не для того, чтобы установить обстоятельства его частной жизни. По этой же причине, в силу пункта 5 части 1 статьи 6 закона о персональных данных, работодатель имеет право осуществлять сбор и обработку персональных данных сотрудника (к которым относятся его видеоизображения) без дополнительного согласия, поскольку соответствующие изменения условий труда были отражены в локальных нормативных актах (ЛНА), а работник был дополнительно уведомлен под подпись об установке системы видеонаблюдения.

Кейс 5


В целях обеспечения безопасных условий труда и противодействия террористическим угрозам в поликлинике была установлена система видеонаблюдения. Врач D расценил это как вмешательство в свою личную жизнь. Несмотря на уведомление о запрете препятствовать работе видеокамер, врач, приходя на работу, загораживал посторонними предметами объектив смонтированной в его рабочем кабинете камеры. За эти действия D был привлечен к дисциплинарной ответственности: ему был объявлен выговор с занесением в личное дело.

Стремясь обжаловать данное решение, D подал судебный иск о признании соответствующего приказа начальства незаконным и закономерно проиграл процесс. Суд постановил, что видеонаблюдение во врачебных кабинетах было установлено в целях обеспечения безопасности на территории лечебно-профилактического учреждения, а персональные данные сотрудников обрабатываются исключительно в объеме, необходимом для достижения указанной цели, а значит, конституционные права работника на неприкосновенность частной жизни не были нарушены. Напротив, заслоняя обзор камеры, врач напрямую нарушил нормы ЛНА, поэтому объявление выговора в рассматриваемом случае является абсолютно правомерным.

Слежка дело тонкое



В сентябре 2017 года произошло событие, оказавшее огромное влияние на мировую судебную практику в сфере отслеживания начальством действий подчиненных во время исполнения ими служебных обязанностей, отразившееся в том числе и на законодательстве Российской Федерации. Речь идет о пересмотре дела Барбулеску против Румынии Большой палатой Европейского суда по правам человека. Вкратце напомним суть дела.

Кейс 6


Сотрудник B был уволен за использование служебного аккаунта в мессенджере Yahoo для личной переписки, причем у его непосредственного начальника была возможность отслеживать сообщения в чатах в режиме реального времени. B, посчитав данный инцидент грубым нарушением права на тайну личной переписки, обратился сперва в местный суд, а затем и в ЕСПЧ. Все перечисленные инстанции признали действия работодателя законными. Однако Большая палата с этим выводом не согласилась, все же усмотрев в действиях начальства B определенные нарушения. Согласно постановлению ЕСПЧ, вынесенному 5 сентября 2017 года, работодатель обязан:

  • Предварительно уведомить сотрудника о том, что за его деятельностью будет осуществляться контроль.

При этом подчиненному необходимо сообщить о типе контроля (видеонаблюдение, программа мониторинга, установленная на рабочий ПК) и его глубине (анализ истории браузера, отслеживание переписки в реальном времени, стриминг рабочего стола и т. д.).

  • Выбрать соразмерную степень контроля за работником в зависимости от исполняемых им должностных обязанностей.

Работодатель обязан выбирать такой вариант контроля подчиненных, который позволил бы защитить его законные интересы, однако при этом не был бы чрезмерным. Так, например, если сотрудник имеет доступ к конфиденциальной информации, составляющей коммерческую тайну, установка на его служебный компьютер многофункциональной программы мониторинга, способной отслеживать практически любые действия пользователя и фильтровать сетевой трафик, вполне оправдана. В то же время установка подобного ПО на смартфон обычного курьера, который занимается доставкой еды, является избыточной мерой: здесь достаточно отслеживания его передвижений в рабочее время по GPS.

  • Работодатель может вмешиваться в личную жизнь сотрудника лишь в той мере, которая необходима для отслеживания исполнения им трудовых обязанностей.

Как мы выяснили выше, если сотрудник вел личную переписку с рабочего компьютера и отправленные e-mail или сообщения в мессенджере были перехвачены и прочитаны начальством, это не является нарушением тайны переписки, а полученные таким образом сведения могут использоваться в качестве доказательств в суде (например, в том случае, когда имело место разглашение информации, составляющей коммерческую тайну). Однако при этом работодатель должен принять все возможные меры для предотвращения разглашения информации о личной жизни работника и содержании его корреспонденции, не имеющей отношения к делу, ограничить круг лиц, которые смогут просматривать и оценивать характер переписки, и избегать избыточного цитирования личных писем в документах дисциплинарного расследования.

Все перечисленное справедливо и для российского законодательства, однако первый пункт требует некоторых уточнений. В соответствии с законами РФ обычное уведомление о контроле с помощью видеонаблюдения или специализированного ПО не имеет юридической силы, а значит, не может регулировать трудовые взаимоотношения между работником и работодателем. В данном случае, согласно статье 8 ТК РФ, требуется принятие соответствующего ЛНА. Это может быть как отдельный документ (например, Положение о контроле за профессиональной деятельностью сотрудников), так и особый раздел или пункт в действующем локальном нормативном акте, регламентирующем использование корпоративной почты, введение режима коммерческой тайны и т. д. На эту необходимость указывает, в частности, постановление Конституционного суда Российской Федерации 25-П от 26 октября 2017 года. После принятия нового ЛНА или изменения существующего, работник, в соответствии с ч. 2 ст. 22, ст. 68, ст. 86 ТК РФ, должен быть ознакомлен с данным документом под подпись.

Напоследок нам осталось обсудить правовые аспекты наблюдения за подчиненными в режиме дистанционной работы. Впрочем, давайте привнесем в сегодняшний материал толику интерактива. Поскольку мы с вами уже рассмотрели немало кейсов, затрагивающих работу в офисе, попробуйте самостоятельно ответить на несколько вопросов о контроле сотрудников на удаленке. Если вы внимательно прочли сегодняшнюю статью, то сможете сделать это без особых затруднений. Итак, приступим.

  1. Можно ли использовать для контроля за сотрудником, находящимся на удаленной работе, систему видеонаблюдения? Если да, то на каких основаниях? Если нет, то почему?
  2. Можно ли использовать специализированный софт для мониторинга ПК или ноутбука, предоставленного сотруднику работодателем для исполнения профессиональных обязанностей на удаленной работе? Если да, то на каких основаниях? Если нет, то почему?
  3. Можно ли использовать специализированный софт для мониторинга личных девайсов сотрудника, которые тот использует во время дистанционной работы? Если да, то на каких основаниях? Если нет, то почему?

Когда будете готовы, просто загляните под спойлер, чтобы проверить себя.

Ответы для самопроверки
1. Нет. Вы не имеете права устанавливать систему видеонаблюдения или требовать подключение к домашней системе безопасности сотрудника, находящегося на удаленной работе, поскольку в соответствии со ст. 23 Конституции РФ это будет прямым нарушением права человека на неприкосновенность частной жизни.

2. Да. Как мы уже писали выше, в случае, если вы предоставили сотруднику необходимый для работы компьютер, ноутбук, или другой девайс, то имеете полное право устанавливать на него любой софт, включая программы, отслеживающие действия пользователя (ч. 1 и ч. 2 ст. 22 ТК РФ). В данном случае не имеет значения, где работник использует вверенный ему ПК в офисе или дома. Факт использования контролирующего ПО, его тип, объем, в котором будет осуществляться сбор данных, должны быть отражены в локальных нормативных актах, а самого сотрудника необходимо предварительно уведомить под подпись о ведущемся наблюдении с помощью программных средств (ч. 2 ст. 22, ст. 68, ст. 86 ТК РФ).

3. Можно, но с важной оговоркой. Поскольку сотрудник будет использовать один и тот же девайс как для работы, так и в личных целях, в ЛНА должно быть четко описано не только то, какими программными средствами будет осуществляться контроль и в каком объеме, но и временной период, в течение которого программа мониторинга будет контролировать действия пользователя. Такой подход отвечает третьему принципу из решения ЕСПЧ по делу Барбулеску против Румынии, согласно которому наблюдение за работой подчиненных должно вестись в адекватном объеме. Как и в случае с оборудованием, предоставленным работодателем, для установки программ мониторинга на собственные девайсы сотрудника требуется письменное согласие последнего.
Подробнее..

Western Digital начинает поставки корпоративных HDD объемом до 20 ТБ

10.07.2020 14:07:02 | Автор: admin


Компания Western Digital анонсировала выход сразу нескольких моделей емких HDD для корпоративного использования. Обновление получили линейки Gold и Ultrastar. В первом случае диски уже можно купить, во втором речь идет об анонсе новых моделей, которые станут доступны не ранее следующего квартала.

WD Gold это носители для корпоративных систем хранения данных. Рядовой пользователь тоже может их приобрести, но позиционируются они как серверные. Линейка жестких дисков Gold поддерживает только интерфейс SATA. Производитель дает на них пятилетнюю гарантию.

Линейка пополнилась моделями на 16 ТБ и 18 ТБ. Скорость передачи данных для моделей объемом в 16 ТБ составляет 262 Мбайт/с, для устройств на 18 ТБ этот показатель чуть выше 269 Мбайт/с. Кэш-буфер у обеих моделей 512 Мбайт. Производитель заявляет, что срок безотказной работы обеих моделей 2,5 млн часов.


Вторая новость о расширении линейки жестких дисков Ultrastar DC моделями с емкостью 16 и 18 ТБ (HC550). Как и предыдущие HDD, они предназначены для использования в корпоративной среде. Их отличие от родственников поддержка не одного, а двух интерфейсов, не только SATA, но и SAS 12G. Скорость передачи данных у моделей емкостью 16 и 18 ТБ 250 МБайт/с и 257 МБайт/с соответственно.


В этих HDD используется технология CMR (Conventional Magnetic Recording), то есть данные хранятся в параллельных дорожках без перекрытия. Последнее актуально для технологии SMR (Shingled Magnetic Recording). Ее достоинство возможность повышения плотности записи, недостаток снижение производительности. У дисков по девять пластин, скорость работы которых 7200 RPM. Объем буфера DRAM - 512 МБ.

Среди прочих преимуществ дисков защита от вибраций, увеличенная производительность, повышенная надежность. На обе модели также распространяется пятилетняя гарантия. Заявленная стоимость 630 евро. Правда, купить HDD объемом в 20 ТБ можно будет не ранее следующего квартала.

Компания Western Digital на дисках не остановилась. Новыми моделями пополнились и линейки гибридных полок JBOD Ultrastar Data60 и Data102, плюс Serv60+8.


Системы будут поставляться вместе с новыми HDD со следующего квартала. Характеристики платформ 1.836PB, 4U. Гарантия на них, как и на жесткие диски, пять лет.


Новая технология охлаждения термальной зоны дисковых полок ArcticFlow дает возможность дискам работать при более низких температурах, чем обычно. Соответственно, вентиляторы работают не на полную мощность, вибрации и шума меньше, а надежность работы выше.
Хотите собрать свой идеальный сервер? Создайте его в нашем конфигураторе.

Подробнее..

Портативные консоли Nintendo от Game amp Watch до Nintendo Switch

24.08.2020 22:08:53 | Автор: admin


На протяжении последних 40 лет Nintendo активно экспериментирует в сфере мобильного гейминга, пробуя разнообразные концепции и порождая новые тренды, которые вслед за ней подхватывают другие производители игровых консолей. За это время компания создала немало портативных игровых систем, среди которых практически не было откровенно неудачных. Квинтэссенцией многолетних изысканий Nintendo должна была стать Nintendo Switch, но что-то пошло не так: единственная в своем роде гибридная игровая консоль оказалась на удивление сырой и откровенно недоработанной во множестве аспектов.

40 лет в мобильном гейминге: ретроспектива портативных консолей Nintendo


Если бы Nintendo Switch была первой портативной консолью, созданной японской компанией, на многие проблемы можно было бы закрыть глаза. В конце концов, каждый имеет право на ошибку, особенно вторгаясь в ранее неизведанные области. Но загвоздка в том, что Nintendo разрабатывает успешные и вполне качественные портативные игровые системы на протяжении вот уже 40 лет, и в этом свете прогулки по одним и тем же граблям выглядят по меньшей мере странно. Впрочем, не будем забегать вперед. Для начала давайте посмотрим, с чего начинался путь японской компании на поприще мобильного гейминга и чего Nintendo удалось достичь за эти годы.

Game & Watch, 1980 год


Первая портативная консоль Nintendo увидела свет в 1980 году. Устройство, которое придумал Гумпэй Ёкои, получило название Game & Watch и в каком-то смысле представляло собой карманную версию домашней системы Color TV-Game. Принцип тот же: одно устройство одна игра, и никаких сменных картриджей. Всего было выпущено 60 моделей с различными играми, среди которых были Donkey Kong и Zelda.



Хотя в СССР консоли Game & Watch официально не поставлялись, жителям постсоветского пространства эти устройства хорошо знакомы благодаря клонам, получившим название Электроника. Так, Nintendo EG-26 Egg превратилась в Ну, погоди!, Nintendo OC-22 Octopus в Тайны океана, а Nintendo FP-24 Chef в Веселый повар.


Тот самый волк с яйцами из нашего детства

Game Boy, 1989 год


Логичным развитием идей Game & Watch стала портативная консоль Game Boy, над созданием которой трудился все тот же Гумпэй Ёкои. Главной фишкой нового девайса стали сменные картриджи, а среди самых продаваемых игр на платформе, помимо ожидаемых Марио и Покемонов, оказался всенародно любимый Тетрис.



Game Boy получил монохромный дисплей с разрешением 160144 пикселей, мог похвастаться 4-канальной аудиосистемой и поддерживал функцию GameLink, позволяя объединять два устройства с помощью кабеля и играть в локальный мультиплеер на пару с другом.

В последующие годы Nintendo выпустила еще две модификации портативной консоли. Первая из них, Game Boy Pocket, увидела свет в 1996 году. Обновленная версия приставки оказалась на 30% компактнее предшественника, да к тому же еще и легче за счет того, что теперь устройство получало питание от 2 батареек AAA, тогда как в оригинале использовались 4 AA-элемента (правда, из-за этого время автономной работы консоли сократилось с 30 до 10 часов). Помимо этого, Game Boy Pocket обзавелся более крупным дисплеем, хотя его разрешение и осталось прежним. В остальном же обновленная консоль была полностью идентична оригиналу.


Сравнение Game Boy и Game Boy Pocket

Позднее, в 1998 году, модельный ряд портативных консолей Nintendo пополнил Game Boy Light, получивший встроенную подсветку экрана. Аппаратная платформа вновь осталась неизменной, однако инженеры корпорации смогли добиться существенного снижения энергопотребления: для питания карманной консоли использовались 2 батарейки AA, заряда которых хватало почти на сутки непрерывной игры с выключенной подсветкой или на 12 часов с включенной. К сожалению, Game Boy Light так и остался эксклюзивом для японского рынка. Во многом это было связано со скорым выходом Game Boy Color: в Nintendo попросту не хотели тратиться на продвижение консоли предыдущего поколения в других странах, ведь она уже никак не могла составить достойной конкуренции новинке.


Game Boy Light с включенной подсветкой

Game Boy Color, 1998 год


Game Boy Color была обречена на успех, став первой портативной консолью, получившей цветной жидкокристаллический экран, способный отображать до 32 тысяч цветов. Существенные изменения претерпела и начинка устройства: сердцем GBC стал процессор Z80 с частотой 8 МГц, объем оперативной памяти вырос в 4 раза (32 КБ против 8 КБ), а видеопамяти в 2 раза (16 КБ против 8 КБ). В то же время разрешение экрана и сам форм-фактор устройства остались прежними.


А еще Game Boy Color был доступен в 8 цветовых решениях

За время существования системы для нее вышло 700 разнообразных игр в различных жанрах, а среди приглашенных звезд затесалась даже специальная версия Alone in the Dark: The New Nightmare. Увы, одна из самых красивых игр, выпущенных для первой PlayStation, выглядела на Game Boy Color просто отвратительно и в целом была малоиграбельной.


Alone in the Dark: The New Nightmare для Game Boy Color пиксельарт, который мы не заслужили

Интересно, что Game Boy Color поддерживал обратную совместимость с предыдущим поколением карманных консолей, позволяя запускать любые игры для оригинального Game Boy.

Game Boy Advance, 2001 год


Выпущенный спустя 3 года Game Boy Advance уже куда больше напоминал современный Switch: экран теперь находился посередине, а органы управления были разнесены по боковинам корпуса. С учетом миниатюрных размеров консоли такой дизайн оказался более эргономичным, нежели изначальный.



Основой обновленной платформы стал 32-разрядный процессор ARM7 TDMI с тактовой частотой 16,78 МГц (хотя существовала и версия, работающая на стареньком Z80), объем встроенной RAM остался прежним (32 КБ), однако появилась поддержка внешней оперативной памяти вплоть до 256 КБ, тогда как VRAM выросла до честных 96 КБ, что позволяло не только увеличить разрешение экрана до 240160 пикселей, но и заигрывать с каким-никаким, но 3D.

Как и ранее, не обошлось без особых модификаций. В 2003 году Nintendo выпустила Game Boy Advance SP в форм-факторе раскладушки со встроенным литий-ионным аккумулятором (оригинал по старинке питался от двух пальчиковых батареек). А в 2005-м в рамках ежегодной E3 была представлена еще более миниатюрная версия карманной консоли, получившая название Game Boy Micro.


Game Boy Advance SP и Game Boy Micro

Именно эта малышка ознаменовала собой закат эпохи Game Boy, став полным коммерческим провалом, что и немудрено: Game Boy Micro оказалась буквально зажата в клещах между Advance SP и действительно прорывной на момент появления Nintendo DS. Ко всему прочему, Game Boy Micro была на порядок хуже Advance SP по функционалу: консоль лишилась поддержки игр с предыдущего поколения Game Boy и возможности игры в мультиплеер с помощью Link-кабеля для разъема на миниатюрном корпусе попросту не нашлось места. Впрочем, это не значит, что консоль была плоха: просто при ее создании Nintendo сделала ставку на довольно узкую целевую аудиторию, готовую пойти на любые жертвы ради того, чтобы иметь возможность играть в любимые игры где и когда угодно.

Nintendo DS, 2004 год



Nintendo DS стала подлинным хитом: если консоли семейства Game Boy разошлись суммарным тиражом 118 миллионов экземпляров, то общие продажи различных модификаций DS превысили 154 миллиона устройств. Причины столь оглушительного успеха лежат на поверхности.


Оригинальная Nintendo DS

Во-первых, по тем временам Nintendo DS была действительно мощной: процессор ARM946E-S частотой 67 МГц и сопроцессор ARM7TDMI частотой 33 МГц в сочетании с 4 МБ оперативной и 656 КБ видеопамяти с дополнительным буфером на 512 КБ для текстур помогали добиться отменной картинки и обеспечивали полноценную поддержку 3D-графики. Во-вторых, консоль получила 2 экрана, один из которых являлся сенсорным и использовался в качестве дополнительного элемента управления, что помогло реализовать множество уникальных геймплейных фишек. Наконец, в-третьих, консоль поддерживала локальный мультиплеер по WiFi, что позволяло играть с друзьями без лагов и задержек. Ну а в качестве бонуса присутствовала возможность запускать игры с Game Boy Advance, для чего был предусмотрен отдельный слот под картриджи. Одним словом, не консоль, а настоящая мечта.

Через 2 года свет увидела Nintendo DS Lite. Несмотря на название, это была отнюдь не урезанная, а улучшенная версия портативной консоли. Емкость аккумулятора в новой ревизии возросла до 1000 мАч (против 850 мАч ранее), а выполненные по более тонкому техпроцессу микрочипы стали куда экономичнее, что позволило достичь впечатляющих 19 часов автономной работы при минимальном уровне яркости экрана. Среди изменений также стоит отметить более качественные ЖК-дисплеи, обеспечивающие лучшую цветопередачу, снижение массы на 21% (до 218 г), более компактные размеры и расширение функционала вторичного порта, который теперь поддерживал подключение разнообразных аксессуаров вроде специального контроллера для игры в Guitar Hero.


Nintendo DS Lite

В 2008 году была выпущена Nintendo DSi. Эта консоль оказалась примерно на 12% тоньше предшественницы, получила 256 МБ встроенной памяти и слот под карты SDHC, а также обзавелась парой VGA-камер (0,3 мегапикселя), которые можно было использовать для создания забавных аватаров в фирменном фоторедакторе, а также в некоторых играх. В то же время девайс лишился GBA-разъема, а вместе с ним и поддержки запуска игр с Game Boy Advance.

Последней в этом поколении портативных консолей стала Nintendo DSi XL образца 2010 года. В отличие от предшественницы, она получила лишь увеличенные на дюйм экраны и удлиненный стилус.


Nintendo DS Lite и Nintendo DSi XL

Nintendo 3DS, 2011 год


3DS во многом стала экспериментом: в этой консоли добавили поддержку автостереоскопии технологии формирования 3D-изображения, не требующей дополнительных аксессуаров вроде анаглифных очков. Для этого девайс оснастили ЖК-экраном с разрешением 800240 пикселей с параллаксным барьером для создания трехмерной картинки, достаточно мощным двухъядерным процессором ARM11 частотой 268 МГц, 128 МБ оперативной памяти и графическим ускорителем DMP PICA200 производительностью 4,8 GFLOPS.


Оригинальная Nintendo 3DS

По традиции и эта портативная консоль обзавелась несколькими ревизиями:

  • Nintendo 3DS XL, 2012 год

Получила обновленные экраны: диагональ верхнего возросла до 4,88 дюйма, тогда как нижнего увеличилась до 4,18 дюйма.

  • Nintendo 2DS, 2013 год

Аппаратная часть полностью идентична оригиналу с той лишь разницей, что вместо стереоскопических дисплеев в Nintendo 2DS используются обычные двумерные. Сама же консоль была выполнена в форм-факторе моноблок.


Nintendo 2DS

  • New Nintendo 3DS и 3DS XL, 2015 год

Обе консоли были анонсированы и выпущены на рынок одновременно. Устройства получили более мощные основной процессор (ARM11 MPCore 4x) и сопроцессор (VFPv2 Co-Processor x4), а также вдвое больший объем оперативной памяти. Передняя камера теперь отслеживала положение головы игрока для повышения качества 3D-визуализации. Улучшения затронули и органы управления: справа появился миниатюрный аналоговый стик C-Stick, а на торцах курки ZL/ZR. XL-версия отличалась увеличенным экраном.


  • New Nintendo 2DS XL, 2017 год

Новая ревизия консоли вернулась к изначальному форм-фактору раскладушки и подобно 3DS XL обзавелась увеличенными дисплеями.

Nintendo Switch: что пошло не так?




В 2017 году на полках магазинов электроники появилась гибридная консоль Nintendo Switch, объединяющая в себе преимущества стационарных и мобильных игровых систем. И первое чувство, которое возникает после близкого знакомства с данным девайсом, крайняя степень недоумения.

Знаете, что общего между перечисленными выше портативными консолями? Все они являлись вполне качественными, добротными продуктами. Разумеется, идеальных устройств не бывает: та же 3DS запомнилась многим благодаря черному экрану смерти, причиной которого была программная ошибка в первой версии прошивки. Да и само появление нескольких редакций одной и той же консоли с многочисленными улучшениями красноречиво напоминает нам: предусмотреть все невозможно, особенно будучи первопроходцем на рынке.

При этом некоторые решения Nintendo были весьма спорными (взять те же камеры у DSi, которые использовались лишь в ограниченном кругу проектов), а некоторые модификации консолей откровенно неудачными. Здесь можно привести в пример Game Boy Micro, отличавшуюся компактными размерами, но во всем остальном уступавшую старшим братьям. Вот только в случае с Game Boy у вас был выбор из трех моделей, и в целом каждое из устройств было выполнено на достаточно качественном уровне. Иными словами, в былые годы Nintendo либо делали из хорошего девайса отличный, либо проводили эксперименты, которые не затрагивали конечного потребителя. С Nintendo Switch ситуация несколько иного толка.

Пусть первая ревизия консоли и не имеет каких-то фатальных недостатков, но она плоха в целом. Множество недочетов различной степени значимости доставляют ее владельцам массу неудобств, причем проблемы настолько очевидны, что остается лишь недоумевать: почему инженеры одной из самых успешных корпораций в сфере цифровых развлечений вообще допустили их появление, особенно если учитывать богатый опыт Nintendo в сфере разработки игровых платформ вообще и мобильных девайсов в частности? Не случайно в 2019 году журнал 60 Millions de Consommateurs, издаваемый Национальным институтом потребления Франции, вручил Nintendo Кактус (аналог Золотой малины от мира потребительской электроники), как создателю одного из самых хрупких девайсов.


Почетный кактус в огород Nintendo

И в объективности этой награды не приходится сомневаться. Достаточно вспомнить хотя бы историю с левым джойконом, который часто терял связь с консолью. Источником неприятностей оказалась излишне маленькая антенна, которая физически не могла принимать сигнал, когда игрок отходил от приставки слишком далеко. Причем объективных причин для такой миниатюризации не было вовсе. Внутри корпуса контроллера вполне достаточно места, чем и воспользовались наиболее рукастые геймеры: медная проволока и паяльник позволяли за пару минут добиться стабильной синхронизации. А на фотографии ниже вы можете видеть, так сказать, фирменное решение проблемы от официального сервисного центра Nintendo: на антенну попросту была наклеена прокладка из проводящего материала. Почему нечто подобное нельзя было сделать сразу, остается загадкой.



Другой проблемой оказался люфт в месте крепления контроллеров к корпусу, причем со временем джойконы разбалтывались до такой степени, что самопроизвольно вылетали из пазов. Решалась она опять же весьма просто: было достаточно лишь подогнуть металлические направляющие. Впрочем, это не поможет, когда (не если, а когда) пластиковые защелки на самих манипуляторах все же сломаются. Тут можно вспомнить люфт экрана 3DS, но, во-первых, такая проблема встречается во множестве девайсов-раскладушек в принципе, а во-вторых, ее масштабы несколько иные: если в случае с 3DS это практически не сказывается на пользовательском опыте, то когда речь заходит о Nintendo Switch, у вас есть все шансы разбить консоль, когда та внезапно отстыкуется от джойконов.

Многие игроки жалуются и на слишком скользкие и неудобные грибки, что делает весьма проблематичной игру в душном помещении или транспорте. Здесь на выручку приходит AliExpress, готовый предложить резиновые или силиконовые накладки на любой вкус. Но сама необходимость самостоятельного апгрейда консоли выглядит удручающе.



Ситуацию же с дрифтом аналоговых стиков сложно охарактеризовать иначе, чем возмутительная. Владельцы Switch обратили внимание на то, что через некоторое время после начала эксплуатации контроллер начинает фиксировать отклонение стиков от вертикальной оси в состоянии покоя. У кого-то проблема проявлялась через пару десятков часов игры, у кого-то лишь спустя несколько сотен, однако факт остается фактом: недостаток имеет место. При этом его причиной не является неосторожное обращение с устройством. Из-за особенности конструкции джойконов внутрь модулей постоянно попадает грязь (то есть контроллеры для портативной консоли, которые в принципе чаще пачкаются, защищены гораздо хуже, чем геймпады для домашнего использования), и именно загрязнение контактов и приводит к их залипанию. Решение элементарно: разборка и чистка модуля.


В некоторых случаях можно обойтись заливкой жидкости для чистки контактов под стик

И все бы хорошо, если бы Nintendo сразу признала собственную оплошность, согласившись на бесплатный ремонт или замену дефектных манипуляторов по гарантии. Однако компания долгое время отрицала существование проблемы дрифта, предлагая пользователям провести повторную калибровку джойконов или требуя $45 за ремонт. Лишь после коллективного иска, поданного американской юридической фирмой Chimicles, Schwartz Kriner & Donaldson-Smith от имени пострадавших покупателей, Nintendo начала менять дрейфующие джойконы в рамках гарантийных обязательств, а Сюнтаро Фурукава, президент корпорации, извинился перед всеми, кто столкнулся с данной проблемой.


Сюнтаро Фурукава, президент Nintendo

Вот только это мало на что повлияло. Во-первых, новая политика в отношении замены джойконов вступила в силу в ограниченном числе стран. Во-вторых, воспользоваться данным правом можно лишь один раз, а если дрифт появится вновь, придется ремонтировать (или менять) устройство за свой счет. Наконец, в-третьих, никакой работы над ошибками так и не было произведено: выпущенный в 2019 году Nintendo Switch Lite, равно как и новая ревизия основной консоли, имеет ровно те же самые проблемы с аналоговыми стиками. С той лишь разницей, что в случае с портативной версией контроллеры встроены непосредственно в корпус и об их замене не может быть и речи, а для чистки придется разобрать всю консоль.

Но и это еще не все. В то время как космические корабли бороздят просторы Большого театра, а noname-смартфоны щеголяют Gorilla Glass, модель Nintendo Switch получает пластиковый экран, собирающий царапины не только в дороге, но даже при установке в док-станцию. Последняя, к слову, лишена силиконовых направляющих, которые могли бы защитить дисплей от повреждений, так что без покупки защитной пленки никак не обойтись.


Бюджетный тюнинг док-станции убережет экран Nintendo Switch от царапин

Другая проблема касается подключения к Nintendo Switch беспроводных наушников. Это попросту невозможно. Консоль снабжена 3,5-миллиметровым миниджеком, за что японцам следует сказать спасибо, однако девайс не поддерживает Bluetooth-гарнитуры. Причины опять же неясны: сам по себе приемопередатчик у приставки есть, и его можно было бы задействовать по крайней мере в портативном режиме, когда джойконы общаются с приставкой по проводам, что было бы логично и весьма удобно. Пока же приходится использовать USB-адаптеры сторонних фирм, благо приставка оснащена USB Type-C с поддержкой USB Audio.

Кстати, если вы привыкли общаться с друзьями по ту сторону экрана голосом без каких-либо дополнительных девайсов, как это реализовано на PlayStation 4, то спешим разочаровать. Формально данная функция присутствует, но чтобы ей воспользоваться, вам придется скачать фирменное приложение Nintendo на смартфон. Да, все верно: портативная игровая платформа предлагает вам сидеть в войс-чате со стороннего девайса вместо того, чтобы разговаривать с тиммейтами через гарнитуру, подключенную к консоли.

Также многие игроки жалуются на проблемы в онлайне, пеняя на низкокачественный WiFi-модуль. Здесь, конечно, можно порассуждать о технической грамотности среднестатического пользователя и роутерах за 500 рублей, если бы только сам Масахиро Сакурай, ответственный за разработку Super Smash Bros., не порекомендовал бы игрокам приобрести внешний Ethernet-адаптер для игры по сети (консоль не имеет встроенного LAN-порта), что как бы намекает на осведомленность Nintendo о проблеме.


Масахиро Сакурай плохого не посоветует

Если брать во внимание эргономику, то и здесь есть мелкие недоработки. Взять ту же заднюю ножку: она слишком тонкая и смещена относительно центра тяжести консоли вбок, что делает устройство неустойчивым даже на ровной поверхности. Попробуйте поиграть в поезде, поставив Nintendo Switch на столик, и вы оцените все недостатки такого решения. Хотя, казалось бы, что может быть проще: стоит немного расширить опору, сместить ее к середине корпуса и проблема будет решена.


Хотя с ролью крышки отсека карт памяти ножка справляется отлично

Но как же обстоят дела с начинкой Nintendo Switch? Увы, здесь все тоже не совсем гладко. Во всяком случае, было вплоть до прошлого года, когда большая N выпустила обновленную ревизию консоли. Давайте бегло сравним оригинальную и обновленную версии и посмотрим, что изменилось.

Nintendo Switch 2019: что новенького?


Не будем ходить вокруг да около: предлагаем вашему вниманию таблицу, в которой наглядно продемонстрирована разница между Nintendo Switch образца 2017 года и новой версией 2019-го.

Ревизия


Nintendo Switch 2017


Nintendo Switch 2019


SoC


NVIDIA Tegra X1, 20 нм, 256 ядер GPU, NVIDIA Maxwell


NVIDIA Tegra X1, 16 нм, 256 ядер GPU, NVIDIA Maxwell


RAM


4 ГБ, Samsung LPDDR4, 3200 Мбит/с, 1,12 В


4 ГБ, Samsung LPDDR4X, 4266 Мбит/с, 0,65 В


Встроенная память


32 ГБ


Дисплей


IPS, 6,2'', 1280720


IPS IGZO, 6,2'', 1280720


Аккумулятор


4310 мАч



Нововведений не так уж и много, однако если первая ревизия Nintendo Switch ощущалась как бета-версия, то, взяв в руки обновленную консоль, можно сказать, что мы наконец дождались релиза. Что же изменилось к лучшему?

Объективно, если мы имеем дело с гибридной консолью, компромиссы неизбежны и каких-то впечатляющих результатов от такого девайса ожидать не приходится. Но загвоздка в том, что на старте продаж даже главная фишка Nintendo Switch, мобильность, практически не работала. Время жизни консоли при питании от аккумулятора составляло около 2,5 часов, если речь шла о крупном проекте вроде Legend of Zelda: Breath of the Wild, или чуть более 3 часов, если вы играли в 2D-инди-игру, что совсем несерьезно. Как несерьезно и таскать с собой PowerBank, особенно если вам предстоит длительная поездка и вы и без того загружены вещами.

В обновленной версии Nintendo Switch 2019 года эту проблему решили, причем достаточно оригинальным способом: путем замены 20-нанометрового SoC NVIDIA Tegra X1 на 16-нанометровый, а также с помощью перехода на усовершенствованные чипы памяти от Samsung. Поскольку вторая версия системы на кристалле потребляет заметно меньше энергии, а новая RAM Samsung оказалась на 40% более энергоэффективной, время автономной работы консоли увеличилось практически в 2 раза. При этом удалось избежать как удорожания девайса, так и увеличения его габаритов и массы, что было бы неизбежно при установке более емкого аккумулятора.

Консоль


Nintendo Switch 2017 года


Nintendo Switch 2019 года


Время автономной работы, 50% яркости дисплея


3 часа 5 минут


5 часов 2 минуты


Время автономной работы, 100% яркости дисплея


2 часа 25 минут


4 часа 18,5 минуты


Максимальная температура задней крышки


46 C


46 C


Максимальная температура на радиаторе


48 C


46 C


Максимальная температура на радиаторе в доке


54 C


50 C



Свою лепту, пусть и не столь значительную, вносит и улучшенный дисплей от Sharp, выполненный по технологии IGZO. Данная аббревиатура расшифровывается как Indium Gallium Zinc Oxide Оксид индия, галлия и цинка. Пиксели в таких матрицах не требуют постоянного обновления при отображении неподвижных объектов (например, HUD или интерфейса eShop) и меньше подвержены интерференции со стороны электронных компонентов экрана, что позволяет дополнительно снизить расход энергии. Помимо этого, IGZO-матрица лучше пропускает световой поток, что помогло повысить яркость подсветки, хотя в случае с Nintendo Switch лишь на чуть-чуть: 318 кд/м2 против 291 кд/м2. Также благодаря улучшенной матрице играть при ярком дневном свете стало куда комфортнее (у оригинала даже с этим были проблемы).

Что касается производительности, то здесь также наблюдаются изменения к лучшему. В первую очередь это заметно в играх с открытым миром: в той же Legend of Zelda: Breath of the Wild просадки FPS в сложных сценах уже не столь чудовищны, как ранее, повышение пропускной способности RAM дает о себе знать.



Интересно, что разница в температурах между старой и новой версиями минимальна, но в то же время консоль 2019 года стала заметно тише: очевидно, скорость вращения вентилятора была намеренно снижена в пользу меньшей шумности и опять же экономии энергии. С учетом температуры 50 C на радиаторе под нагрузкой, такое решение вполне оправданно.

Если же говорить о контроллерах, то джойконы получили обновленные корпуса из более качественного пластика: конечно, не софттач, но держать в руках их стало куда приятнее. Проблема с антенной левого контроллера, как и с люфтом креплений к корпусу, была решена (хотя защелки остались пластиковыми), а вот со стиками все по-прежнему: та же конструкция, те же риски загрязнения и появления дрифта со временем. Так что для игры дома лучше все же докупить Pro-контроллер, тем более что с точки зрения эргономики он гораздо удобнее.

В свете всего сказанного выше мы настоятельно рекомендуем каждому, кто лишь собирается приобщиться к удивительному миру Nintendo (и это ни в коем случае не сарказм, ведь сегодня японская корпорация фактически является последним крупным платформодержателем, делающим ставку на геймплей и выпускающим ИГР, а не претенциозные пустышки, интерактивное кино или аттракционы на пару вечеров), приобрести именно последнюю ревизию Switch образца 2019 года. Отличить новую версию консоли от предыдущей предельно просто:

  • Коробка Nintendo Switch 2019 стала полностью красной.



  • Серийный номер, указанный в нижней части упаковки, должен начинаться с букв XK (у оригинального Switch серийный номер начинается с XA).



  • Модификация и год выпуска устройства также указаны на корпусе консоли: на девайсе последней ревизии должно быть написано MOD. HAC-001(01), MADE IN CHINA 2019, HAD-XXXXXX, тогда как у консолей первой ревизии MOD. HAC-001, MADE IN CHINA 2016, HAC-XXXXXX.



Что-то с памятью моей стало, я ни Марио, ни Линка не помню...


Существует и еще одна проблема, решения которой поклонники Nintendo так и не дождались: чрезвычайно малый объем встроенной памяти. Емкость системного накопителя Switch составляет всего 32 ГБ, из которых пользователю доступны лишь 25,4 гигабайта (остальное занимает ОС консоли), при этом никаких Premium или Pro Edition, которые несли бы на борту хотя бы 64 ГБ памяти, японский гигант не предлагает. Но сколько же весят сами игры? Давайте посмотрим.

Игра


Объем, ГБ


Super Mario Odyssey


5,7


Mario Kart 8 Deluxe


7


New Super Mario Bros. U Deluxe


2,5


Paper Mario: The Origami King


6,6


Xenoblade Chronicles: Definitive Edition


14


Animal Crossing: New Horizons


7


Super Smash Bros.


16,4


DRAGON QUEST XI S: Echoes of an Elusive Age Definitive Edition


14,3


The Legend of Zelda: Links Awakening


6


The Legend of Zelda: Breath of the Wild


14,8


Bayonetta


8,5


Bayonetta 2


12,5


ASTRAL CHAIN


10


Witcher 3: Wild Hunt


28,7


Doom


22,5


Wolfenstein II: The New Colossus


22,5


The Elder Scrolls V: Skyrim


14,9


L.A. Noire


28,1


Assassins Creed: Мятежники. Коллекция (Assassins Creed IV: Черный флаг + Assassins Creed Изгой)


12,2



Что же мы имеем? Мультиплатформенные проекты закономерно умещаются в памяти Nintendo Switch со скрежетом, а некоторые из них, вроде Ведьмака и Нуара, не влезают туда вовсе. Но даже когда речь заходит об эксклюзивах, картина вырисовывается неутешительная: вы можете загрузить The Legend of Zelda: Breath of the Wild, Animal Crossing: New Horizons, New Super Mario Bros. U Deluxe и на этом все. Если вы играете преимущественно дома, такие ограничения доставят минимум неудобств, хотя о предварительной загрузке речи уже не идет: перед скачиванием каждого нового релиза придется удалять одну или несколько уже установленных игр, а затем томиться в ожидании докачки дистрибутива из eShop. Кстати, сохранять памятные моменты своих прохождений вы тоже не сможете, так как места под видео попросту не останется.

Если же вы собираетесь в отпуск или командировку, да еще и в места, где про WiFi уже что-то слышали, но никогда не пользовались, то лучше сразу установить 23 игры, в которых вы гарантированно проведете не один десяток (а то и несколько сотен) часов, вроде Legend of Zelda или Animal Crossing. Конечно, есть еще вариант запастись картриджами впрок, но, во-первых, это неудобно, а во-вторых, помогает отнюдь не всегда. В целях удешевления размер картриджей ограничен 16 гигабайтами, так что, например, поиграть в L.A. Noire без дозагрузки ассетов у вас не выйдет вообще, в случае с DOOM вы получите лишь сингловую кампанию, а купив Bayonetta 1 + 2 Nintendo Switch Collection, сможете поиграть только в сиквел: вместо картриджа с первой частью внутри коробки вы найдете лишь наклейку с кодом для eShop.


Специальное предложение: одна Байонетта по цене двух

Впрочем, существует и альтернативное решение: забыть о проблемах с недостатком памяти поможет покупка флеш-карты SanDisk for Nintendo Switch. Карты памяти данной линейки лицензированы Nintendo, что гарантирует их совместимость с портативной консолью и соответствие оптимальным требованиям, предъявляемым японской корпорацией к игровым накопителям данных.

Серия SanDisk for Nintendo Switch включает в себя три модели microSD-карт: на 64, 128 и 256 ГБ. Каждая из них соответствует скоростным характеристикам стандарта SDXC: производительность карточек достигает 100 МБ/с в операциях последовательного чтения и 90 МБ/с (для моделей на 128 и 256 ГБ) при последовательной записи, что обеспечивает высокую скорость загрузки и установки игр, а также исключает падение фреймрейта в играх с открытым миром при стриминге текстур.



Помимо высокой производительности, карты памяти SanDisk for Nintendo Switch могут похвастаться превосходной устойчивостью к факторам внешней среды и техногенным воздействиям. Карты памяти SanDisk:

  • сохраняют работоспособность даже спустя 72 часа пребывания в пресной или соленой воде на глубине вплоть до 1 метра;
  • выдерживают падение с высоты до 5 метров на бетонный пол;
  • способны функционировать при экстремально низких (до -25 C) и экстремально высоких (до +85 C) температурах в течение 28 часов;
  • защищены от воздействия рентгеновского излучения и статических магнитных полей с силой индукции до 5000 Гс.

Таким образом, приобретая карты памяти SanDisk for Nintendo Switch, вы можете быть на 100% уверены в том, что ваша коллекция видеоигр будет в полной безопасности.



Напоследок мы хотели бы дать вам несколько советов по поводу выбора объема флеш-карты для Nintendo Switch. Все дело в том, что даже с карточками памяти консоль взаимодействует, мягко говоря, весьма специфично. Вот что необходимо знать:

  • На карту памяти можно записывать любые данные (игры, DLC, скриншоты, видеоролики), кроме сохранений. Последние всегда остаются в памяти устройства.
  • Перенести игру с системного накопителя Switch на microSD-карточку невозможно. Чтобы освободить внутреннюю память консоли, придется заново скачивать дистрибутив из eShop. Скриншоты и видео можно экспортировать и импортировать без ограничений.
  • Nintendo рекомендует использовать лишь одну карту памяти, так как их частые замены могут привести к некорректной работе устройства.
  • Если вы все же используете 2 (или более) карты одновременно, то в будущем не сможете перенести игры с них на одну карточку. Все дистрибутивы в этом случае придется скачивать и устанавливать заново.

С учетом перечисленных особенностей мы рекомендуем приобрести карту памяти сразу вместе с консолью, дабы впоследствии не мучиться с трансфером данных. Кроме того, советуем тщательно обдумать, как именно вы собираетесь использовать консоль. Покупаете Switch исключительно ради эксклюзивов Nintendo и возможности играть в инди-игры в дороге? В этом случае можно обойтись и 64 гигабайтами. Планируете использовать приставку в качестве основной игровой платформы и брать девайс с собой в длительные путешествия? Лучше сразу обзавестись карточкой на 256 ГБ.
Подробнее..

Важнейшие вехи в истории развития систем видеонаблюдения

15.10.2020 20:21:55 | Автор: admin

Функции современных систем наблюдения давно вышли за рамки видеофиксации как таковой. Определение движения в зоне интереса, подсчет и идентификация людей и транспортных средств, ведение объекта в потоке сегодня на все это способны даже не самые дорогие IP-камеры. При наличии же достаточно производительного сервера и необходимого ПО возможности охранной инфраструктуры становятся практически безграничны. А ведь когда-то подобные системы не умели даже записывать видео.

От пантелеграфа до механического телевизора


Первые попытки передачи изображения на расстояние предпринимались еще во второй половине XIX века. В 1862 году флорентийский аббат Джованни Казелли создал устройство, способное не только передавать, но и принимать изображение по электрическим проводам пантелеграф. Вот только назвать этот агрегат механическим телевизором можно было лишь с очень большой натяжкой: фактически итальянский изобретатель создал прототип факсимильного аппарата.


Пантелеграф Джованни Казелли

Электрохимический телеграф Казелли функционировал следующим образом. Передаваемое изображение сперва конвертировали в подходящий формат, перерисовывая токонепроводящими чернилами на пластине станиоля (оловянной фольги), а затем фиксируя зажимами на изогнутой медной подложке. В роли считывающей головки выступала золотая игла, построчно сканирующая металлический лист с шагом 0,5 мм. Когда игла оказывалась над участком с непроводящими чернилами, цепь заземления размыкалась и ток подавался на провода, связывающие передающий пантелеграф с принимающим. В это же время игла приемника перемещалась над листом плотной бумаги, пропитанной смесью желатина и гексацианоферрата калия. Под действием электрического тока соединение темнело, за счет чего и формировалось изображение.

Такой аппарат обладал массой недостатков, среди которых необходимо выделить низкую производительность, потребность в синхронизации приемника и передатчика, от точности которой зависело качество итогового изображения, а также трудоемкость и дороговизну обслуживания, вследствие чего век пантелеграфа оказался чрезвычайно короток. Так, например, аппараты Казелли, использовавшиеся на телеграфной линии Москва Санкт-Петербург, проработали немногим более 1 года: будучи введенными в эксплуатацию 17 апреля 1866 года, в день открытия телеграфного сообщения между двумя столицами, пантелеграфы были демонтированы уже в начале 1868 года.

Куда более практичным оказался бильдтелеграф, созданный в 1902 году Артуром Корном на основе первого фотоэлемента, придуманного русским физиком Александром Столетовым. Устройство получило мировую известность 17 марта 1908 года: в этот день с помощью бильдтелеграфа из полицейского участка Парижа в Лондон была передана фотография преступника, благодаря которой полисменам впоследствии удалось вычислить и задержать злоумышленника.


Артур Корн и его бильдтелеграф

Подобный агрегат обеспечивал неплохую детализацию фотографического изображения и уже не требовал его специальной подготовки, однако для передачи картинки в реальном времени все еще не годился: на обработку одной фотографии уходило около 1015 минут. Зато бильдтелеграф неплохо прижился в криминалистике (его успешно использовала полиция для передачи снимков, фотороботов и отпечатков пальцев между отделениями и даже странами), а также в новостной журналистике.

Настоящий прорыв в данной сфере состоялся в 1909 году: именно тогда Жоржу Рину удалось добиться передачи изображения с частотой обновления 1 кадр в секунду. Поскольку телефотографический аппарат имел сенсор, представленный мозаикой из селеновых фотоэлементов, а его разрешающая способность составляла всего 8 8 пикселей, он так и не вышел за пределы лабораторных стен. Однако сам факт его появления заложил необходимую базу для дальнейших изысканий в сфере трансляции изображения.

По-настоящему преуспел на данном поприще шотландский инженер Джон Бэрд, который и вошел в историю, как первый человек, которому удалось осуществить передачу изображения на расстояние в режиме реального времени, поэтому именно его и принято считать отцом механического телевидения (да и телевидения в целом). Учитывая, что Бэрд едва не лишился жизни во время своих экспериментов, получив удар током в 2000 вольт во время замены фотоэлектрического элемента в созданной им камере, такое звание абсолютно заслуженно.


Джон Бэрд, изобретатель телевидения

В творении Бэрда использовался специальный диск, изобретенный немецким техником Паулем Нипковом еще в 1884 году. Диск Нипкова из непрозрачного материала с рядом отверстий равного диаметра, расположенных по спирали в один оборот от центра диска на равном угловом расстоянии друг от друга, применялся как для сканирования изображения, так и для его формирования на принимающем аппарате.


Устройство диска Нипкова

Объектив фокусировал изображение объекта съемки на поверхности вращающегося диска. Свет, проходя через отверстия, попадал на фотоэлемент, благодаря чему изображение конвертировалось в электрический сигнал. Поскольку отверстия были расположены по спирали, каждое из них фактически осуществляло построчное сканирование определенного участка изображения, сфокусированного объективом. Точно такой же диск присутствовал и в устройстве воспроизведения, однако позади него располагалась мощная электрическая лампа, воспринимающая колебания освещенности, а перед ним увеличительная линза или система линз, проецирующая изображение на экран.


Принцип работы механических телевизионных систем

Аппарат Бэрда использовал диск Нипкова с 30 отверстиями (как следствие, получаемое изображение имело развертку всего 30 линий по вертикали) и мог сканировать объекты с частотой 5 кадров в секунду. Первый успешный эксперимент по передаче черно-белого изображения состоялся 2 октября 1925 года: тогда инженеру удалось впервые транслировать с одного устройства на другое полутоновое изображение куклы чревовещателя.

Во время проведения эксперимента в дверь позвонил курьер, который должен был доставить важную корреспонденцию. Воодушевленный успехом Бэрд схватил обескураженного молодого человека за руку и провел в свою лабораторию: ему не терпелось оценить, как его детище справится с передачей изображения человеческого лица. Так 20-летний Вильям Эдвард Тэйнтон, оказавшись в нужное время в нужном месте, вошел в историю как первый человек, попавший в телевизор.

В 1927 году Бэрд провел первую телетрансляцию между Лондоном и Глазго (на расстояние 705 км) по телефонным проводам. А в 1928 году основанная инженером компания Baird Television Development Company Ltd успешно осуществила первую в мире трансатлантическую передачу телевизионного сигнала между Лондоном и Хартсдейлом (штат Нью-Йорк). Демонстрация возможностей 30-полосной системы Бэрда оказалась лучшей рекламой: уже в 1929 году ее взяла на вооружение BBC и успешно использовала в течение последующих 6 лет, вплоть до тех пор, пока ее не вытеснила более совершенная аппаратура на основе электронно-лучевых трубок.

Иконоскоп предвестник новой эры


Появлением электронно-лучевой трубки мир обязан нашему бывшему соотечественнику Владимиру Козьмичу Зворыкину. В годы Гражданской войны инженер принял сторону белого движения и бежал через Екатеринбург в Омск, где занимался оборудованием радиостанций. В 1919 году Зворыкин отправился в командировку в Нью-Йорк. Как раз в это время состоялась Омская операция (ноябрь 1919 года), итогом которой стало взятие города Красной армией практически без боя. Поскольку инженеру больше некуда было возвращаться, он остался в вынужденной эмиграции, став сотрудником компании Westinghouse Electric (в настоящее время CBS Corporation), уже тогда являвшейся одной из ведущих электротехнических корпораций США, где параллельно занимался изысканиями в сфере передачи изображения на расстояние.


Владимир Козьмич Зворыкин, создатель иконоскопа

К 1923 году инженеру удалось создать первое телевизионное устройство, в основу которого легла передающая электронная трубка с мозаичным фотокатодом. Однако новое начальство не воспринимало работы ученого всерьез, так что долгое время Зворыкину приходилось вести исследования самостоятельно, в условиях крайне ограниченных ресурсов. Возможность вернуться к полноценной исследовательской деятельности представилась Зворыкину лишь в 1928 году, когда ученый познакомился с другим эмигрантом из России Давидом Сарновым, занимавшим на тот момент пост вице-президента компании Radio Corporation of America (RCA). Найдя идеи изобретателя весьма перспективными, Сарнов назначил Зворыкина руководителем лаборатории электроники RCA, и дело сдвинулось с мертвой точки.

В 1929 году Владимир Козьмич представил рабочий прототип высоковакуумной телевизионной трубки (кинескопа), а в 1931 году завершил работу над принимающим устройством, названным им иконоскоп (от греч. eikon образ и skopeo смотреть). Иконоскоп представлял собой вакуумную стеклянную колбу, внутри которой были закреплены светочувствительная мишень и расположенная под углом к ней электронная пушка.


Принципиальная схема иконоскопа

Светочувствительная мишень размером 6 19 см была представлена тонкой пластиной изолятора (слюды), на одну сторону которой были нанесены микроскопические (размером в несколько десятков микрон каждая) серебряные капли в количестве около 1 200 000 штук, покрытые цезием, а на другую сплошное серебряное покрытие, с поверхности которого и снимался выходной сигнал. При освещении мишени под действием фотоэффекта капельки серебра приобретали положительный заряд, величина которого зависела от уровня освещенности.


Оригинальный иконоскоп в экспозиции Чешского национального музея техники

Иконоскоп лег в основу первых систем электронного телевидения. Его появление позволило значительно улучшить качество передаваемой картинки за счет многократного увеличения числа элементов в телевизионном изображении: с 300 400 точек в первых моделях до 1000 1000 точек в более совершенных. Хотя устройство не было лишено определенных недостатков, к числу которых необходимо отнести низкую чувствительность (для полноценной съемки требовалась освещенность не менее 10 тысяч люкс) и трапецеидальные искажения, вызванные несовпадением оптической оси с осью лучевой трубки, изобретение Зворыкина стало важной вехой в истории видеонаблюдения, во многом определив дальнейший вектор развития отрасли.

На пути от аналога к цифре


Как это часто бывает, развитию тех или иных технологий способствуют военные конфликты, и видеонаблюдение в данном случае не является исключением. В годы Второй мировой войны Третий рейх начал активную разработку баллистических ракет дальнего действия. Однако первые прототипы знаменитого оружия возмездия Фау-2 не отличались надежностью: ракеты частенько взрывались на старте или падали вскоре после взлета. Поскольку продвинутых систем телеметрии тогда еще в принципе не существовало, единственным способом определить причину неудач являлось визуальное наблюдение за процессом пуска, вот только дело это было крайне рискованным.


Подготовка к запуску баллистической ракеты Фау-2 на полигоне в Пенемюнде

Чтобы облегчить задачу разработчикам ракетного вооружения и не подвергать их жизни опасности, немецкий электротехник Вальтер Брух сконструировал так называемую CCTV-систему (Сlosed Circuit Television система телевидения замкнутого контура). Необходимое оборудование было установлено на полигоне в Пенемюнде. Творение немецкого электротехника позволило ученым наблюдать за ходом испытаний с безопасного расстояния в 2,5 километра, не опасаясь за собственные жизни.

При всех достоинствах система видеонаблюдения Бруха имела весьма существенный недостаток: в нем отсутствовало устройство видеофиксации, а значит, оператор не мог ни на секунду отлучиться со своего рабочего места. Серьезность данной проблемы позволяет оценить исследование, проведенное IMS Research уже в наше время. Согласно его результатам, физически здоровый, хорошо отдохнувший человек будет упускать из виду до 45% важных событий уже спустя 12 минут наблюдения, а через 22 минуты этот показатель достигнет отметки 95%. И если в сфере испытаний ракетного вооружения данный факт не играл особой роли, так как ученым не нужно было сидеть перед экранами несколько часов кряду, то применительно к охранным системам отсутствие возможности видеофиксации заметно сказывалось на их эффективности.

Так продолжалось вплоть до 1956 года, когда свет увидел первый видеомагнитофон Ampex VR 1000, созданный опять же нашим бывшим соотечественником Александром Матвеевичем Понятовым. Подобно Зворыкину, ученый принял сторону Белой армии, после поражения которой сперва эмигрировал в Китай, где на протяжении 7 лет проработал в одной из электроэнергетических компаний Шанхая, затем некоторое время жил во Франции, после чего в конце 1920-х годов переехал на постоянное жительство в США и получил в 1932 году американское гражданство.


Александр Матвеевич Понятов и прототип первого в мире видеомагнитофона Ampex VR 1000

В течение последующих 12 лет Понятов успел поработать в таких компаниях, как General Electric, Pacific Gas and Electric и Dalmo-Victor Westinghouse, однако в 1944 году принял решение основать собственное дело и зарегистрировал Ampex Electric and Manufacturing Company. Поначалу Ampex специализировалась на производстве высокоточных приводов для систем радиолокации, однако после войны деятельность компании была переориентирована на более перспективное направление производство устройств магнитной звукозаписи. В период с 1947 по 1953 год компания Понятова выпустила несколько весьма удачных моделей магнитофонов, нашедших применение в сфере профессиональной журналистики.

В 1951 году Понятов и его главные технические советники Чарльз Гинзбург, Вейтер Селстед и Мирон Столяров решили пойти дальше и разработать видеозаписывающее устройство. В том же году ими был создан прототип Ampex VR 1000B, использующий принцип поперечно-строчной записи информации вращающимися магнитными головками. Такая конструкция позволяла обеспечить необходимый уровень производительности для записи телевизионного сигнала с частотой несколько мегагерцев.


Схема поперечно-строчной записи видеосигнала

Первая коммерческая модель серии Apex VR 1000 увидела свет спустя 5 лет. На момент релиза устройство продавалось за 50 тысяч долларов, что по тем временам было огромной суммой. Для сравнения: вышедший в том же году Chevy Corvette предлагали всего за $ 3000, а этот автомобиль относился, на минуточку, к категории спорткаров.

Именно дороговизна оборудования в течение долгого времени оказывала сдерживающее влияние на развитие видеонаблюдения. Чтобы проиллюстрировать данный факт, достаточно сказать, что в ходе подготовки к визиту тайской королевской семьи в Лондон полиция установила на Трафальгарской площади лишь 2 видеокамеры (и это для обеспечения безопасности первых лиц государства), а по окончании всех мероприятий охранная система была демонтирована.


Королева Великобритании Елизавета II и принц Филипп, герцог Эдинбургский, встречают короля Таиланда Пхумипона и королеву Сирикит

Появление функций приближения, панорамирования и разворота по таймеру позволило оптимизировать расходы на построение охранных систем за счет сокращения количества устройств, необходимых для контроля территории, однако реализация подобных проектов все еще требовала немалых денежных вложений. Так, например, разработанная для города Олеан (штат Нью-Йорк) городская система видеонаблюдения, введенная в эксплуатацию в 1968 году, обошлась городским властям в 1,4 миллиона долларов, а на ее развертывание ушло 2 года, и это при том, что вся инфраструктура была представлена лишь 8 видеокамерами. И разумеется, ни о какой круглосуточной записи речи тогда не шло: видеомагнитофон включался лишь по команде оператора, ведь и пленка, и само оборудование были слишком дорогими, и об их эксплуатации в режиме 24/7 не могло быть и речи.

Все изменилось с распространением стандарта VHS, появлением которого мы обязаны японскому инженеру Сидзуо Такано, работавшему в компании JVC.


Сидзуо Такано, создатель формата VHS

Формат предполагал использование азимутальной записи, при которой задействуются сразу две видеоголовки. Каждая из них записывала одно телевизионное поле и имела рабочие зазоры, отклоненные от перпендикулярного направления на одинаковый угол 6 в противоположные стороны, что позволяло снизить перекрестные помехи между соседними видеодорожками и значительно уменьшить промежуток между ними, повысив плотность записи. Видеоголовки располагались на барабане диаметром 62 мм, вращающемся с частотой 1500 оборотов в минуту. Кроме наклонных дорожек видеозаписи, вдоль верхнего края магнитной ленты записывались две дорожки звукового сопровождения, разделенные защитным промежутком. Вдоль нижнего края ленты записывалась управляющая дорожка, содержащая кадровые синхроимпульсы.

При использовании формата VHS на кассету писался композитный видеосигнал, что позволяло обойтись единственным каналом связи и существенно упростить коммутацию между принимающим и передающим устройствами. Кроме того, в отличие от популярных в те годы форматов Betamax и U-matic, где использовался U-образный механизм заправки магнитной ленты с поворотной платформой, что было характерно и для всех предыдущих кассетных систем, формат VHS был основан на новом принципе так называемой М-заправки.


Схема М-заправки магнитной пленки в кассете VHS

Извлечение и заправка магнитной ленты осуществлялись при помощи двух направляющих вилок, каждая из которых состояла из вертикального ролика и наклонной цилиндрической стойки, определяющей точный угол захода ленты на барабан вращающихся головок, который обеспечивал наклон дорожки видеозаписи к базовому краю. Углы захода и схода ленты с барабана были равны углу наклона плоскости вращения барабана к основанию механизма, благодаря чему оба рулона кассеты находились в одной плоскости.

Механизм М-заправки оказался более надежным и помогал снизить механическую нагрузку на пленку. Отсутствие поворотной платформы упрощало изготовление как самих кассет, так и видеомагнитофонов, что благоприятно отражалось на их себестоимости. Во многом благодаря этому VHS одержал уверенную победу в войне форматов, сделав видеонаблюдение по-настоящему доступным.

Видеокамеры также не стояли на месте: на смену устройствам с электронно-лучевой трубкой пришли модели, выполненные на базе ПЗС-матриц. Появлением последних мир обязан Уилларду Бойлу и Джорджу Смиту, работавшим в AT&T Bell Labs над полупроводниковыми накопителями данных. В ходе своих исследований физики обнаружили, что созданные ими интегральные микросхемы подвержены действию фотоэлектрического эффекта. Уже в 1970 году Бойл и Смит представили первые линейные фотоприемники (ПЗС-линейки).

В 1973 году серийный выпуск ПЗС-матриц разрешением 100 100 пикселей начала компания Fairchild, а в 1975 году Стив Сассон из компании Kodak создал на базе такой матрицы первый цифровой фотоаппарат. Однако им совершенно невозможно было пользоваться, поскольку процесс формирования изображения занимал 23 секунды, а его последующая запись на 8-миллиметровую кассету длилась в полтора раза дольше. К тому же в качестве источника питания для камеры использовались 16 никель-кадмиевых батарей, и весило все это добро 3,6 кг.


Стив Сассон и первый цифровой фотоаппарат Kodak в сравнении с современными мыльницами

Основной же вклад в развитие рынка цифровых камер внесла корпорация Sony и лично Кадзуо Ивама, возглавлявший в те годы Sony Corporation of America. Именно он настоял на инвестировании огромных средств в разработку собственных ПЗС-чипов, благодаря чему уже в 1980 году компания представила первую цветную ПЗС-видеокамеру XC-1. После смерти Кадзуо в 1982 году на его могиле была установлена надгробная плита с вмонтированной в нее ПЗС-матрицей.


Кадзуо Ивама, президент Sony Corporation of America в 70-х годах XX века

Ну а сентябрь 1996 года ознаменовался событием, которое по важности можно сравнить с изобретением иконоскопа. Именно тогда шведская компания Axis Communications представила первую в мире цифровую камеру с функциями веб-сервера NetEye 200.


Axis Neteye 200 первая в мире IP-камера

Даже на момент релиза NetEye 200 сложно было назвать видеокамерой в привычном смысле этого слова. Устройство уступало своим собратьям буквально по всем фронтам: его производительность варьировалась от 1 кадра в секунду в формате CIF (352 288, или 0,1 Мп) до 1 кадра за 17 секунд в 4CIF (704 576, 0,4 Мп), причем запись сохранялась даже не в отдельном файле, а в виде последовательности JPEG-изображений. Впрочем, главной фишкой детища Axis была вовсе не скорость съемки и не четкость картинки, а наличие собственного RISC-процессора ETRAX и встроенного Ethernet-порта 10Base-Т, что позволяло подключать камеру напрямую к роутеру или сетевой плате ПК как обычное сетевое устройство и управлять ею с помощью поставляемых в комплекте Java-приложений. Именно это ноу-хау заставило кардинально пересмотреть свои взгляды многих производителей систем видеонаблюдения и на долгие годы определило генеральный вектор развития индустрии.

Больше возможностей больше затраты


Несмотря на бурное развитие технологий, даже по прошествии стольких лет финансовая сторона вопроса остается одним из ключевых факторов при проектировании систем видеонаблюдения. Хотя НТП и поспособствовал значительному удешевлению оборудования, благодаря чему сегодня собрать систему, аналогичную той, что установили в конце 60-х в Олеане, можно буквально за пару сотен долларов и пару часов реального времени, подобная инфраструктура уже не способна удовлетворить многократно возросшие потребности современного бизнеса.

Во многом это объясняется смещением приоритетов. Если раньше видеонаблюдение использовалось лишь для обеспечения безопасности на охраняемой территории, то сегодня главным драйвером развития индустрии (по оценке Transparency Market Research) является ретейл, которому такие системы помогают решать разнообразные маркетинговые задачи. Типичный сценарий определение коэффициента конверсии на основе сведений о числе посетителей и количестве клиентов, прошедших через кассовые стойки. Если добавить сюда систему распознавания лиц, интегрировав ее с действующей программой лояльности, то получим возможность исследования поведения покупателей с привязкой к социально-демографическим факторам для последующего формирования персонализированных предложений (индивидуальных скидок, бандлов по выгодной цене и т. д.).

Проблема заключается в том, что внедрение подобной системы видеоаналитики чревато существенными капитальными и операционными затратами. Камнем преткновения здесь является распознавание лиц покупателей. Одно дело сканирование лица анфас на кассе при бесконтактной оплате, и совсем другое в потоке (в торговом зале), под разными углами и в разных условиях освещения. Здесь достаточную эффективность способно продемонстрировать лишь трехмерное моделирование лиц в реальном времени с использованием стереокамер и алгоритмов машинного обучения, что приведет к неизбежному росту нагрузки на всю инфраструктуру.

Учитывая это, компания Western Digital разработала концепцию Core to Edge storage for Surveillance, предложив клиентам исчерпывающий набор современных решений для систем видеорегистрации от камеры до сервера. Сочетание передовых технологий, надежности, емкости и производительности позволяет выстроить гармоничную экосистему, способную решить практически любую поставленную задачу, и оптимизировать затраты на ее развертывание и содержание.

Флагманской линейкой нашей компании является семейство специализированных винчестеров для систем видеонаблюдения WD Purple емкостью от 1 до 18 терабайт.


Накопители пурпурной серии были специально разработаны для круглосуточной эксплуатации в составе систем видеонаблюдения высокой четкости и вобрали в себя последние достижения Western Digital в сфере производства жестких дисков.

  • Платформа HelioSeal

Старшие модели линейки WD Purple емкостью от 8 до 18 ТБ выполнены на основе платформы HelioSeal. Корпуса этих накопителей абсолютно герметичны, а гермоблок заполнен не воздухом, а разреженным гелием. Снижение силы сопротивления газовой среды и показателей турбулентности позволило уменьшить толщину магнитных пластин, а также добиться большей плотности записи методом CMR благодаря повышению точности позиционирования головки (с применением Advanced Format Technology). Как следствие, переход на WD Purple обеспечивает прирост емкости до 75% в тех же стойках, без необходимости масштабирования инфраструктуры. Помимо этого, накопители с гелием оказываются на 58% энергоэффективнее в сравнении с обычными HDD за счет снижения потребляемой мощности, необходимой для раскрутки и вращения шпинделя. Дополнительная экономия обеспечивается благодаря сокращению затрат на кондиционирование: при одинаковой нагрузке WD Purple оказывается холоднее аналогов в среднем на 5C.

  • Технология AllFrame AI

Малейшие перебои во время записи могут привести к потере критически важных видеоданных, что сделает невозможным последующий анализ полученной информации. Чтобы это предотвратить, в прошивку дисков пурпурной серии была внедрена поддержка опционального раздела Streaming Feature Set протокола ATA. Среди его возможностей необходимо выделить оптимизацию использования кэша в зависимости от количества обрабатываемых видеопотоков и управление приоритетом исполнения команд чтения/записи, благодаря чему удается минимизировать вероятность пропуска кадров и появление артефактов изображения. В свою очередь, инновационный набор алгоритмов AllFrame AI обеспечивает возможность эксплуатации винчестеров в системах, обрабатывающих значительное число изохронных потоков: диски WD Purple поддерживают одновременную работу с 64 камерами высокой четкости и оптимизированы для высоконагруженных систем видеоаналитики и Deep Learning.

  • Технология Time Limited Error Recovery

Одной из распространенных проблем при работе с высоконагруженными серверами является спонтанный распад RAID-массива, вызванный превышением допустимого времени исправления ошибок. Опция Time Limited Error Recovery помогает избежать отключения HDD в случае, если тайм-аут выходит за рамки 7 секунд: чтобы этого не случилось, накопитель подаст RAID-контроллеру соответствующий сигнал, после чего процедура коррекции будет отложена до момента простоя системы.

  • Система мониторинга Western Digital Device Analytics

Ключевые задачи, которые приходится решать при проектировании систем видеонаблюдения, увеличение периода безотказного функционирования и сокращение времени простоя вследствие неисправности. С помощью инновационного программного комплекса Western Digital Device Analytics (WDDA) администратор получает доступ ко множеству параметрических, операционных и диагностических данных о состоянии накопителей, что позволяет оперативно выявлять любые проблемы в работе системы видеонаблюдения, заранее планировать техническое обслуживание и своевременно выявлять жесткие диски, подлежащие замене. Все перечисленное помогает существенно повысить отказоустойчивость охранной инфраструктуры и минимизировать вероятность утраты критически важных данных.

Специально для современных цифровых камер Western Digital разработала линейку высоконадежных карт памяти WD Purple. Расширенный ресурс перезаписи и стойкость к негативным воздействиям внешней среды позволяют использовать данные карточки для оборудования как внутренних, так и внешних камер видеонаблюдения, а также для эксплуатации в составе автономных охранных систем, в которых microSD-карты играют роль основных накопителей данных.


На данный момент серия карт памяти WD Purple включает в себя две продуктовые линейки: WD Purple QD102 и WD Purple SC QD312 Extreme Endurance. В первую вошли четыре модификации флеш-накопителей объемом от 32 до 256 ГБ. По сравнению с потребительскими решениям, WD Purple были специально адаптированы под современные цифровые системы видеонаблюдения за счет внедрения целого ряда важных усовершенствований:

  • влагостойкость (изделие способно выдержать погружение на глубину до 1 метра в пресную или соленую воду) и расширенный диапазон рабочих температур (от -25 C до +85 C) позволяют одинаково эффективно использовать карты WD Purple для оснащения как внутридомовых, так и уличных устройств видеофиксации независимо от погодных и климатических условий;
  • защита от воздействия статических магнитных полей с индукцией до 5000 Гс и устойчивость к сильной вибрации и ударам вплоть до 500 g полностью исключают вероятность утраты критически важных данных даже в случае повреждения видеокамеры;
  • гарантированный ресурс в 1000 циклов программирования/стирания позволяет многократно продлить срок службы карт памяти даже в режиме круглосуточной записи и, таким образом, существенно сократить накладные расходы на обслуживание системы безопасности;
  • функция удаленного мониторинга помогает оперативно отслеживать состояние каждой карты и эффективнее планировать проведение сервисных работ, а значит, дополнительно повысить надежность охранной инфраструктуры;
  • соответствие классам скорости UHS Speed Class 3 и Video Speed Class 30 (для карт объемом от 128 ГБ) делает карты WD Purple пригодными для использования в камерах высокого разрешения, включая панорамные модели.

Линейка WD Purple SC QD312 Extreme Endurance включает в себя три модели: на 64, 128 и 256 гигабайт. В отличие от WD Purple QD102, эти карты памяти способны выдержать значительно большую нагрузку: их рабочий ресурс составляет 3000 циклов P/E, что делает данные флеш-накопители идеальным решением для эксплуатации на особо охраняемых объектах, где запись ведется в режиме 24/7.
Подробнее..

Категории

Последние комментарии

  • Имя: Макс
    24.08.2022 | 11:28
    Я разраб в IT компании, работаю на арбитражную команду. Мы работаем с приламы и сайтами, при работе замечаются постоянные баны и лаги. Пацаны посоветовали сервис по анализу исходного кода,https://app Подробнее..
  • Имя: 9055410337
    20.08.2022 | 17:41
    поможем пишите в телеграм Подробнее..
  • Имя: sabbat
    17.08.2022 | 20:42
    Охренеть.. это просто шикарная статья, феноменально круто. Большое спасибо за разбор! Надеюсь как-нибудь с тобой связаться для обсуждений чего-либо) Подробнее..
  • Имя: Мария
    09.08.2022 | 14:44
    Добрый день. Если обладаете такой информацией, то подскажите, пожалуйста, где можно найти много-много материала по Yggdrasil и его уязвимостях для написания диплома? Благодарю. Подробнее..
© 2006-2024, personeltest.ru