Русский
Русский
English
Статистика
Реклама

История it

Прадедушка ноутбука

28.10.2020 12:04:04 | Автор: admin


Если семидесятые годы считаются эпохой сексуальной революции, то восьмидесятые ознаменовались революцией технологической. Компьютеры перешли из категории диковинных игрушек для ученых в разряд привычной домашней техники. На рынке появились персоналки Atari, Commodore 64, первые ПК от Apple. Тогда же перед разработчики озаботились не только увеличением производительности ПК, но и уменьшением их габаритных размеров, чтобы компьютер мог взять с собой в самолет любой банковский клерк. Одного из пионеров в области портативного компьютеростроения звали Адам Осборн.

Немного истории


Персоналки начала восьмидесятых были довольно громоздким сооружением, не предназначенным для частой передислокации с места на место. Сейчас уже доподлинно неизвестно, кому именно впервые пришла в голову идея создать переносной компьютер, тем не менее, к 1980 году активные исследования в этой области велись сразу несколькими компаниями.

Первый проект переносного микрокомпьютера зародился в расположенном в американском городе Поло-Альто исследовательском центре Xerox еще в конце семидесятых годов. В те времена компания Xerox планировала начать серийное производство настольных персоналок, рассчитанных на широкий круг покупателей, и идея выпустить переносную модификацию Xerox Star, отличающуюся от ее стандартного собрата меньшими габаритными размерами, казалась специалистам Xerox достаточно перспективной. Аппаратная и программная совместимость позволила бы этим машинам взаимодействовать в локальной сети и переносить программное обеспечение с одного компьютера на другой, а компактность портативных ПК от Xerox значительно расширила бы рынок сбыта этих вычислительных машин. Однако руководство компании рассудило иначе: освоение принципиально новой сферы электронных технологий являлось достаточно рискованным шагом и проект был свернут, так и не успев набрать обороты.

Американский предприниматель Адам Осборн, родившийся в 1940 году в Таиланде, закончил университеты в Бирмингеме и Делавэре, а в 1968 году стал доктором наук (Ph.D.), защитив диссертацию по применению химических технологий в электронике. Приблизительно в то же время Адам решил связать свою судьбу с компьютерами, устроившись программистом-консультантом в калифорнийскую компанию Shell Development. Тем не менее, желание иметь собственный бизнес неизбежно подталкивало Осборна к идее создания новой компании, способной приносить стабильный доход.


Адам Осборн

Первым проектом Адама стало основанное в 1970 году издательство Osborne & Associates, однако спустя девять лет эта фирма была продана корпорации McGraw-Hill, так и не оправдав надежд ее владельца. Все глубже и глубже знакомясь с электронными технологиями того времени, Осборн задался целью создать первый в мире переносной персональный компьютер, который мог бы уместиться под сиденьем пассажирского авиалайнера. По мнению Адама, это изобретение в корне изменило бы американский деловой мир, поскольку с помощью такого инструмента бизнесмены могли бы не отрываться от работы даже во время путешествий и деловых поездок, передавая результат своих трудов по назначению либо с помощью дискет, либо посредством коммутационных устройств. Благодаря природному оптимизму и редкой предприимчивости, Осборн решил не откладывать дело в долгий ящик и сделал то, что побоялись сделать гиганты компьютерной индустрии из опасения потерять средства вследствие непредсказуемости рынка.

Коммерческий успех


Вложив в свое новое начинание накопленные на издательском бизнесе личные сбережения в размере 250 тысяч долларов, Адам основал компанию Osborne Computer Corporation, которая уже в начале 1980 года взялась за разработку прообраза современного ноутбука. Готовое изделие, получившее название Osborne I, появилось на рынке ровно через год, поступив в розничную продажу по цене 1795 долларов за штуку.


Персональный компьютер Osborne I, 1981 год (иллюстрация с Wikipedia.ru)

В основу архитектуры Osborne I был заложен универсальный процессор Z80A с тактовой частотой 3,5 Мгц, неплохо зарекомендовавший себя в персональных компьютерах серии Sinclair Spectrum. Компьютер был оснащен 64 Кб оперативной памяти, двумя дисководами 5,25 монохромным CRT-дисплеем с диагональю 5, который без труда вытягивал разрешение 51X24 точки в текстовом режиме. В составе персоналки имелся параллельный и последовательный порты, порт для подключения модема, а также специальный разъем, предназначенный для соединения машины с внешним монитором. Данный портативный компьютер весил чуть более 10 килограмм и размерами походил на небольшой, но вместительный чемодан; в комплект поставки входил набор запасных аккумуляторов и чехол для более комфортной транспортировки этого чуда техники. В качестве программной платформы Osborne I использовал подобную MS DOS консольную операционную систему с командной строкой, которая по свидетельствам пользователей работала достаточно быстро и весьма стабильно. Поставляемые вместе с компьютером диски включали адаптированный для Osborne текстовый редактор WordStar и редактор таблиц.



Едва появившись на рынке, Osborne I приобрел по истине немыслимую популярность: в течение месяца Osborne Computer Corporation сумела выполнить годовой план по реализации своей продукции, продав более 10 тысяч экземпляров Osborne I. Спрос на переносные компьютеры заметно превышал предложение и производственных мощностей Osborne Computer просто не хватало для полноценного покрытия рынка.

Крушение надежд


Почувствовав коммерческий успех своего проекта, Адам Осборн распорядился начать проектирование новой, еще более совершенной и мощной модели портативного компьютера Osborne Executive. Но в данном случае оптимизм и энергичность Адама сыграли катастрофическую роль: сообщив прессе о несомненных достоинствах своей новой разработки еще задолго до того, как она была готова к продаже, Осборн, сам того не подозревая, уничтожил свой единственный источник дохода в ожидании более современного компьютера потребители практически перестали покупать Osborne I.


Так выглядел Osborne Executive

Однако с Osborne Executive дела пошли совсем не так гладко, как планировал Адам: новая машина имела множество слабых мест, которые требовали немедленной доводки, но как только очередная ахиллесова пята оказывалась ликвидированной, в системе компьютера немедленно обнаруживалась новая. Сорвав партнерам все сроки поставки Osborne Executive, не выполнив условия контракта и выплатив значительные неустойки, в 1982 году компания Osborne Computer объявила себя банкротом.

После Osborne


Таким образом коммерческая инициатива на рынке портативных персональных компьютеров была упущена и упавшее знамя тут же подхватила корпорация IBM, анонсировав 29 февраля 1984 года новое изделие под маркой IBM Personal Portable Computer 5155. Внешне эта машина практически ничем не отличалась от своей предшественницы, разве что в данной модели переносного компьютера использовался более совершенный CGA-дисплей с диагональю 9. IBM PPC 5155 был собран на базе процессора Intel 8088 с тактовой частотой 4,77 МГц, располагал двумя 5,25 дисководами емкостью 360 Кб, имел 256 Кб оперативной памяти, объем которой мог быть расширен до 640 Кб и опционально комплектовался математическим сопроцессором i8087; наличие винчестера конструкцией компьютера предусмотрено не было.


IBM Personal Portable Computer 5155

Помимо последовательных и параллельных портов стандарта IBM, а также разъема для подключения внешнего монитора, IBM PPC 5155 имел несколько дополнительных слотов для различных периферийных устройств, что делало его архитектуру масштабируемой. Весила данная конструкция 13,6 Кг при линейных размерах 204Х500Х430 мм, в качестве операционной системы использовалась IBM PC DOS v 2.01. Несмотря на то, что этот компьютер быстро стал пользоваться значительной популярностью у покупателей, удержать монополию IBM так и не удалось: вскоре лидерство в производстве портативных компьютеров перехватили японцы первый, отличавшийся мощностью, компактностью и великолепным дизайном ноутбук производства корпорации Toshiba появился на прилавках американских магазинов в 1985 году.

После крушения надежд, вызванного банкротством Osborne Computer, неуемная жажда деятельности и любовь к компьютерным технологиям заставили Адама Осборна создать новую компанию по разработке программного обеспечения, которая получила название Paperback Software. Но и эта фирма благополучно рухнула после состоявшегося вскоре шумного судебного разбирательства с корпорацией Lotus Development, основным предметом которого стал спор об авторских правах на поставляемые Paperback Software программные продукты. В 1992 году он основал компанию Noetics Software, занимавшуюся разработкой технологий искусственного интеллекта, но ухудшающееся здоровье заставило его покинуть бизнес.

Вместо заключения


Адам Осборн скончался 18 марта 2003 года в возрасте 64 лет в Кодайканале, Индия, после долгой борьбы с болезнью, из-за которой он перенес несколько инсультов. Однако он навсегда вписал свое имя в историю компьютерных технологий, доказав собственным примером, что даже самые смелые идеи, опережающие время, могут превратиться в успешное предприятие и вдохновить крупных игроков индустрии следовать по стопам скромного предпринимателя-энтузиаста.

Подробный технический обзор компьютера Osborne I можно увидеть здесь.

А вот видео, на котором запечатлена работа этого чуда техники:




Подробнее..

Взлёт и падение гика история Рене О

24.10.2020 00:04:26 | Автор: admin


Сорок лет назад автоматы по выдаче денег не были связаны сетью с банком. Здесь применялась карта с магнитной лентой (чипа в ней ещё не было). Информация об операциях за каждый день фиксировалась специальными магнитными чернилами для автоматического считывания в журнале, который потом доставлялся в банк. Со временем такая система перестала устраивать клиентов, ведь существовало ограничение на количество операций за один день. К тому же получать деньги можно было только в банкомате своего банка. Для банков тоже существовали определённые неудобства, ведь эмитировать такие карты можно было только самым состоятельным и проверенным клиентам, а это накладывало ограничения на доход от банковских услуг. Поэтому в середине восьмидесятых годов прошлого века назрела необходимость сделать то, что сегодня кажется таким естественным присоединить банкоматы к банкам и объединить разрозненные банкоматные сети в единую систему. Лидером такого обьединения в Швейцарии всемирной Мекке банкиров и финансистов стала фирма Тelekurs Card Solutions, дочернее предприятие ряда ведущих швейцарских банков и в первую очередь всемогущего Union Bank of Switzerland или сокращённо, UBS (позднее она стала частью фирмы SIX). Производителями банкоматов и программного обеспечения к ним были такие предприятия, как американская AT&T и немецкая Siemens Nixdorf.

Рене Остервальдер получил работу в Telekurs сразу после курса обучения на программиста, когда ему едва исполнилось двадцать. Работы было много и выгорание было знакомо каждому, кто пытался войти в относительно новую тогда сферу. Работы было много и выгорание было знакомо каждому, кто пытался войти в относительно новую тогда сферу. После неудачной попытки суицида Рене попал в клинику для восстановления и познакомился с Моникой, которая работала там медсестрой. Рене был среднего роста, тощий, нескладный, с рыжевато-русыми вихрами типичный гик, каких много. После выхода из клиники он решил пересмотреть свои ценности и цели. Он больше не стремился объять необъятное, и тем не менее в положенный срок Рене повысили категорию и зарплату.
Oни с Мони поженились и поселились в Фолькетсвиле небольшом индустриальном городке под Цюрихом в ничем не примечательной пятиэтажке. Весна сменялась летом, сети банкоматов росли, как грибы после дождя, а в семье один за другим появились два маленьких Остервальдера. Банки богатели и стремились защитить свои банкоматы от несанкционированных проникновений. Рене много и усердно работал и это именно его команде было поручено разработать мануал для программного обеспечения межбанковской связи.

Уже с 1978 года фирма Telekurs устанавливала и обслуживала банкоматы на территории Швейцарии. В 1978 году сеть банкоматов в Швейцарии и Лихтенштейне работала на программном обеспечении BM (Bancomat)-78, a фирма Telekurs эту сеть неустанно расширяла. В 1985 году была введена версия BM-85: деньги теперь можно было получать с помощю карт Eurocheque (EC-Karte) и EUROCARD. Cледующим логичным шагом было поручить Телекурсу и обьединение банкоматов в сети. Это потребовало введения обязательного для всех технического и защитного стандарта. Таким стандартом стал PPV-95 (Payment Protection Verfahren), a технические предпосылки для выполнения условий этого стандарта были заложены в очередной версии ПО, BM-90. BM-90 сталa в своём роде прорывом: она впервые сделала возможным получение денег в банкоматах по картам, эмитированным за рубежом. Теперь система банкоматов полностью работала в онлайн-режиме.
Удобство и ассортимент услуг имели свою цену: за каждое снятие денег взимался определённый процент от суммы плюс 1 франк сбора. За каждое снятие денег в чужом банкомате дополнительно взимали около 50 сантимов. За каждую информацию о текущем балансе 50 сантимов. Деньги потекли в карман банкиров рекой. Второй нефтяной кризис конца семидесятых начала восьмидесятых был забыт, как страшный сон. Теперь каждый банк стремился установить как можно больше собственных банкоматов, связанных с общей сетью. И очень скоро крупный банк сделал Остервальдеру предложение, от которого он не мог отказаться: тридцатилетнему программисту на выгодных условиях было предложено возглавить разработку ПО для банкоматов в соответствии с действующим мануалом требований техники и безопасности. Не мог отказаться так считали в отделе персонала этого банка. Каково же было их удивление, когда вихрастый задрот ответил им отказом! Предложенная банком зарплата была вчетверо выше той, которую Рене получал в Телекурсе. И всё же он отказался. А через несколько дней на стол CIO этого банка легла офферта на бланке фирмы Остервальдер Информатик. Рене вместе с тремя коллегами из Телекурса основал собственное предприятие. И деньги потекли рекой.



Стандартными условиями для выработки подобного пакета ПО были суммы в пределах пятидесяти тысяч франков и сроки до трёх месяцев. При этом надо было считаться с тем, что новое ПО нужно будет тестировать и скрупулёзно проверять на предмет соответствия обширному мануалу требований. Остервальдер предлагал готовый пакет за три недели и триста тысяч франков. И банки соглашались. Ведь все потенциальные клиенты знали: в этом случае соответствие будет стопроцентным, так как Рене не просто знал мануал назубок он сам и был автором этого мануала! Поэтому Остервальдер мог потребовать практически любую сумму и получить её. Ещё бы: за месяцы отсрочки банки неминуемо потеряли бы намного больше прибыли. Всё, что делала Остервальдер Информатик сводилось к простому копированию уже существующего ПО и переупаковке его в соответствии корпоративному дизайну банка. По существующему тогда законодательству фирма Телекурс не сумела доказать проприетарность ПО, как не могла и запретить своему бывшему сотруднику стать прямым конкурентом. Иначе Телекурсу пришлось бы выплачивать Остервальдеру компенсацию утраченного дохода в течение долгого времени.

Кроме того, Остервальдер умело применял так называемые мягкие навыки ему удалось быстро завести и поддерживать прочные деловые контакты в высших кругах. Обеды в лучших ресторанах Цюриха, лыжные вертолётные экскурсии, дорогие подарки в дело шли любые средства.
Маркус, в то время руководитель проекта одного из дочерних банков UBS, вспоминает:
Мы встретились в ресторане у Смоли, как обычно, во время ланча. По рангу нам был положен только ланч с ним. Ужинал Остервальдер с людьми совсем другого калибра крупными воротилами и политиками. Хорошим тоном считалось прибыть в сопровождении девушки. Бени, мой коллега, взял с собой Соню из бухгалтерии, больше некого было. Джей-Си, банкир со стороны Сименс Никсдорф был с какой-то экзотической малолеткой из очередного массажного салона, никто из присутствующих не разобрал её имени. Рене приехал с Августой. Я был один, поскольку как раз разьезжался со своей бывшей, а организовывать другой эскорт по этому случаю у меня не было ни времени, ни желания. Еда была отличной, счёт высоким, настроение приподнятым. Перед подачей десерта Остервальдер сказал:

Вы, ребята такие клёвые, с вами так классно, что я, пожалуй, сделаю вам дружескую скидку. Двести пятьдесят кусков. Пятьдесят сразу. Сто в течение трёх дней. Сто в течение трёх недель. И пятьдесят по завершении проекта.
Он положил на стол заготовленные экземпляры контракта и вынул золотой Монблан, сверкнувший бриллиантом в именной монограмме. Широко расписался и добавил:
Это предложение действует ровно десять минут. Я сейчас выйду покурить, а когда вернусь, на договоре должны стоять ваши подписи. Если их не будет больше мы с вами не увидимся.

Я набрал шефа. Выслушав меня, он коротко бросил:
Наши партнёры из UBS и торговой палаты настоятельно советуют нам заключить договор с Остервальдер Информатик, так как только эта фирма способна гарантировать нужное качество.
И договор был подписан. Открывая перед Августой дверь своего Роллс-Ройса, Остервальдер бросил на прощание:
Я тут неплохое шале в Юрских горах прикупил, приезжайте на выходных, оттянемся.

Список приобретений Остервальдера не ограничивался юрским шале. Одной из первых покупок стал просторный дом в престижном районе на берегу Цюрихского озера, куда они с Моникой и детьми переехали из Фолькетсвиля. Фолькетсвильскую квартиру Рене продолжал использовать в качестве дополнительного офиса. Именно туда он впервые привёл третьекурсницу Августу, дочь известного цюрихского дантиста. Девушка бросила учёбу на юрфаке и стала работать в фирме Остервальдера. Августа (Августина, как он её называл) была красива, прекрасно образована, разбиралась в моде и искусстве, её интересовали разные философские течения, вплоть до каббалы и даосизма. Именно с ней он сделал свою первую затяжку кокаином, именно Августа впервые принесла ему грибы. И она смотрела на Остервальдера, как на живое божество.
Понемногу он и сам начинал чувствовать себя таковым. Разве могло быть простой случайностью то, что он, дрищеватый мальчишка из неполной семьи из Ветцикона (Тургау), всё детство скитавшийся по чужим семьям, назначенным ему в качестве временной опёки, теперь утопал в фантастической роскоши и самые влиятельные люди страны держались с ним на равных? Нет, это было не игрой случая, а заслуженной наградой за труд, талант и деловое чутьё. По совету знакомого инвестиционного банкира Рене продолжал формировать пакет инвестиций. В него вошли вилла в северной Италии, а также промышленная недвижимость и складские обьекты в Нидерландах. Склады удалось приобрести почти за бесценок и прибыв на место для их осмотра, Остервальдер сразу понял, почему так. Помещения стояли заброшенными уже несколько месяцев, если не лет и за это время их облюбовала в качестве пристанища секта сатанистов.
Войдя в бетонный ангар со следами копоти и пентаграмм на стенах, Остервальдер вдруг почувствовал тот самый всплеск адреналина, которого ему уже давно не хватало в реальной жизни. Он явственно ощутил, каков он вкус всемогущества и неподвластности. Ему открылось, что у его жизни есть определённая цель и предназначение и они не такие, как у всех других.
Рассказывает Маркус:
В начале девяностых мы пересекались с Остервальдером довольно часто, ему нравилась наша компания. Бени очень хотел увидеть его легендарное шале и постоянно подбивал меня поехать туда на выходные. Все знали, что он миллионер, что экстравагантный и всё такое. Как-то раз он гордо продемонстрировал разрешение на ношение оружия и сам новенький Глок-17.
Зачем тебе это, Рене? Hовое хобби? В армейке не настрелялся до сих пор? (Прим.: Швейцарские вооружённые силы основаны по принципу милиции и почти каждый гражданин в возрасте от 28 до 39 лет обязан регулярно посещать стрелково-тренировочные сборы)
У меня важная миссия. Я на добровольной основе помогаю спецподразделениям полиции, которые борются с сетями педофилов в Западной Европе. Для этих целей я даже приобрёл частное детективное агентство.
Мы с Бени не знали, как на это реагировать. Причуды гика? А может, действительно человек нашёл своё призвание в такой вот общественной деятельности? Мне не нравилась его экстравагантность и раздутое чувство собственного величия и я в отличие от Бени вовсе не горел желанием ехать в гости к Рене. Но, спрашивал я себя, что если я просто завидую его успеху? Он всего на несколько лет старше меня, но скорее всего, мне никогда не достичь его финансовых и деловых высот.
Между тем время шло, а Остервальдер Информатик затягивала с поставками по нашему контракту. Наконец, терпение шефа лопнуло. Он велел мне немедленно выяснить, в чём там дело. Я позвонил в офис ОИ и попросил позвать Рене к телефону.
Он сейчас, к сожалению, занят. ответила секретарша.
Скажите ему, пусть перезвонит, как освободится.
Извините вы не могли бы к нам подьехать? Это ведь рядом.
Что?! Зачем я должен к вам ехать?
Мне очень жаль, но это важно, пожалуйста, уделите нам несколько минут.
По гололёду дорога заняла несколько дольше обычного. Я приехал к ним в офис. Секретарша положила передо мной телетайпную ленту.

Герр Остервальдер и его подруга арестованы в Голландии, сказала она.




О том, что произошло, Маркус и вся страна узнали в течение следующих дней из газет. Остервальдер обратился в полицию, заявив, что его сосед-албанец является частью международной преступной группировки, торгующей детьми. Полицейские допросили соседа, который обьяснил, что это сам Остервальдер обращался к нему с просьбой через посредника организовать покупку подходящих детей в Восточной Европе и даже внёс аванс в размере нескольких тысяч франков. Сосед аванс взял, однако ж никакими детьми торговать не собирался и ни о каких группировках не знает. После этого полиция обыскала недвижимость Остервальдера и обнаружила большое количество отснятого видеоматериала, недвусмысленно доказывающее, что он занимался пытками и действиями сексуального характера с детьми от 10 месяцев(!) до 12 лет. На территории шале в кантоне Юра была обнаружена ёмкость с серной кислотой и человеческими останками. В подвале шале имелась полностью оборудованная камера для пыток. На территории амстердамских складов Остервальдера находился огромный аквариум с пираньями. В багажнике его автомобиля был найден чемодан с различными медикаментами, в том числе анестетиками, а также гинекологическим инструментарием, который был использован для порнографических сьёмок.
Случись это на другой стороне Атлантики, от репортёров было бы не протолкнуться, процесс освещали бы все телеканалы, а ещё до его окончания были бы изданы как минимум две биографии Остервальдера. Но это же Швейцария страна банковских гномов и бетонной тайны. Весь процесс проходил в обстановке строжайшей секретности. Под нажимом высокопоставленных друзей Остервальдера и влиятельной семьи Августы в течение долгого времени было даже не ясно, дойдёт ли это дело вообще до суда! Во время всего процесса девушка проходила только под инициалами А.Ш. В качестве сообщницы она получила четыре года (вместо восьми, которых требовал прокурор) и вышла на свободу короткое время спустя, ещё не достигнув тридцатилетнего возраста (поскольку ей было засчитано предварительное заключение), сменив затем имя и фамилию.
В мае 1998 года 43-летний Рене Остервальдер был признан цюрихским судом присяжных виновным в многочиcленных покушениях на убийство, многочисленных эпизодах нанесения тяжких телесных повреждений, многочисленных сексуальных действиях в отношении малолетних. Он был осуждён на 17 лет. Обвинение было основано большей частью на огромном обьёме отснятого самим Остервальдером видеоматериала, при этом полностью идентифицировать удалось только трёх жертв 12-летнего мальчика и 10- и 18-месячных детей фолькетсвилльской соседки. Происхождение и дальнейшую судьбу остальных детей (предположительно из стран Восточной Европы) отследить не удалось. Как не удалось и выяснить личность тех, чьи трупы были растворены в серной кислоте в шале Остервальдера. Многое указывало на то, что в Амстердаме и Юре имели место ритуальные убийства в присутствии ряда богатых и высокопоставленных людей, то есть эти преступления не были личным фетишем одного Остервальдера, однако до суда эти улики так и не дошли.

Примерно так выглядит обычная тюремная камера на двоих заключённых: 11 квадратных метров, двухэтажная кровать, шкаф для одежды, унитаз за занавеской, раковина, телевизор, вентилятор, электрический чайник, пепельница и будильник. У многих есть собственные кофемашины, кофе можно покупать в тюремном киоске. Постельное бельё меняют еженедельно. Питание трёхразовое. Курение допускается в камере и прогулочном дворике. У каждого заключённого есть право на одно 60-минутное посещение в неделю.



Двери камер открываются по утрам в 7.45. С этого момента и до вечернего закрытия камер заключённые могут свободно передвигаться по территории. Они могут пойти в душ, в финтесс-центр, пользоваться библиотекой и телефоном (160 минут в месяц). Мобильники в тюрьме запрещены, но их то и дело проносят. Между 8-11 заключённые работают в мастерских и цехах, после чего у них есть 3 часа перерыва. С 14 до 16 часов они снова работают. Заключённый может заработать от 9 до 31 франка в день. Заработок поступает на счёт заключённого и он может расплачиваться в тюремном киоске с помощью именногo бейджа. Ужин в 17 часов. В 18 часов двери камер снова запираются. Можно взять в аренду ноутбук и плейстейшн, платить за аренду тоже бейджем. На ноутбуке установлены только простейший текстовый редактор, несколько игр и оффлайн-версия Википедии. Доступ к Интернету даётся только под наблюдением, один раз в неделю. Каждый день одного заключённого в тюрьме обходится швейцарским налогоплательщикам в 200-300 франков. Пребывание в зоне повышенной безопасности стоит до 650 франков. Затраты на процесс по делу Остервальдера превысили 100 000 франков.



Cвоё свободное время в тюрьме Остервальдер посвятил составлению апелляций и встречных исков. Сначала он утверждал, что необоснованно долгая длительность предварительного заключения (10 месяцев) нанесла ему непоправимый моральный ущерб. Через два года заявил, что стал убеждённым христианином и потому более не опасен для общества. В 2009 году решил вступить в брак со своим сокамерником, в чём ему было отказано (сексуальные контакты в тюрьме запрещены, дабы не поощрять зависимость, проституцию и возникновение субкультур). В конце 2010 года Остервальдер женился на 73-летнем пенсионере из кантона Тургау (этот брак, вернее официальное внесение партнёрства в регистр записи гражданских состоянии, стал возможным, так как пенсионер заключённым не был). После смерти пенсионера в 2016 году он вступил в новую связь, на этот раз с 38-летним сокамерником.
Первичный семнадцатилетний срок заключения был продлён на неопределённое время, так как по заключениям специалистов и сегодня 65-летний Рене Остервальдер, один из самых крупных преступников в швейцарской послевоенной истории, всё ещё не может быть интегрирован в обычную среду. Каждый судебно-медицинский эксперт, работавший с ним, отмечает крайне высокий интеллект Остервальдера, высокую способность к мимикрии и манипуляции. Остервальдер отвечает критериям тяжёлого, потенциально опасного расстройства личности уже в том, что касается его экстремальных и быстрых изменений идентичности: одарённый технический специалист, поклонник экзотических философских течений, успешный бизнесмен и айти-боярин, борец с несправедливостью, добропорядочный отец семейства, сутяжник и кверулянт, христианский фундаменталист и аскет и наконец, любовник-гомосексуалист.
Подробнее..

Ральф Баер пиксель, пиксель, огуречик

27.10.2020 20:10:40 | Автор: admin

Технологии почти перестали нас удивлять. Мы скептически смотрим на облачный гейминг, воспринимаем грядущую эру 5G как нечто само собой разумеющееся. Рабочее место и сотни сервисов в облаке? Deep Fake? Суперкомпьютеры? Фу, ску-у-учно!

Но совсем недавно, каких-то 50 лет назад, простая движущаяся точка на экране приводила людей в восторг. Никаких звуков, а вместо фона полупрозрачная накладка на экран. Куда там Cyberpunkу!

Сегодня речь пойдет о Ральфе Баере изобретателе, подарившем нам мир компьютерных развлечений. Более полувека назад он изобрел саму концепцию игры на экране, придумал световой пистолет и впрочем, обо всем по порядку.

Ранние годы

Ральф Баер (Бауэр) родился 8 марта 1922 года в немецком городе Родальбен в еврейской семье. Его отец Лео трудился на местном обувном заводе шорником. Мать, Шарлотта Киршбаум, была домохозяйкой. Происхождение наложило немалый отпечаток на судьбу будущего изобретателя. В возрасте 11 лет из-за своих корней Ральф был вынужден покинуть школу и продолжить обучение на дому.

Спустя несколько лет Баерам удалось эмигрировать в Соединенные Штаты Америки буквально за несколько месяцев до Хрустальной ночи 1938 года, когда военизированные отряды СА разгромили сотни еврейских домов, магазинов и синагог по всей территории нацистской Германии.

В 1940 году Баер получил профессию радиотехника и в течение трех следующих лет работал по специальности. В 1943-ем его завербовали в армию. Год он прослужил в США и еще два года в военной разведке в Англии и Франции. После войны его приняли в ATIT American Television Institute of Technology в Чикаго. В 1949 году он получил степень бакалавра по специальности телевизионного инженера и спустя несколько лет устроился в Sanders Associates, электронно-техническую компанию, выполнявшую заказы военных ведомств.

Жизнь молодого инженера протекала ровно и неспешно. К этому времени Ральф уже обзавелся собственной семьей и, чтобы проводить с женой и сыном как можно больше времени, организовал в подвале дома небольшую лабораторию для сверхурочной работы.

Вполне вероятно, что сытая жизнь в американской мечте и бытовые хлопоты так бы и поглотили будущего изобретателя, если бы не одна из его ранних идей. Еще в 1951 году, будучи выпускником ATIT, он предложил своему работодателю, крупной технической компании Loral Electronics, встраивать игры прямо в телевизоры. Точнее, в новый черно-белый телевизор, разработкой которого тогда занималась компания. По его мнению, это позволило бы выделить бренд среди конкурентов. Он даже придумал особое название для незанятых игровых каналов ТВ под номерами 3 и 4: LP Lets play. Тогда его предложение было отклонено, идея игрового телевизора показалась боссам компании абсурдом. Баеру посоветовали не фантазировать и сосредоточиться на основной работе. Никому не хотелось связываться с очередным ультра дорогим баловством, которое никто не купит. Говоря объективно, на то были причины. Давайте посмотрим, какие игры на электронных устройствах были известны на тот момент.

Nimatron

Это самая первая игровая машина, построенная на электронных реле. Предтеча игровых автоматов, наводнивших залы спустя несколько десятилетий, родился в 1940 году в Америке. Его создатель, Эдвард Кондон, продемонстрировал Ниматрон на Всемирной выставке в Нью-Йорке.

Фактически Ниматрон представлял собой огромный ящик с четырьмя столбцами лампочек, всего 28 штук. Игрок и искусственный интеллект по очереди гасили одну или несколько ламп. Победителем считался тот, кто погасит последнюю лампу. Примечательно, что знакомый всем дизайн аркадных кабинетов отчасти был вдохновлен именно Ниматроном.

Внешний вид игрового устройстваВнешний вид игрового устройства

Cathode-ray tube amusement device

Это устройство, предложенное в 1947 году Томасом Голдсмитом-младшим и Эстлом Реем Манном, даже не имело собственного маркетингового названия. Проект был вдохновлен военными радарами, на разработке и производстве которых молодые ученые были заняты во время Второй мировой войны.

Схема устройстваСхема устройства

Небольшое видео с демонстрацией принципа работы:

Кроме того, в конце 1940-х Аланом Тьюрингом и Девидом Чампернауном был предложен один из первых алгоритмов шахматной игры с компьютером. Однако компьютеров, обладавших достаточной мощностью для исполнения подобного алгоритма, на тот момент просто не существовало.

Знаменитые Tennis for Two (игра на осциллографе) и Pong были разработаны гораздо позже.

К компьютерным играм в современном понимании перечисленные выше разработки можно отнести лишь с очень большой натяжкой. В то время любая умная техника трудилась сугубо над военными, математическими и экономическими задачами. Нетрудно догадаться, что предложение Баера вызвало у корпоративных бондов смех и сомнения в адекватности молодого инженера.

В сентябре 1966-го, ожидая автобуса на работу, Баер вспомнил о своей давней идее. И с удивлением обнаружил, что она по-прежнему актуальна. Телевизоры стали дешевле и поселились едва ли не в каждом американском доме. Почему бы не создать новый продукт, способный расширить возможности обыкновенного ТВ-приемника?

Уже на следующее утро Баер начал работать со своим новым проектом. Прямо на рабочем месте он подготовил четырехстраничный документ, описывающий идеи и способы их технического воплощения. С бумагами на руках он отправился к своему начальству, чтобы выбить финансирование проекта. В одном из поздних интервью Баер вспоминал об этом так:

Сама ситуация выглядела абсурдно. Представьте: я работаю инженером в компании, разрабатывающей военную электронику. И ни с того ни с сего начинаю писать такой документ. Как подать эту идею? Она же никак не связана с моей работой! <> Я не мог назвать это проектом игрушки (toy), поэтому использовал выражение игровой процесс (gaming).

Первые наброски БаераПервые наброски Баера

Термин gaming был в ходу у военных и теоретически мог привязать идею Баера к области деятельности компании. Выглядит несколько натянуто, не правда ли? Именно поэтому Баер, немного подумав, выдвинул возможность быстрой коммерциализации нового устройства на первый план.

Неизвестно, что именно убедило Герберта Кэмпмана, директора по исследованиям и разработкам компании Sanders, выделить средства на проект. Так или иначе, Баер получил $2000 на работу и $500 на материалы для исследований. В пересчете на современный курс эта сумма выглядит немногим более презентабельно и составляет примерно $15000.

Спустя несколько дней Баер нарисовал приблизительную схему работы своего устройства:

В 1967 году Ральф Баер и его ассистент Боб Тремблей создали первый прототип игрового устройства TVG #1, или TV Game Unit #1.

Особая приставка могла проецировать на телевизионный экран контролируемую пользователем точку. Разумеется, назвать это игрой было затруднительно, но начало было положено. Баер и его команда поняли, каким образом можно взаимодействовать с изображением на телеэкране извне. Можно было приступать к разработке куда более сложных и интересных прототипов. Руководство Sanders под впечатлением от увиденного выдало распоряжение как можно скорее оформить устройство в коммерчески жизнеспособный продукт.

Особенно Кэмпману понравилась задумка со световым пистолетом. Он увеличил финансирование проекта и продемонстрировал прототипы высшему руководству Sanders.

Прототип первого в мире светового пистолета, разработанный Баером и его командойПрототип первого в мире светового пистолета, разработанный Баером и его командой1976 год: знаменитый Синьор Робинзон играет в нечто похожее на Shooting Gallery для Magnavox Odyssey1976 год: знаменитый Синьор Робинзон играет в нечто похожее на Shooting Gallery для Magnavox Odyssey

Спустя несколько лет Баеру и его команде, наконец, удалось создать первое в мире многопользовательское и многофункциональное игровое устройство коричневую коробочку, Brown box. Переключая режимы работы специальными кнопками-перемычками, можно было сыграть в почти 30 различных игр. А рабочий дизайн прототипа, вероятно, был продиктован идеей замаскировать его под предмет интерьера. Или же его просто собрали из того, что было под рукой. В коммерческой реализации устройства мебельный корпус был заменен на футуристичный пластиковый.

Brown box и его компаньоны: левый контроллер, блок питания и правый контроллер соответственно.Brown box и его компаньоны: левый контроллер, блок питания и правый контроллер соответственно.

Sanders Associates всячески поддерживала проект Баера, однако выпускать новое устройство самостоятельно не решилась. Требовалось найти внешнюю компанию, которая возьмет на себя производство и маркетинг продукта. Не будем в очередной раз описывать мытарства Баера, просто скажем, что поиски затянулись почти на три года. Мало кто мог себе позволить такой рискованный эксперимент: приставка все еще требовала доработки и могла запросто провалиться в продаже.

В 1972 году права на выпуск устройства были переданы компании Magnavox (ныне это североамериканское подразделение Philips), и оно вышло на рынок под именем Magnavox Odyssey. В комплекте с приставкой продавались игрушечные деньги, фишки, кости, игральные карты и листки для ведения счета. Игры были вынесены из приставки и рассортированы по отдельно продаваемым картриджам. Все эти нововведения существенно увеличивали стоимость устройства и аксессуаров для конечного пользователя. Сам изобретатель считал бумажные добавки к Magnavox Odyssey лишними и скучными.

Коммерческая версия приставки и несколько игровых картриджейКоммерческая версия приставки и несколько игровых картриджей

Графические возможности первой версии приставки были крайне малы. Устройство могло выводить на экран три квадрата два игрока и мячик и вертикальную перегородку между половинами поля. Эти ограничения компенсировались цветными накладками на экран, создающими антураж и задающими правила игры.

Вариант досуга для прогрессивной молодой пары 1970-х, предложенный MagnavoxВариант досуга для прогрессивной молодой пары 1970-х, предложенный MagnavoxНакладки на экран Soccer Накладки на экран Soccer

Пожалуй, картриджи для Magnavox Odyssey достойны отдельного разговора. Самая интересная их особенность полное отсутствие умных компонентов. Картриджи содержали лишь набор перемычек, изменяющих поведение консоли и, следовательно, сам геймплей. Изначально приставке никакие картриджи не требовались, достаточно было просто перенастроить консоль для нужной игры. Но такой щедрый подход в корне не устраивал Magnavox. Итоговая игровая коллекция содержала 27 игр преимущественно спортивной направленноти, распределенных на 12 картриджей.

Ральф Баер держит в руках контроллеры коричневой коробочкиРальф Баер держит в руках контроллеры коричневой коробочки

Так или иначе, продукт имел оглушительный успех. По некоторым данным, всего было продано около 350 тысяч приставок. Консоль не только положила начало всем играм на экране, но и сама неоднократно эволюционировала и обзавелась подражателями. В последующих ревизиях Magnavoxа появились расширенные графические возможности и цвет.

Magnavox Odyssey 2, 1978Magnavox Odyssey 2, 1978

В течение полутора десятилетий Magnavox усиленно лоббировали свои права на рынке видеоигр. Иски от неё получили Activision, Coleco, Mattel и другие крупные компании. Примечательно, что ни одного дела юристы Magnavox не проиграли.

Спустя 13 лет, в 1985 году, к судебным распрям решила подключиться и Nintendo предполагалось лишить патент Баера на первую видеоигру законной силы и передать его создателю Tennis for Two Уильяму Хиджинбасэму. Однако дело кончилось ничем: Tennis for Two не использовала видеосигнал и, соответственно, видеоигрой считаться никак не могла.

Что было дальше

После успеха Magnavox Odyssey Баер продолжил работу в Sanders Associates. В частности, он руководил процессом разработки улучшенных дисплеев, а также стал одним из первых ученых, создавших интерактивные видеотренажеры для военных нужд.

Параллельно с основной работой Баер осуществлял консультативную поддержку юристов Magnavox. В результате компаниям удалось получить с нарушителей патентов порядка $100 млн.

В 1976-77 гг. Баер сотрудничал с Coleco и разработал для них целую линейку видеоигр. Позднее совместно с Warner Communications участвовал в создании интерактивных видеоигр для кабельного ТВ. Баер покинул Sanders Associates в 1990 году.

Основную работу Баеру удавалось эффективно совмещать с различными побочными проектами. Он консультировал производителей игрушек и прочих развлекательных товаров. Именно Ральфу Баеру мы обязаны появлением говорящих праздничных открыток, интерактивного плюшевого мишки и прочих болтливых устройств для детей и взрослых.

Уже на закате своей карьеры Баер самостоятельно восстановил по чертежам набор прототипов Magnavox Odyssey и передал реплики в экспозицию Museum of the Moving Image. Прочие разработки, включая оригинальные устройства 1960-х, экспонируются в Смитсоновском музее.

Подведем итоги

Мы живем в удивительное время, когда индустрия виртуальных развлечений активно стимулирует рост серьезных технологий. Еще полвека назад всё было совершенно наоборот: видеоигры только-только выходили из застенков военных ведомств, где их разрабатывали одиночки-энтузиасты.

Всего через 10-15 лет после появления Magnavox Odyssey рынок пополнился такими титанами как ZX Spectrum, Famicom и Commodore 64. И все эти устройства в чем-то походили на своего предка.

Тем не менее, Ральф Баер был разочарован тем, во что трансформировалось его детище:

Игры дегенерировали во что-то однопользовательское, в то время как я хотел сделать их развлечением для всей семьи

Ральф Баер в своей домашней мастерской. 2012Ральф Баер в своей домашней мастерской. 2012

Баеру принадлежит в общей сложности более 150 различных патентов и огромное количество наград в технологической сфере. До последних лет своей жизни он не терял страсти к изобретательству. По его собственным словам, работа была одним из его важнейших жизненных мотиваторов:

Я одинок. Все мои друзья, даже жена их нет. Я всех пережил. И каждый день мне нужен новый вызов, мне нужно создавать.

Детище Баера обзавелось клонами и подражателями даже на территории Советского союза: приставки Палестра-02, Турнир и другие можно было приобрести в магазине электроники. Или при наличии опыта работы с паяльником изготовить самостоятельно по инструкции из журнала.

Дальнейшая история видеоигр вполне прозрачна и известна каждому ребенку восьмидесятых и девяностых. Но вот, что интересно: вопрос зачем играть на телевизоре все еще кажется нам странным. Но уже совсем по другой причине.

Подробнее..

Грачья Овсепян Отказ от карьеры ради семьи самая большая трагедия моей жизни

27.10.2020 20:10:40 | Автор: admin


Грачья Есаевич Овсепян в 19601976 годах был главным конструктором семейства ЭВМ Наири, сыгравшего важную роль в развитии советской вычислительной техники. Сейчас он живет в Лос-Анджелесе и очень жалеет, что был вынужден завершить работу, когда впереди открывались уникальные перспективы. В интервью музейному проекту DataArt Грачья Есаевич вспоминает, как в ЕрНИИММ с нуля разрабатывали первые машины, и объясняет, почему Наири-4 не стала первым персональным компьютером.

На фото Грачья Овсепян во время семинара в ЕрНИИММ в 1970 году

Начало


Я родился в Ливане 12 июня 1933 года, а в Армению семья переехала в 1946-м. Очень непростое время для СССР, особенно, для Советской Армении. Трудно было найти хлеб, мы почти голодали, но выжили. В 1949-м я поступил в Ереванский университет на физмат факультет. В 1954-м окончил его, год работал учителем в деревне, еще год в Институте физики. Там набрался опыта в электронике и радиотехнике.


Грачья Овсепян выполняет дипломную работу по радиотехнике в Ереванском Университете, 1954 г.

Однажды я присутствовал в зале Академии наук Армянской ССР, где кибернетику обсуждали известные армянские ученые. Академик Иосифьян рассказывал о науке управления, которую совсем недавно при Сталине называли лженаукой. Там же я узнал, что молодой ученый Мергелян будет руководить новым институтом математических машин. Под впечатлением от этой конференции я очень захотел поступить на работу в институт Мергеляна. У меня была какая-то внутренняя уверенность, что в этой области науки я могу достичь определенного успеха. Но выяснилось, что репатрианту, т. е. человеку, приехавшему из-за границы, устроиться в закрытый почтовый ящик чрезвычайно сложно. В коридоре я случайно встретил знакомого профессора и попросил его помочь. Замдиректора института сказал на приеме, что может взять меня только лаборантом. Пришлось согласиться, хотя я уже работал с электроникой и мог претендовать на большее. Вообще же тогда, благодаря авторитету Мергеляна в Ереванский НИИ математических машин, удалось набрать молодых ребят, которые имели определенный опыт в этой области, в основном из Москвы.

Раздан


В ЕрНИИММ тогда начиналась разработка полупроводниковой ЭВМ Раздан. Я очень интересовался полупроводниками, а потому хотел попасть в лабораторию к Ефиму Брусиловскому, которого назначили главным конструктором машины. Главный инженер выступил против моего перевода, ссылаясь на то, что группа сформирована полностью. Но Брусиловскому я, видимо, понравился он добился, чтобы меня приняли.


Валентина Назарова начальница научного отдела Вычислительного центра Воронежского Госуниверситета за пультом ЭВМ Раздан-2. ВЦ ВГУ получил машину из Еревана в 1965 году и использовал ее до 1971-го. Фото из архива ВЦ ВГУ

О полупроводниках в то время информации было очень мало, приходилось самим придумывать все с нуля. Мне поручили схему триггера, поскольку у меня было немного опыта работы с осциллографом, транзисторами, сопротивлением и т. д. Но теоретически я совершенно ничего не знал, поэтому разработку начал с чтения книги французского автора Вассёра. В итоге мой первый триггер Брусиловскому понравился, и он назначил меня руководителем группы, занимавшейся устройством управления Раздана. Для него я разработал всю схематику, причем у меня получилась оригинальная схема формирователя. В итоге задержка была в четыре раза меньше, чем при стандартной схеме. Это было мое первое изобретение, и мы назвали его схемой-спасителем машины Раздан. Такой она потом стала и для машины Наири. Всего же над Разданом мы работали четыре года до декабря 1960-го.


Брошюра Ж. П. Вассёра описывает принцип действия и основные схемы усилителей и генераторов с кристаллическими триодами. Издана на русском языке в 1956 году

Главный конструктор


Поступив в заочную аспирантуру, мы с товарищем ушли от Мергеляна и поступили в ВЦ Академии наук Армении. Уже оттуда мы поехали в Москву в Институт автоматики и телемеханики, где стали аспирантами профессора Лернера. Но чуть позже из ЕрНИИММ нас настоятельно попросили вернуться, а замдиректора института пообещал нам, что после окончания работ по внедрению Раздана, даст нам более ответственную работу. Заместителем директора был Гурген Маркарович Саркисян очень умный и хороший организатор. Когда Мергелян вернулся в теоретическую науку, Саркисян его заменил и уверенно держал институт на ногах.


Грачья Овсепян во время ноябрьской демонстрации в Ереване в 1957 году

В 1961 году, когда закончилось внедрение Раздана на заводе, мне поручили лабораторию малых машин и назначили главным конструктором. Первым делом из Министерство радиопромышленности пришел заказ на разработку маленького электронного арифмометра, способного заменить большой механический. Поскольку я уже читал об идеях английского ученого Мориса Уилкса, то сразу решил: буду делать нормальную машину с микропрограммным управлением.


Книга Мориса Уилкса была переведена и выпущена в СССР еще в 1953-м, всего через два года после выхода оригинального издания. Но на фоне гонений на кибернетику в середине 1950-х распространялась ограниченно

В 1962 году на Международной выставке вычислительной техники в Москве показали французскую малую машину CAB-500 последовательного действия. В качестве памяти для нее использовался суперсовременный, но очень большой и сложный магнитный барабан. В Министерстве радиопромышленности эту машину купили, а нам приказали ее повторить. Но наши технологии этого не позволяли в принципе, да и идея у меня была совсем другой. Я хотел построить машину параллельного действия с микропрограммным управлением, а потому тихонько занимался этим делом писал аванпроект. Затем показал его очень толковым ребятам из ВЦ Академии наук СССР, работавшим под руководством академика Дородницына. Идея им очень понравилась собственно, из нее и родилась Наири.


Так выглядела малая вычислительная машина CAB 500 французского производителя SEA (Socit d'Electronique applique l'Automatisme)

Наири: 1 и 2


Когда я приступил к реализации, многие сомневались, что идея сработает. Я и сам не знал, получится или нет, но пошел на риск. Не представляя возможностей микропрограммирования, шаг за шагом открывал его секреты. Я ездил в Москву к парню, который готовил диссертацию по микропрограммированию, находил и других специалистов. Но ничего особенно ценного мне у других почерпнуть не удалось, пришлось все делать самому.

Мне снова повезло как раз появились устройства постоянной памяти на съемных кассетах, каждая объемом в 2048 36-разрядных слов. Без нее я бы не смог реализовать проект: машина должна была быть параллельного действия с микропрограммным принципом управления, а программы и микропрограммы нужно было хранить в единой постоянной памяти. В этом главная-то идея и заключалась.

Параллельный принцип позволил использовать только один универсальный регистр-сумматор, а в роли остальных регистров использовались фиксированные адреса оперативной памяти. Благодаря этому значительно уменьшился объем оборудования и снизилась сложность монтажа машины.

Очень важно, что меня окружал замечательный коллектив: сотрудники лаборатории 26 человек поняли логику моих рассуждений и поверили мне. Начав разработку в 1961 году, в 1964-м мы смогли предъявить Наири-1 малую машину с оригинальной структурой. Она была запатентована в четырех странах: в Англии, во Франции, ФРГ и Японии.


Хотя внешне Наири близка к CAB-500, их устройство и архитектура принципиально различаются. Это подтверждает французский патент 1.470.483 от 2 марта 1966 года

Наше министерство проект вначале не одобрило, и мы занимались им тайком. Только когда машина была почти готова, чиновники поняли, что получается что-то принципиально новое. Госкомиссию по приемке машины возглавлял академик Анатолий Дородницын, который после успешных испытаний дал добро на ее серийное производство. В январе 1965 года мы всего за неделю усердной работы закончили внедрение Наири на Казанском заводе. Довели проект до кристальной чистоты. Кстати, в Казани Наири-1 пошла даже раньше, чем на нашем опытном заводе в ЕрНИИММ.

Министерству очень хотелось успеть к 800-й юбилейной выставке в Лейпциге, поэтому пришлось спешить. Но мы успели и презентовали машину с большим успехом. Американские, немецкие, французские разработчики приходили смотреть, как это возможно: все машины последовательного действия, а наша параллельного, при этом размером меньше с письменный стол. Потом советские торговые представители демонстрировали серию Наири в разных городах мира еще раз двадцать. В частности, в 1976 году в Лос-Анджелесе местные армяне с большим удовольствием специально приходили посмотреть на Наири-4.


Общий вид ЭВМ Наири-1, 1964 год. Серийный образец Астраханского завода ЭВМ

Заканчивая работу над Наири-1, мы одновременно занимались схематикой Наири-2. Я уже тогда представлял, как без особого труда можно вдвое увеличить быстродействие машины и объем памяти, расширить программное обеспечение. Так что Наири-2 на нашем опытном заводе и еще нескольких производствах по Союзу мы внедрили достаточно легко.

Наири-3


Наири-3 мы разрабатывали уже на интегральных схемах, которые делали в Зеленограде для космических и военных проектов. Но как раз производителям хотелось вывести эту технологию в более широкое употребление, и мы могли им в этом помочь. Главный инженер зеленоградского почтового ящика Лазарев знал, как широко использовались Наири-1 и Наири-2, инициатива, чтобы новую машину мы сделали на интегральных схемах, исходила от него.

Получился серьезный прорыв: нашей новой разработкой стало двухступенчатое микропрограммирование. В одной части ПЗУ 300 разрядов быстродействующей, но небольшого объема памяти. Фактически они в одной кассете помещалось, а их адреса запоминались в другой части ПЗУ уже большего объема. Т. е. вместо того чтобы запоминать 300 разрядов, мы запоминали только их двоичные адреса 8 разрядов. Кроме того, мы, например, использовали дополнительный триггер, и вообще много чего придумали.

Это дало возможность создавать микропрограммное поле фактически бесконечный набор микропрограмм. Тогда как IBM использовал 16-разрядное микропрограммирование, а его методы сильно ограничивали возможности. У нас же получилась огромная память до 128 тысяч адресов с высоким быстродействием. Это открыло широкие перспективы: мы одними из первых в мире смогли применить методы полной микропрограммной эмуляции нескольких машинных языков. Таким образом, мы могли использовать богатую базу других машин, например, Минск-22. Для этого была создана модификация Наири-3-1.


Буклет об ЭВМ Наири-3 для международной выставки в Амстердаме 1971 года

Модификация Наири-3-2 предназначалась для реализации системы разделения времени. Заказчиками для нее должны были стать учебные заведения и большие заводы. Одна такая машина фактически могла заменить 128 Наири-2, если подключить к ней 128 телетайпных устройств. В Советском Союзе нашу разработку внедряли во многих областях: я видел как на Наири-3-2 работали на кафедре академика Бусленко в Химическом институте имени Губкина. Каждый студент, сидя за телетайпом, как бы получал для работы Наири-2. Конечно, это обеспечивало высокую эффективность.

Так же на базе Наири-3-2 был разработан двухмашинный комплекс Наири-3-3 для автоматизации процессов на крупных производствах. Его, например, внедрили на Львовском заводе радиокомпонентов. Конечно, Наири-3 очень интересовались военные: их привлекали гибкая структура и легкая адаптация машины для решения специальных задач.

Интересный момент в этой истории преемственность двух идей, сыгравших заметную роль в истории ЭВМ. Первую в 1945 году высказал Джон фон Нейман: он предложил хранить в одной общей памяти число и команды. Вторую хранить в общей памяти число, команды и микрокоманды предложили мы в 1966-м, разрабатывая Наири-3.


Фрагмент статьи академика Ершова об особенностях ЭВМ Наири-3 в американском специализированном журнале Datamation за сентябрь 1975 года

Обман министра


Был момент, когда меня хотели с разработки Наири-3 убрать. Машина отказалась работать на опытном заводе, и новый директор ЕрНИИММ Фадей Тачатович Саркисян утверждал, что это я все провалил. Матом меня крыл на партийном собрании, притом что я никогда не был членом коммунистической парти. На самом деле, все было так.

Наири-3 первая машина третьего поколения, ей очень интересовались в ВПК. Как только мы закончили ее конструктивно и начали наладку, военные они же спешат позвонили и потребовали везти машину на секретную выставку электроники в Москву. Мы тоже поехали всем коллективом: по ночам занимались наладкой. Но днем лампочки на пульте управления блестели так, будто все уже работает. В общем, показуха. Вдруг подходит ко мне министр радиоэлектронной промышленности Калмыков: Грачья Есаевич! Сейчас подойдут член Политбюро Устинов и руководитель ВПК Смирнов проверить машину. Пожалуйста, скажите, что она уже внедряется на Астраханском заводе. Хотел, чтобы я соврал. Через десять минут действительно приходят. Устинов говорит: Вижу, машина хорошая, третье поколение, на интегральных схемах, а меня обвиняют в отсталости Товарищ Калмыков, почему о ней никогда нигде не говорится? Калмыков отвечает: Да что вы! Эта машина уже внедряется. Идет процесс изготовления на Астраханском заводе. Ты меня приятно удивил, обрадовался Устинов и ушел.


Дмитрий Устинов был одним из главных организаторов и идеологов советского ВПК. На фото он на трибуне во время заседания Политбюро ЦК КПСС. Конец 1970-х

Когда я вернулся в Армению, увидел, что к нам уже приехали то ли десять, то ли 20 человек с Астраханского завода. Все документы они забрали, хотя мы еще не закончили: главный инженер опытного завода Ишин сам мечтал стать главным конструктором машины. Он и утверждал, что три ЭВМ Наири-3 стоят у них в отделе наладки, но не могут работать из-за ошибок разработки. На самом деле, причина была в несоблюдении технологии при их изготовлении. Я знал, что с моей помощью в Астрахани все получится, но как раз в этот момент меня и попытались снять с должности.

Астраханцы требовали сопровождения, им отвечали, что нужно доработать документацию. Но я сказал: Разрешите мне поехать, люди ждут. Поскольку руководство не верило, что у меня что-то получится, командировку разрешили. В Астрахани я организовал работу в три смены: приходил в 7 утра, уходил в полночь. Ишин звонил директору завода и требовал, чтобы меня обманщика к работе не допускали. Но тот со мной поговорил и мешать не стал. Через три месяца Наири-3 была готова: семь машин поставили на конвейер. Так что обман министра мне помог ускорил внедрение и спас меня от краха. Иначе бы меня сожрали.

Когда производство запустили, в Астрахань приехал Саркисян и начал ругать Ишина: Он меня обманул, подонок, неправильно информировал. Спрашивает: Чем могу тебе помочь? Ничем, отвечаю, уже все сделано. Все-таки нечестно Фадей тогда играл. Но когда мы за Наири-3 получили Госпремию, он стал хорошо ко мне относиться.

Потом я занимался Наири-4. Если бы не обстоятельства, я бы и Наири-5 сделал. Но мне не повезло, обстоятельства не позволили.


Заключение отзыва академика Дородницына на разработку семейства ЭВМ Наири в связи с присуждением авторам разработки Государственной премии

Наири-4


Это уже был комплекс универсальных вычислительных средств (КУВС), поскольку всю вычислительную систему разделили на части, как кубики, из которых потом можно собрать машину нужной конфигурации. Реализовать эту идею можно было за счет уникального метода микропрограммирования. В качестве элементной базы использовались большие и сверхбольшие интегральные микросхемы, что позволило уменьшить размер машины.

Главным компонентом Наири-4 стал усеченный процессор. Он состоял из блока микропрограммного управления, содержащего постоянную память для хранения микрокоманд, микропрограммы, машинные команды, программы, подпрограммы, диагностические тесты и т. д. Затем арифметический блок, блок управления внешних устройств. В минимальной комплектации Наири-4 состояла как раз из усеченного процессора и подключенной к нему пишущей машинки в качестве устройства для общения с машиной. Но использование шины Unibus позволяло без труда расширять ее возможности до желательной конфигурации, подключать дополнительные устройства: ввода-вывода, внешний накопитель и т. д.

КУВС также позволял создавать системы управляющих машин и системы разделения времени, к тому же, Наири-4 была программно совместима с PDP-11. Ни одна другая машина таких возможностей не предоставляла. Мы успели запланировать и разработку голографической памяти для хранения микропрограмм, даже подготовили техническое задание совместно Василием Букреевым из Московского центра физического приборостроения. Т. е. уже для Наири-4 мы собирались использовать компакт-диск.

Надо сказать, что я был приятно удивлен, когда в разделе БСЭ, посвященном советской вычислительной технике, рядом с машинами серии Наири случайно увидел свою фамилию. Остальные машины были перечислены без имен разработчиков.


Оператор за пультом Наири-К модификации Наири-1 с увеличенным ОЗУ

Тяжелый выбор


В 1976 году настал самый неожиданный и неприятный момент в моей жизни. Когда репатриантам начали разрешить выезд из Советского Союза, многие армяне стали уезжать за рубеж, и моя семья братья, сестра и мать тоже захотела уехать. Я оказался перед тяжелой дилеммой. В ОВИРе знали, что я известный ученый и работаю в ЕрНИИММ. Чтобы семью выпустили, я должен был отказаться от карьеры.

Это была самая большая трагедия моей жизни. Я получил Госпремию, на равных общался с министрами, делал доклады для многих институтов о развитии вычислительной техники. Как раз в это время начальник главка радиопромышленности Горшков позвал меня в Москву рассказать о Наири-4 директорам подчиненных ему предприятий, а потом сказал: Теперь, ребята, идите работайте, как ЕрНИИММ. И на фоне такой карьеры мне нужно решить, продолжать ли работу. В итоге, чтобы не оставлять семью в несчастном положение, я от карьеры отказался. До сих пор не могу простить себе, что пошел на этот шаг.

Упущенные возможности


Все-таки, думаю, Фадей Тачатович Саркисян совсем не любил, когда министры приглашали меня в Москву. И быстрый рост моего авторитета был ему неприятен. Поэтому когда я озвучил ему решение об уходе, он, зная его истинную причину, не стал вызывать меня на разговор или искать пути решения проблемы. По-моему, он, наоборот, обрадовался. Собрал банкет на 50 человек, произнес речь о том, что я сделал, каких людей подготовил. Подчеркнул, что работа не остановится есть кому меня заменить. Проводил достойно.

В середине 1970-х мы упустили вариант изготовления Наири-4 для ширпотреба, т. е. так и не сделали отечественный персональный компьютер. Образцом для него должен был стать усеченный процессор Наири-4 в корпусе телевизора, макет уже был изготовлен и долго стоял в кабинете директора. Фактически все было готово по идеологии, структуре, матобеспечению.

Но после моего ухода Наири-4 забрали военные, и дальнейшее развитие машины шло уже в только в области военного применения с жесткой конструкцией. В связи с этим можно вспомнить, что Фадей Саркисян пришел в ЕрНИИММ как военпред, а позже получил звание Генерала армии.

Говорят, что Наири-4 начало персональных компьютеров в СССР, а ведь разработали мы его раньше IBM. Уже на Наири-3-2 с разделением времени любой студент мог работать как на персональном компьютере. Телетайп или дисплей какая разница! Идея та же самая, а сама система в Союзе действовала уже в 1976 году. Жаль, что ученые того времени широко ее не рекламировали. Сделано было очень много, но разработка так и осталась в тени.

Отказник


Формально решение уйти из ЕрНИИММ я объяснил тем, что моей жене-москвичке не подходит климат Армении. В Москву мы и переехали. Поначалу все было нормально. Я работал и в университете, и в Академии наук. Но потом медвежью услугу оказал мой брат: приехав в США, он сразу послал мне вызов, не спросив меня. Когда о документах узнали в КГБ, меня попросили уволиться с работы, и в научные организации уже не принимали. Можно сказать, как врага народа. Я три года не работал куда ни обращался, везде отказывали. Пытался объяснить, что у меня огромный опыт, что я могу быть полезен, но нет. Случилось это при Андропове.


Семья Г. Е. Овсепяна во время депрессивных лет в Москве после отказа на выезд за границу, 1984 г.

Однажды, когда я гулял на улице, меня поймали милиционеры. Узнав, что я не работаю, отвезли в отделение и сказали, что посадят за тунеядство, если через месяц никуда не устроюсь. Я не хотел подписывать протокол, но меня заставили. Сказал об этом знакомому парню, который уже прошел такой путь, он объяснил, что работу действительно нужно срочно найти. Он же предложил мне стать кочегаром в бойлерной. Я пришел в подвал одного из высотных домов Москвы, где вокруг стола сидело человек 16. Половина бывшие уголовники, остальные отказники-евреи разных профессий. Один из них подтвердил, что знает машину Наири. Начальник сказал, что политические вопросы здесь никого не интересуют и спросил: Можешь сделать нам такой тестер, чтобы он мог проверять исправность блока управления, который последовательно включает насосы? Что угодно могу, ответил я.

В подвале, полном воды и дерьма, я проработал пять лет до 1988-го. Потом выросли мои сыновья-близнецы, пришли бумаги из военкомата. Я пошел в ОВИР узнать, когда нашу семью наконец выпустят. Мне ответили, что в ближайшие пять лет я точно никуда не поеду.

В знак протеста я объявил голодовку: Или отпустите меня, или я покончу жизнь самоубийством. Писал заявления по всем адресам в том числе, в зарубежные посольства. На 16-й день голодовки я уже не мог работать, пошел в поликлинику. Врачи подтвердили, что я действительно в плохом состоянии, но больничный не дали, поскольку сам виноват.


Грачья Овсепян после голодовки в Москве, 1988 год

Тогда я обратился в американское посольство. Посол США Джек Мэтлок сказал, что не имеет права оказывать мне медицинскую помощь, и попросил голодовку остановить. Но я продолжал бороться. На 30-й день из КГБ приехал медицинский работник в халате и сказал, что, если не остановлюсь, завтра меня заберут в больницу. Я догадывался, что там ничего хорошего меня не ждет. В 12 часов ночи позвонил парень-армянин, связанный с КГБ, с угрозами: Тебе будет очень плохо, если не прекратишь. Я подумал и решил не рисковать.

В дальнейшем меня часто приглашали в посольство США: я встречался с конгрессменами, приезжали из Америки представители еврейской общины. Одна женщина сказала, что они подняли большой шум в Вашингтоне в мою защиту. А потом в Москву приехал президент Рейган, к этому событию американский корреспондент взял интервью у меня и у моих родственников в Лос-Анджелесе. Сюжет в Америке показали по телевизору.

https://www.youtube.com/watchv=dNqTqHnEZZQ&ab_channel=HovsepyanRefusnik
Тот самый сюжет с интервью Грачьи Овсепяна телеканалу NBC

Вопрос решился на встрече Рейгана с Горбачевым: за неделю я и еще около десяти отказников получили разрешения и уехали в Америку. Но в США работать по специальности мне тоже не дали. Не доверяли: вдруг я кагэбэшник? Пришлось стать наладчиком в одной не очень удачливой вьетнамской фирме по ремонту персональных компьютеров. Три года поработал и ушел. Так и завершилась моя трудовая карьера.
Подробнее..

Перевод История развития видеоконференций

08.10.2020 12:16:26 | Автор: admin

Скриншот CU-SeeMe одной из первых Интернет-систем для видеоконференций, появившейся ещё в 1992 году. В бизнес-среде и оборонке примеры использования технологий видеоконференций возникли ещё 1980-х.

Несмотря на четыре десятка лет эволюции технологий, видеоконференции на низком уровне по сути остаются магией, которая в половине случаев не срабатывает. В этой статье я расскажу, почему так происходит.

В мире, напуганном распространением смертельно опасного заболевания, работодатели рано или поздно неизбежно бы попросили сотрудников оставаться дома и работать оттуда. Этим преимуществом чаще всего не обладали работники прошлого, оно стало возможным благодаря Интернету. Но для такого способа применения Интернет далеко не идеален, и он доказывает это почти каждый раз, когда вы начинаете видеоконференцию. Небольшие задержки заставляют людей перебивать друг друга. Время тратится впустую, потому что собеседникам приходится повторять сказанное. И всегда найдётся один коллега, решивший поработать в кафе со всем окружающим его шумом. Лично я уже почти четыре года работаю удалённо, поэтому мне часто предоставлялась возможность совершения конференц-звонков; я осознал, что с ними связаны проблемы технические, культурные и практические. И многие трудности, вызываемые этой технологией, сводятся к множеству мелких особенностей Интернета. Сегодня мы поговорим о сложности системы видеоконференций.

Многие видеоконференции ужасная трата денег; они не обеспечивают никаких преимуществ перед голосовыми конференциями, потому что пользователи не знаю, как использовать потенциал визуального компонента. Это цитата из авторской колонки 1992 года в Network World Джеймса Кобелуса, заметившего, что многие компании инвестировали большие средства в технологию межофисных видеоконференций, но не смогли сделать их более эффективными, чем простое общение по телефону. В то время у них не было буквально никаких преимуществ современных технологий. Вот как, согласно статье, выглядела в ту эпоху стандартная система для видеоконференций: Обычно для видеоконференций могут использоваться параллельная дистанционная передача звука, стационарные и мобильные внутренние микрофоны, несколько поворачиваемых настенных камер, стенды для неподвижной и анимированной графики (на которых камера находится в руке докладчика, пока он рисует), проекторы 35-миллиметровых слайдов, видеомагнитофоны, факсимильные аппараты, электронные интерактивные доски и персональные компьютеры.

Чтобы получить широкую популярность, технологиям видеоконференций потребовалось множество инноваций


Да, технология конференц-звонков даже в 2020 году немного расстраивает, но стоит сказать, что за эти годы мы совершили довольно долгий путь. Даже несмотря на то, что технология видеоконференций остаётся раздражающе несовершенной, она всё равно отражает наши попытки устранения проблем, совершавшиеся в течение четырёх десятков лет.

С момента появления на рабочих местах в 1980-х оборудование для видеоконференций проделало долгий путь. Для многих компаний его приобретение оборачивалось затратой сумм с пятью нулями, а почасовая стоимость каждого вызова была гораздо выше (вплоть до 1 000 долларов/ч) по сравнению с зарплатами того времени.

(Возможно, это отразилось в том, что во многих первых системах трансляции видео применялся подход один передатчик, несколько приёмников, при котором использовались те же технологии, что и в кабельном или спутниковом телевидении. Они не были интерактивными, зато работали.)

С другой стороны, всего за несколько лет технологии видеоконференций значительно усовершенствовались, а их цена снизилась в десятки раз. В 1982 году, когда Compression Labs выпустила свою первую систему для видеоконференций, она стоила 250 тысяч долларов, однако цены быстро падали к 1990 году можно уже было купить готовую систему всего за 30 тысяч, а к 1993 году меньше чем за 8 тысяч.

Но для реализации видеоконференций приходилось идти на множество компромиссов. Линии T1 могли передавать примерно 1,5 мегабита потоковых данных в секунду. Такой полосы пропускания примерно хватило бы для просмотра одного видео на YouTube с разрешением 480p, а 1980-х для её приобретения нужно было потратить тысячи долларов. (Из-за свой многоканальной структуры, которая должна была стать эквивалентом 24 отдельных телефонных линий, линии T1 и сегодня остаются очень дорогими, несмотря на то, что их сильно обогнало по скорости оптоволокно.)


Чертёж из заявки на патент 1987 года, выданный Compression Labs. В нём описывается одна из первых технологий двусторонних видеоконференций. (Google Patents)

Со временем это привело к созданию вариантов систем, использующих для видеоконференций менее мощные сети, например, Compression Labs Rembrandt 56, которая использовала линии ISDN, в то время достигавшие максимальной скорости 56 килобит/с. Эти системы стоимостью 68 тысяч долларов, в которых использовались инновации Compression Labs в области сжатия видео, позволили потребителям снизить затраты примерно до 50 долларов/ч. (Примечание: в 1980-х и 1990-х удалённые работники чаще всего использовали ISDN.)

Как вы можете понять, поначалу видеоконференции в основном процветали в государственных учреждениях, и многие из первых исследовательских работ по применимости таких технологий обычно проводились военными.

Сжатие видео связано с неизбежным компромиссом между разрешением картинки и возможностью обработки движения, говорится в диссертации 1990 года студента Школы повышения квалификации офицерских кадров ВМС США, в которой излагаются рекомендации по организации видеоконференций для ВМС Китайской Республики (Тайваня). Качество изображения зависит от ширины полосы пропускания. При снижении полосы пропускания требуется больше кодирования, что приводит к ухудшению изображения.

Стоит также отметить, что видеоконференции стали важным элементом совершенствования технологий сжатия изображений на протяжении 1980-х. На самом деле, Compression Labs, ответственная за множество этих инноваций стала в 2000-х источником споров её приобрёл новый владелец, который попытался воспользоваться патентом на алгоритм сжатия, применяемый в формате JPEG, чтобы подать в суд на крупные корпорации. Патентный тролль уладил спор со многими крупными технологическими компаниями в 2006 году, после того, как суд выяснил, что патент распространяется на применение только в видеосигнале.

Технология видеоконференций потребительского уровня (то есть веб-камеры) появилась в 1994 году благодаря выпуску Connectix Quickcam устройства, с которым я тесно знаком. Это устройство стоимостью около 100 долларов плохо работало на старых PC из-за ограниченной полосы пропускания, обеспечиваемой параллельными портами и другими старыми гаджетами; тем не менее, оно привело к дальнейшим инновациям, продолжавшимся несколько десятилетий. (Порты USB и Firewire последний использовался в камере iSight, которую Apple продавала в начале 2000-х обеспечивали полосу пропускания, достаточную для записи видео, а то и передачи его через Интернет.)

В корпоративном секторе тоже возникали важнейшие инновации. В 1992 году компания Polycom выпустила свой первый конференц-телефон устройство, позволявшее разговаривать в одном кабинете нескольким людям; в таком формате конференции продолжали проводиться ещё следующие три десятка лет. А спустя несколько лет компания WebEx, которую позже приобрела Cisco, разработала одну из первых технологий видеоконференций для Интернета, основные принципы которой мы используем и сегодня.

Программные технологии передачи видео были значительно усовершенствованы в начале 2000-х приложением Skype, способность которого обеспечивать высококачественные видео- и голосовые разговоры по сети из узлов peer-to-peer стала важнейшей инновацией в технологиях конференций. Однако после приобретения компанией Microsoft Skype перешёл от схемы peer-to-peer к системе супернодов.

К середине 2000-х веб-камеры стали стандартными компонентами ноутбуков и настольных компьютеров. Сама идея была предложена ещё в 2001 году в Hewlett Packard Concept PC, а первыми компьютерами со встроенными веб-камерами стали iMac G5 и первое поколение MacBook Pro с процессорами Intel.

Итак, у нас есть весь этот набор гаджетов, позволяющий связываться друг с другом почти без малейших проблем. Но почему же мы этим недовольны? На то есть несколько причин.

1,5 Мбит/с такова рекомендуемая полоса пропускания, необходимая для совершения видеозвонка в Skype с высоким разрешением. (Эта величина равна максимальной полосе пропускания линии T1.) Для эффективного выполнения телефонных звонков в этом VoIP-сервисе компании Microsoft необходимо около 100 кбит/с, но этому часто мешают другие аспекты в вашей машине или сети. Если у вас загружаются торренты, то может возникнуть проблема.


Конференц-телефон Polycom совершил переворот в области офисных конференц-вызовов.

В чём проблема конференц-вызовов в офисе


Чтобы ответить на вопрос о том, почему офисные видеоконференции по-прежнему, несмотря на все инновации, сталкиваются со множеством проблем, нам нужно сделать шаг назад и учесть, что мы стремимся выполнить множество задач на очень ненадёжном фундаменте.

У нас есть все эти инновации, но они конкурируют с гораздо большим количеством ресурсов.

Если вы сидите дома перед ноутбуком, к которому подключён оптоволоконный канал на 100 мегабит, то есть вероятность того, что вы стримите в соседнюю комнату видеоигру, одновременно скачивая 15 торрентов, но всё равно не испытаете особых проблем.

Но если вы находитесь в офисе ещё с сотней людей и этот офис ежедневно проводит несколько видеоконференций, то это очень оказывает очень высокую нагрузку на офисный Интернет.

Вот пример ситуации, которая может возникнуть сегодня: допустим, после обеда проводится общее совещание, но у вас близится дедлайн, поэтому вместо того, чтобы пройти пятнадцать метров до конференц-зала, вы решаете подключиться к совещанию онлайн. Допустим, десятеро ваших коллег тоже решили поступить так же. Несмотря на то, что все вы находитесь в одном большом помещении, ни одно из этих соединений не выполняется локально. Вы подключаетесь к совещанию в локальной сети через Интернет, то есть эта локальная сеть не просто должна закачивать кучу дополнительных данных в Интернет, но и скачивать их обратно.

Если вы, допустим, работаете в Google, где построена масштабная сетевая инфраструктура, то это может и не быть серьёзной проблемой. Но в компаниях поменьше корпоративная сеть может быть чрезвычайно дорогой и стоить сотни или тысячи долларов в месяц, не считая затрат на монтаж. В результате вы на каком-то этапе можете упереться в потолок своих возможностей.

Внезапно видеоконференция, которая должна обслуживать удалённых пользователей, начинает тормозить и заикаться. (Это может быть одной из причин, по которым ребята из ИТ-отдела рекомендуют вам не загружать Dropbox на рабочий PC.)

Но даже небольшие моменты задержек могут создавать серьёзные проблемы. У вас когда-нибудь было так, что ваши слова накладываются на речь другого человека? Такое происходит, когда в сигнал вкрадывается небольшая задержка. А поскольку видео и звук часто передаются разными способами (иногда даже разными устройствами), эти задержки могут вызывать проблемы синхронизации допустим, ситуации, при которых звук движется быстрее, чем собеседник. Как утверждает компания 8x8, занимающаяся видеоконференциями, для видеозвонка приемлемой задержкой является 300 миллисекунд, но такой задержки вполне достаточно для того, чтобы два человека начинали говорить одновременно. (Возможно, нужна система как в рациях?)


Многие современные веб-камеры просто не очень хороши, особенно если они встроены в экран ноутбука.

Почему конференц-звонки плохо работают вне офиса


Но даже если вы дома или в дороге, скорее всего, всё равно возникнут проблемы, не позволяющие обеспечить качественные звук и видео; и не всегда они связаны с шириной Интернет-канала.

Часть проблем будет связана с шумом, другая с качеством камеры, а некоторые с настройками звука.

Что касается качества камер, то в последние годы возник интересный феномен: по сути, мы заинтересованы в улучшении качества камер, но в то же время стремимся к уменьшению размеров объектива, а это оставляет не так много возможностей для совершенствования. По сути, камерам некуда деваться нужно или миниатюризировать технологии, или пытаться реализовать элементы, которые оказываются скорее спорными, чем полезными. Самым печально известным примером стал Huawei Matebook Pro дизайнеры решили разместить камеру под поднимаемую клавишу, и это оказалось самым спорным аспектом в остальном хорошего ноутбука.

Всё это происходит в то время, когда важность чёткости камеры постоянно повышается, а значит, веб-камеры ноутбуков оказываются значительно хуже своих мобильных аналогов например, в 16-дюймовом MacBook Pro используется веб-камера на 720p. И это сегодня, когда многие современные смартфоны способны снимать видео с фронтальных камер в разрешении 4K. Даже если потоковое воспроизведение не справится с полным разрешением, есть вероятность того, что при снижении уровня сжатия повысится качество.

Кстати об уровне сжатия: новая мода на избавление от разъёмов для наушников создала довольно серьёзную проблему для конференц-вызовов. Если говорить просто, то большинство версий Bluetooth традиционно имеет достаточно посредственное качество звука при использовании микрофона. Это вызвано особой проблемой спецификации Bluetooth, преследующей технологию на протяжении почти всей её истории: по спецификации невозможно получить высококачественный звук микрофона из-за нехватки пропускной способности; ситуация усугубляется, если устройство подключено к 2,4-гигагерцовой сети WiFi, имеющей ту же частоту, что и Bluetooth.

На самом деле, при использовании Bluetooth-гарнитуры качество звука микрофона значительно падает. И хотя Bluetooth 5.0 потенциально может обеспечить полосу пропускания для улучшения звука микрофона гарнитуры, этот стандарт в основном поддерживается только самыми современными PC и смартфонами. Факт заключается в том, что если вы хотите подключиться к видеоконференции, то нужно просто подключить проводные наушники, пусть даже через USB. Я выяснил, что даже навороченные беспроводные наушники с подавлением шума, например, Sennheiser PXC 550, проблемно использовать в качестве микрофона в видеоконференциях. (Сегодня я пользуюсь гораздо более раскрученными Sony WH-1000XM3, но несмотря на все усилия, вложенные в разработку их микрофона, когда мне нужно сделать звонок, я подключаю кабель наушников со встроенным микрофоном.)

Стоит также заметить, что подобное влияние на качество вызова могут оказывать и обычные телефонные звонки на номер, потому что голосовые линии обычно подвергаются сильному сжатию. (Именно по этой причине музыка при удержании вызова звучит особенно ужасно.) Если у вас есть выбор между набором номера и звонком через приложение, то лучше выберите приложение.

Что касается звука, то стоит учитывать и окружение. Комнаты с сильным эхом не особо подходят для конференц-вызовов. И хотя работа в кофейне может подстегнуть вашу креативность, вам не удастся найти в ней тихое пространство для беседы (как и достаточно быстрого Интернет-соединения).

Но на фронте борьбы с фоновым шумом есть и хорошие новости существует технология, позволяющая микрофону справляться со звуками блендеров для фраппучино. Приложение Krisp для MacOS, Windows и iOS при помощи искусственного интеллекта позволяет избавиться от многих фоновых шумов. Хоть оно и не бесплатно, зато позволяет улучшить качество звука. Для пользователей Linux тоже существует довольно эффективный вариант в приложении pulseaudio можно включить опцию, в реальном времени удаляющую из записей фоновый шум. (Оно не такое качественное, как Krisp, зато бесплатное!)

Похожая инновация на фронте видеосигнала размытие фона появилась и в главных инструментах для видеочатов Microsoft, Teams и Skype.

Скоро мы сможем принимать участие в видеоконференциях из Starbucks с тем же качеством, что и дома.

Но даже если вы выбрали подходящие наушники, избавились от всего окружающего шума, нашли идеальную комнату и сделали всё правильно, вам не удастся избавиться от того, что всем остальным участникам конференции нужно самим создать комфортную среду. И если один из собеседников решит участвовать в конференции с открытым на шумящую автостраду окном или подключившись через худшую в мире беспроводную сеть, не знает о существовании кнопки отключения звука или решит общаться в пижаме (а может и хуже того), то весь процесс общения непременно пойдёт под откос. А в наше время, когда люди вынуждены работать из дома, у них может и не быть плана Б.

Во многих смыслах это больше культурная, чем техническая проблема, но её можно объяснить при помощи понятия, более тесно связанного с кибербезопасностью, чем с видеосовещаниями: поверхность атаки. Чем больше людей участвует в конференции, тем больше поверхность атаки и тем выше вероятность того, что одно слабое звено испортит всю беседу.

Давайте будем честны: хоть ПО для видеоконференции неидеально, оно проделало долгий путь и теперь, в принципе, достаточно хорошо для того, чтобы позволить регулярно работать из дома, почти не влияя на качество этой работы.

Отличным примером этого может служить электронное обучение образовательная версия видеоконференций, которая считается настолько эффективной, что по сути стала распространённой практикой на случай снегопадов в некоторых районах.

Учитывая всё то, что мы способны делать с Интернетом, и огромный объём передаваемых данных, можно только подивиться тому, насколько хорошо видеоконференции выполняют свою задачу. А чтобы она была выполнена, часто требуется сильное сжатие и снижение качества. Именно из-за этого нам слишком часто приходится повторять свои слова. Возможно, нам стоит наоборот удивляться тому, что наши коллеги почти всегда нас слышат.
Подробнее..

Общаемся в Telegram со смартфонов на Symbian

16.10.2020 18:23:47 | Автор: admin

Среди всех вещей, которые люди делают с устаревшей вычислительной техникой есть одно довольно широкое направление, участники которого занимаются расширением возможностей вышедших из употребления устройств, стараясь сделать их актуальными настолько, насколько это вообще возможно. Мне тоже нравится выжимать все соки из устройств, особенно из мобильных, поэтому сегодня мы займёмся выводом телефонов середины-конца нулевых в современную сеть обмена сообщениями.

Введение

На самом деле получить доступ в Telegram на Symbian можно даже двумя способами. Но сейчас я расскажу только об одном, более трудоёмком в настройке и сложном, с точки зрения технической организации. Также стоит сразу оговориться, что описанный способ позволяет общаться не только в Telegram, но и в других современных сетях и работать будет на многих платформах, а не только на Symbian. Почему? Увидите позднее.

Так что же лежит в основе?

А в основе лежит популярный протокол Jabber, ныне известный под именем XMPP. Jabber поддерживает так называемые "транспорты" - шлюзы, преобразующие сообщения Jabber в сообщения подключаемых сетей и обратно. Подробнее об этом можно почитать здесь. Итак, идея очень проста: создать аккаунт на сервере Jabber, если его нет, взять десктопный Jabber-клиент с поддержкой транспортов, найти сервер на котором установлен Telegram-транспорт, добавить его в клиенте и зарегистрироваться, найти клиент для Symbian и вуа-ля, получить возможность писать людям со своей старенькой Nokia.

И что же со всем этим делать?

Давайте теперь пошагово разберем процесс настройки. Начать стоит с регистрации на одном из серверов Jabber. Этот пункт не обязателен, если у вас уже есть аккаунт, можно использовать его. Крупнейшим сервером в Рунете является jabber.ru. Требуется придумать имя пользователя и пароль. Ничего сложного. После регистрации можно переходить к следующему пункту: настройке десктопного клиента.

В качестве клиента я использовал Gajim, основное окно которого представлено ниже. Да, Psi+ более популярен и в начале я поставил его, но у меня далеко не всё заработало сразу и во время поисков проблемы я поменял в том числе клиент и Gajim полностью меня устроил (но проблема была не в Psi).

При клике по аккаунту откроется выпадающее меню, в котором надо выбрать "Просмотреть сервисы".

В открывшемся окне в строку адреса нужно ввести jabbercity.ru. Да, транспорт в Telegram установлен и на других серверах, но этот уже проверен и точно работает. Далее в списке транспортов находим нужный, выбираем его и тыкаем по кнопке "Зарегистрироваться".

Здесь потребуется ввести свой номер телефона и, нажав далее, дождаться сообщения об удачном завершении регистрации.

После этого сразу или некоторое время в Telegram придет стандартное сообщение с кодом подтверждения логина, а в "диалог" с Telegram-транспортом запрос этого самого кода, который нужно просто отправить ответным сообщением. Ии сразу после логина в Gajim появится запрос на добавление выгруженных контактов. На него, естественно, нужно ответить положительно. На этом работа в Gajim и самый сложный этап настройки закончен. Все добавленные контакты автоматически соберутся в одну группу.

Переходим к настройке клиента на Symbian. Я использовал Slick. Просто потому что мне его посоветовали. Если вы знаете более удобный и свежий клиент, буду рад советам в комментариях. Взять программу можно на сайте разработчика. Не буду вдаваться в подробности установки приложений Symbian, почитать об этом можно вот тут. После запуска попадаем в меню настройки аккаунтов. Здесь нужно поставить галочку рядом с Jabber и перейти в редактор учетной записи, в котором ввести имя пользователя, адрес сервера, на котором аккаунт был зарегистрирован, пароль и выбрать необходимость шифрования. Затем вернуться назад, нажать на кнопку сохранения и кнопку подключения к сети Jabber, выбрать точку доступа и...

И если всё получилось успешно, попасть в ростер, в котором будет группа Telegram со всеми подключенными контактами. Остаётся только выбрать, кому отправить сообщение.

Послесловие

Как я и говорил, точно так же можно получить доступ не только к Telegram, но к любой сети, для которой существует шлюз в Jabber и работать это будет на любом устройстве, для которого существует Jabber-клиент.

В моём случае это работает на Nokia C6. Все скриншоты были получены с неё.

В завершение хотелось бы ещё поблагодарить Дмитрия Вахрушева за помощь и советы при создании этой статьи, пользователя сайта 4PDA с ником Bugul Noz за инструкцию, которая стала основой вышеописанного, а также LonelyCatGames за такую долгую поддержку приложения и сайта.

Подробнее..

Как заставить Arduino петь как ZX Spectrum. Часть 1 исторический экскурс

26.10.2020 18:07:34 | Автор: admin

ZX Spectrum 128 и его многочисленные клоны имели встроенный звукогенератор AY-3-8912, благодаря чему как зарубежные музыканты, так и наши соотечественники успели написать огромное количество музыки под этот компьютер.

В двух частях этой статьи, приправленных щепоткой ностальгии, мы вспомним основные способы звукоизвлечения на ZX Spectrum 128, обозначим характеристики музыкального сопроцессора AY-3-8912, перечислим наиболее известные музыкальные редакторы, продизассемблируем музыкальный модуль от популярной игры Dizzy IV и воссоздадим его на Arduino. Приглашаем под кат всех любителей компьютерной музыки, DIY, а также тех, кто заинтересовался, почему словосочетание музыкальный сопроцессор мы взяли в кавычки.

Скриншот стартового экрана Dizzy IVСкриншот стартового экрана Dizzy IV

Помню, первый компьютер - клон ZX Spectrum Компаньон - мы с братом никак не могли подключить к телевизору. Как я сейчас понимаю, в компьютере был только низкочастотный видеовыход, который мы пытались подключить к высокочастотному входу черно-белого телевизора. Удивительно, но каким-то образом видеосигнал пробивался через все эти гетеродины, так что можно было разглядеть смутные очертания символов, но только если ты знаешь, что там было написано Поэтому какое-то время наши возможности ограничивались написанием почти вслепую простейших программ на бейсике и загрузкой с магнитофона игр, в которые было не поиграть.

Одной из игр, которая привлекала внимание, была Legend of the Amazon (или Амазоники, как мы их тогда называли). На старте была отличная музыка, воспроизводимая через 1-битный динамик. Ее можно было запустить вслепую и слушать до бесконечности. Мы замучили кассету так, что еле прочитали игру, когда наконец подключили Компаньон к низкочастотному входу телевизора и стало все видно. Увы, но других воспоминаний от игры у меня не осталось - gameplay был посредственный (ну или я ничего не понял).

Научившись паять, я собрал больше информации о ZX Spectrum и смог подключить к нашему многострадальному на тот момент Компаньону магический музыкальный сопроцессор. Тогда это был YAMAHA YM2149F, аналог AY-3-8912, устанавливавшегося в оригинальных ZX Spectrum 128. Следует отметить, что название музыкальный сопроцессор неверно, потому что чип не выполняет никакого кода, а является конечным автоматом. В документации на чип предлагается название программируемый звуковой генератор, поэтому в дальнейшем в статье я буду называть чип звукогенератором.

Эксперимент завершился и удачей, и разочарованием. С одной стороны, звукогенератор работал, с другой стороны, оказалось, что во многих играх память в 48К была занята под завязку и на музыку ее уже не оставалось. В те времена было принято выносить музыкальные модули в дополнительные страницы памяти, которые были в 128-килобайтном спектруме, но отсутствовали в нашем 48-килобайтном Компаньоне, поэтому звукогенератор в большинстве случаев оставался лишним балластом. Однако в журнале ZX Ревю, из которого я и взял схему подключения, была заметка о том, как его проверить: музыкальный модуль от игры Dizzy IV загружался в память отдельно от игры и его можно было запустить. На картинке выше - скриншот стартового экрана игры.

Для ностальгирующих - вот как загружался дополнительный модуль:

CLEAR 30000LOAD  CODERANDOMIZE USR 49152RANDOMIZE USR 49180

Периодически мне нравилось загружать этот модуль и слушать ту чудесную стартовую музыку (сейчас ее можно послушать тут; это не только стартотвая музыка, но и мелодия внутри игры).

О возможностях звукогенератора AY-3-8912

Звукогенератор AY-3-8912 фирмы General Instrument, который устанавливался в ZX Spectrum 128, а также его аналоги, - достаточно популярный способ добавить музыкальные возможности в компьютеры того времени. Это семейство чипов устанавливали, в том числе в компьютеры Amstrad CPC и в японские MSX.

AY-3-8912 имел 3 канала для генерации сигналов прямоугольной формы (тона); один генератор шума; генератор огибающей, позволяющий производить амплитудную модуляцию сигналов тона и шума; микшер сигналов для смешения сигналов тона, шума и огибающей; модуль контроля громкости и цифро-аналоговый преобразователь.

На выходе у генератора было 3 аналоговых канала, именуемых A, B и C. В оригинальных спектрумах сигналы объединялись в один и получался моно-сигнал, однако каналы можно было соединять попарно и получать стерео сигнал. Мне чаще попадалось объединение A + C -> левый канал, B + C -> правый канал, т.е. канал C отправлялся и в левый, и правый выходы, являясь средним каналом. До момента написания этой статьи такое соединение мне представлялось каноническим. Но оказалось, что часто средним делали канал B и иногда в софте можно было найти настройку, какой канал считать средним.

Справедливости ради стоит добавить, что было несколько модификаций чипа. Вот самые распространенные из них:

  • AY-3-8910 - выпускался в корпусе DIP 40 и дополнительно имел 2 восьмибитных порта ввода/вывода;

  • AY-3-8912 - выпускался в корпусе DIP 28 и дополнительно имел только один восьмибитный порт ввода/вывода;

  • YAMAHA YM2149F - полностью совместим с AY-3-8910, но имел некоторые дополнительные возможности.

Используя порты ввода-вывода AY-3-8910, к компьютеру можно было подключить еще и, например принтер с параллельным интерфейсом. Но насколько мне известно, для клонов спектрума так никто не делал.

Музыкальные редакторы для спектрума

Любой спектрум, даже не оборудованный звукогенератором, мог воспроизводить звуки при помощи 1-битного выходного канала. Сигнал выводился на встроенный миниатюрный громкоговоритель, как в оригинальном спектруме, а в клонах вместо него иногда применяли пьезо-пищалки или иные воспроизводящие звук устройства. Интересно, что в оригинальном спектруме за ввод/вывод с магнитофона и за воспроизведение звуков отвечал всего лишь один вывод микросхемы ULA. Встроенный бейсик поддерживал команду BEEP, которая принимала два параметра - смещение в полутонах относительно ноты до первой октавы и длительность звука в секундах (можно в долях). Вооружившись операторами DATA и FOR, можно было воспроизвести любую одноголосную мелодию.

Самым известным редактором для бипера стал Wham! The Music Box или просто Wham!. Думаю, что отсылка к музыкальному поп-дуэту Wham с участием Джорджа Майкла была не случайна - редактор поставлялся с несколькими демо-композициями, одной из которых была песня Careless Whisper того времени. Но какого-либо подтверждения этому факту я не нашел.

Версия Джорджа Майкла
1-битная версия Wham!

Wham! позволял одновременно воспроизводить 2 голоса или звуковой эффект, что для бипера в то время было редкостью.

Тут стоит упомянуть хоть и не редактор, но игру Manic Miner, в которой в 1983 году (всего через год после появления ZX Spectrum) на стартовом экране была попытка воспроизводить 2 звука одновременно, а во время игры звучала музыка, что требовало немалого процессорного времени. Но после написания этой статьи мой мир никогда не будет прежним - проверяя свои воспоминания, я обнаружил, что автор игры Matthew Smith в одном из интервью говорит, что использовал для написания игры компьютер TRS-80, подключенный к спектруму через порт расширения. Какое жульничество! (шутка)

Звуки игры

Начиная с 3:20

Manic Miner и GTA

Истории создания игр Manic Miner и Jet Set Willy посвящены некоторые видео на Youtube, там не все так просто. Например, многие помнят, что в Manic Miner был cheat-код 6031769, дававший бесконечное количество жизней. Этот код был основан на номере автомобиля автора игры. Думаю, было мало людей, прошедших эту игру без кода.

Этот же код использовался и в Grand Theft Auto и тоже давал бесконечное количество жизней. Пруф

На изображении - обложка игры для пользователей США (источник), по иронии судьбы мало знакомых с ZX Spectrum в целом и с Manic Miner в частности.

До звукогенератора мы с братом тоже проводили эксперименты по созданию многоголосной музыки. Процессор Z80 был достаточно медленный, чтобы генерировать многоголосный сигнал на ходу, но если его сгенерировать заранее и поместить в оперативную память, то выводить данные в звуковой порт можно было с достаточной скоростью. Тогда я еще не знал что такое ШИМ

Наш подход позволял воспроизводить большое количество звуков, каждый с различной громкостью. Проблема заключалась в том, что в момент генерации сигнала в оперативной памяти звук прерывался. В итоге звуки, издаваемые нашим бипером, напоминали игру на плохой балалайке, поэтому дальнейшее развитие эта идея не получила. Беглый поиск на Youtube показывает, что из спектрумовского бипера можно было выжать гораздо больше, и энтузиасты так развлекаются до сих пор.

Существовала версия Wham! и для 128-килобайтного спектрума с AY-3-8912, но идеи, сработавшие в предыдущей версии, стали серьезным ограничением в текущей - нельзя было воспроизвести ноту большой длительности. Да и нотная запись для 8-битной музыки не самая подходящая.

Огромным прорывом для любителей компьютерной музыки стал выпуск польского трекерного редактора Sound Tracker для ZX Spectrum (отметим, что это не первый трекерный редактор вообще, он первый только для спектрума).

Это был переход от традиционной нотной записи музыки к буквенной записи нот в 3 колонки, по количеству каналов в звукогенераторе.

Под спойлером вы найдете основные понятия, которые используются в редакторах с интерфейсом типа трекер. Специально не останавливаюсь на всех тонкостях восьмибитной музыки, перечисляю здесь лишь основные понятия, которые мы будем использовать во второй части статьи, когда перейдем к разбору кода музыкального модуля Dizzy IV.

Основные понятия
  • Pattern (или паттерн) - строительный блок, музыкальная композиция делится на небольшие куски. Обычно состоит из нескольких музыкальных тактов и содержит 1-2 фразы.

  • Position (или позиция) - слоты, в которые можно вставить паттерны. Они определяют, в какой последовательности должны исполняться паттерны, какие паттерны должны повторяться. Написав несколько коротких паттернов и в дальнейшем комбинируя их в разном порядке с помощью позиций, можно создать достаточно длинную, пусть и несколько однообразную мелодию, впрочем, так и принято было делать.

  • Sample (инструмент) - описание изменения характеристик звуков с течением времени. С частотой 50 Гц плеер музыки рассчитывал относительную высоту звука, который проигрывался в канале, его громкость, накладывал звуковые эффекты. Инструменты позволяли наложить окраску звукам, можно было настроить плавное нарастание или затухание, фронт и т.д.

  • Ornament (орнамент) - аналогично сэмплу орнамент определяет относительную высоту звука, но в данном случае она определяется тем, насколько тонов необходимо сместить звук. Из-за того, что звукогененратор имеет всего лишь три канала, а хочется намного больше, появились орнаменты, которые позволяли поочередно с большой частотой проигрывать несколько звуков на одном канале. Орнаменты - эффективное средство воспроизвести на одном канале звуки одной октавы или даже аккорды, например трезвучия. Кончено, звуки воспроизводились поочередно с большой частотой и напоминали балалайку, но это тоже было за гранью возможности для трех каналов, т.е. супер круто.

Другим весьма известным музыкальным редактором был ASC Sound Master (ASM) А.Сендецкого. К сожалению, автора этого редактора уже нет с нами (пруф). Этот редактор мне запомнился, как очень крутой, ведь автор даже не поленился, а разработал свою собственную файловую систему, чтобы сохранять музыкальные композиции. Помню, там была композиция Boom, которая мне очень нравилась. Я слушал ее бесконечно, тогда не зная, что это была музыка из одноименного французского фильма.

Без музыки на тот момент обходилась редкая демо-сцена. Лучшие образцы (например, Insult или Satisfaction) можно нагуглить до сих пор. А одним из самых зрелых редакторов был Pro Tracker, который появился достаточно поздно - в 1995 году. С его помощью было написано довольно много музыки.

Наверняка у каждого, кто был знаком с играми на спектруме, есть свои любимые музыкальные воспоминания. На меня в свое время неизгладимое впечатление произвел загрузчик с дискет под названием ZYX. Эта программа запускалась самой первой, показывала каталог программ, которые были на диске, и позволяла загрузить одну из них. Существовало огромное множество этих загрузчиков с разной популярной музыкой того времени. Особенно мне нравился Jean Michel Jarre.

Jean Michael Jarre

Удивительно, но демки разрабатывают до сих пор. Для AY-3-8912 даже существует вполне современный музыкальный редактор Vortex Tracker, который позволяет писать 8-битную музыку под Windows.

На этом я закончу свой исторический экскурс. Во второй части статьи будем дизассемблировать музыкальный модуль Dizzy IV и писать прошивку для Arduino, которая повторит музыку из этой игры, эмулируя музыкальный процессор и используя музыкальный модуль Dizzy IV.

Продолжение следует

Автор статьи: Антон Дмитриевский

P.S. Мы публикуем наши статьи на нескольких площадках Рунета. Подписывайтесь на наши страницы в VK, FB, Instagram или Telegram-канал, чтобы узнавать обо всех наших публикациях и других новостях компании Maxilect.

Подробнее..

Перевод Умрёт ли FTP? Расцвет и упадок протокола

05.10.2020 12:23:18 | Автор: admin


Вот небольшое известие, которое вы могли пропустить, восстанавливая свою жизнь после начала кризиса COVID: из-за того, что вирус перемешал всем карты, Google пропустила выпуск Chrome версии 82. Да кого это волнует?, спросите вы. Ну, хотя бы пользователей FTP, или File Transfer Protocol. Во время пандемии Google отложила свои планы по убийству FTP, и теперь, когда буря немного успокоилась, Google недавно объявила о том, что возвращается к мысли об убийстве в Chrome версии 86, которая снова сократит поддержку протокола, и окончательно убьёт его в Chrome 88. (Mozilla объявила о похожих планах на Firefox, утверждая, что дело в безопасности и возрасте поддерживающего протокол кода.) Это один из старейших протоколов, который поддерживает мейнстримный Интернет (в следующем году ему исполнится 50 лет), но эти популярные приложения хотят оставить его в прошлом. Сегодня мы поговорим об истории FTP, сетевого протокола, который продержался дольше, чем почти все остальные.

1971


Именно в этом году родившийся в Индии студент магистратуры MIT Абхай Бхушнан впервые разработал File Transfer Protocol. FTP, появившийся спустя два года после telnet, стал одним из первых примеров работающего пакета приложений для системы, которая в дальнейшем стала известна как ARPANET. Он обогнал электронную почту, Usenet и даже стек TCP/IP. Как и telnet, FTP по-прежнему используется, хоть и ограниченно. Однако в современном Интернете он потерял значимость, в основном из-за проблем с безопасностью, а его место занимают альтернативные протоколы с шифрованием в случае FTP это SFTP, протокол передачи файлов, работающий поверх протокола Secure Shell (SSH), по большей мере заменившего telnet.


FTP настолько стар, что появился раньше электронной почты, а в начале он сам играл роль email-клиента. Наверно, неудивительно, что среди множества программ прикладного уровня, созданных для раннего ARPANET именно FTP выделился и проложил себе дорогу в мир современных технологий.

Причина этого сводится к его базовой функциональности. По сути, это утилита, упрощающая передачу данных между хостами, однако секрет его успеха заключается в том, что он в определённой степени сгладил различия между этими хостами. Как говорит Бхушан в своём рабочем предложении (RFC), самая большая сложность использования telnet в то время заключалась в том, что каждый хост немного отличался от другого.

Различия в характеристиках терминалов учитываются программами систем хостов в соответствии со стандартными протоколами, пишет он, упоминая и telnet, и протокол удалённого ввода заданий той эпохи. Однако чтобы использовать их, вам необходимо знать различные условности удалённых систем.


Телетайпный терминал эпохи ARPANET.

Придуманный им протокол FTP пытался обойти сложности непосредственного подключения к серверу при помощи способа, который он назвал косвенным использованием; этот способ позволял передавать данные или исполнять программы удалённо. Первая сборка протокола Бхушана, которая десятки лет спустя по-прежнему используется, хотя и в видоизменённом виде, использовала структуру директорий для исследований различий между отдельными системами.

В своём RFC Бхушан пишет:

Я попытался создать протокол пользовательского уровня, позволяющий пользователям и программам осуществлять косвенное использование удалённых хост-машин. Протокол упрощает не только операции с файловыми системами, но и выполнение программ на удалённых хостах. Это реализуется при помощи определения запросов, обрабатываемых сотрудничающими процессами. Направленность последовательности транзакций обеспечивает повышенные гарантии и упрощает контроль за ошибками. Вводится понятие типов данных, упрощающее интерпретацию, реконфигурацию и хранение простых и ограниченных видов данных на отдельных хостах. Протокол изначально готов к внесению расширений.

В интервью подкасту Mapping the Journey Бхушан сообщил, что приступил к разработке протокола из-за очевидной потребности в приложениях для зарождающейся системы ARPANET, в том числе из-за потребности в электронной почте и FTP. Эти первые приложения стали фундаментальными строительными блоками современного Интернета и за последующие десятилетия сильно усовершенствовались.

Бхушан рассказал, что из-за ограниченных возможностей компьютеров того времени сначала функции электронной почты были частью FTP и позволяли распространять письма и файлы по протоколу в более легковесной формате. И в течение четырёх лет FTP был своего рода электронной почтой.

Мы спросили: Почему бы не добавить в FTP две команды под названием mail и mail file? Команда mail будет использоваться для обычных текстовых сообщений, а mail file для вложений писем, которые существуют и сегодня, говорит он в интервью.

Разумеется, Бхушан был не единственным, кто принял участие в разработке этого фундаментального раннего протокола, ведь после выпуска из вуза он получил должность в Xerox. Созданный им протокол продолжил своё развитие без него, получив в 1970-х и 1980-х серию обновлений в виде RFC; в том числе примерно в 1980 году появилась его реализация, позволявшая обеспечивать поддержку спецификации TCP/IP.

Хотя со временем появлялись незначительные обновления, чтобы протокол успевал за временем и мог поддерживать новые технологии, версия, которую мы используем сегодня, была выпущена в 1985 году, когда Джон Постел и Джойс К. Рейнольдс разработали RFC 959 обновление предыдущих протоколов, лежащих в основе современного ПО для работы с FTP. (Постел и Рейнольдс, среди прочего, примерно в то же время работали над системой доменных имён (DNS).) Хотя в документе эта версия описывается как предназначенная для исправления незначительных ошибок документации, улучшения объяснения некоторых функций протокола и добавления новых вспомогательных команд, стандартной стала именно она.

Учитывая его возраст, FTP обладает множеством неотъемлемых слабых мест, многие из которых проявляются и сегодня. Например, передача папки, содержащей множество крошечных файлов, выполняется в FTP чрезвычайно неэффективно, он гораздо лучше работает с крупными файлами, так как ограничивает количество необходимых отдельных соединений.

Во многих смыслах, из-за столь раннего появления в истории Интернета FTP повлиял на структуру множества последующих протоколов. Можно сравнить его с чем-то, что часто менялось и совершенствовалось в течение нескольких десятков лет, допустим, с баскетбольными кроссовками. Да, Converse All-Stars это хорошая обувь, и в нужных условиях с честью она послужит и сегодня, но с гораздо большей вероятностью успеха добьётся какая-нибудь модель от Nike, вероятно, под брендом Air Jordan.

File Transfer Protocol это Converse All-Star Интернета. Он передавал файлы ещё до того, как это стало круто, и по-прежнему сохраняет часть своей притягательности.

Никто не зарабатывал на Интернете. Скорее наоборот, на него тратили кучу денег. Мы смело сражались в этой битве и знали, что у него был потенциал. Но если кто-то скажет вам, что он знал, что будет дальше, то это ложь. Ведь я видел всё сам своими глазами.

Так Алан Эмтедж, создатель Archie, считающегося первым поисковым движком Интернета, рассказывал Internet Hall of Fame почему его изобретение, позволявшее пользователям искать на анонимных FTP-серверах файлы, не сделало его богатым. Если вкратце, то Интернет тогда был некоммерческим, а аспирант и работник техподдержки монреальского Университета Макгилла Эмтедж без разрешения использовал сеть вуза для работы Archie. Но именно так и лучше всего было поступить. Как гласит старая пословица, лучше просить прощения, чем разрешения. (Как и Бхушан, Эмтедж был иммигрантом, он родился и вырос на Барбадосе и приехал в Канаду, став студентом благодаря своим достижениям.)


Скриншот WS_FTP FTP-клиента для Windows, который был довольно популярен в 90-х.

Почему FTP может быть последней связью с нашим прошлым, до сих пор используемым онлайн


Как я писал несколько лет назад, если взять старую книгу об Интернете и попытаться пройти по старым ссылкам, то вероятность добраться до указанного в них ПО выше всего, если оно хранится на большом корпоративном FTP-сайте, потому что такие сайты обычно закрывают не очень часто.

Крупные технологические компании наподобие Hewlett-Packard, Mozilla, Intel и Logitech десятками лет использовали эти сайты для распространения среди конечных пользователей документации и драйверов. И по большей части эти сайты по-прежнему находятся онлайн, храня контент, который находился там долгие годы.

Во многих случаях эти сайты наиболее полезны, когда вам нужно найти нечто по-настоящему старое, например, драйвер или документацию. (Когда я пытался запустить свою Connectix QuickCam, то знал, что эти сайты мне пригодятся.)


Пример того, как выглядит FTP в современном веб-браузере (ftp.logitech.com).

В каком-то смысле, это даже может быть удобнее, чем навигация по веб-сайту, потому что интерфейс однороден и безупречно работает. (Многие веб-интерфейсы могут быть довольно кошмарными, если вам просто нужно добраться до драйвера.) Но у этого есть и недостатки такая простота означает, что FTP часто не очень хорошо справляется с современными стандартами и может быть намного медленнее современных способов передачи файлов.

Как я писал в статье на эту тему в прошлом году, доступ к таким FTP-сайтам получить всё сложнее (хотя их и архивируют в разные места), ведь компании отходят от подобных моделей хранения информации и могут отключать старые сайты.

В статье, где приводится интервью с Джейсоном Скоттом из Internet Archive, архив предпринимает шаги для защиты этих старых публичных FTP-сайтов, которые сегодня в любой момент могут быть отключены.

В том интервью Скотт заметил, что долгая жизнь таких FTP-сайтов на самом деле больше исключение, чем правило.

Невероятно странно, что FTP-сайты накопили инерцию, позволившую им продолжать работать в течение 15-20 лет, сказал он.

Поскольку основные способы использования FTP-сайтов остаются только в книгах об истории, их исчезновение, скорее всего, становится делом времени. Прежде чем это случится, я рекомендую зайти на чей-нибудь сайт и посмотреть, что за странные вещи там хранятся. В современном мире мы больше не cможем изучать целиком папки с файлами публичных компаний, поэтому в этот переходный период подобное является потрясающим опытом.

FTP, технология, опередившая возникновение сферы своего применения, теперь привлекла критическую массу бизнес-пользователей, считающих передачу данных по электронной почте ужасно неэффективной или непрактичной, когда дело касается больших документов.

Цитата из статьи 1997 года в Network World; в ней говорится, что FTP, несмотря на свою неуклюжесть, по-прежнему остаётся хорошим вариантом для надомных работников и корпоративных пользователей Интернета. Хотя автор статьи был заинтересованным лицом (Роджер Грин являлся президентом компании Ipswitch, крупного изготовителя программ для FTP), его аргументы, тем не менее, соответствовали духу эпохи. Протокол был отличным способом передачи больших файлов через сети и сохранения их на сервере. Проблема в том, что FTP, несмотря на своё постепенное совершенствование, будет вытеснен гораздо более изощрёнными альтернативами, как протоколами (BitTorrent, SFTP, rsync, git, даже современными вариантами HTTP), так и облачными системами наподобие Dropbox или Amazon Web Services.

Когда-то у меня был собственный FTP-сервер. В основном он использовался для хранения музыки во времена учёбы в колледже, когда студенты были одержимы идеей обмена музыкой. У меня было чрезвычайно быстрое подключение, а потому идеальная скорость для работы FTP-сервера.

Это был отличный способ делиться собственными музыкальными вкусами с миром, но университетская система однажды узнала об обмене файлами и начала ограничивать пропускную способность, поэтому на этом всё закончилось или, по крайней мере, так я думал. Дело в том, что летом я работал в общежитии, и оказалось, что после выпуска студентов ограничение больше не было проблемой, поэтому я смог снова на пару месяцев запустить FTP-сервер.


Panics Transmit современный пример FTP-клиента. Множество современных клиентов поддерживает широкий набор протоколов, а не только старый добрый FTP.

Позже я выпустился и FTP-сервер отключился навсегда; к тому же всё равно возникли более эффективные варианты его замены, например, BitTorrent, и более законные, типа Spotify и Tidal.

Так же, как и обмен файлами, сильно эволюционировавший спустя 15 лет, изменились и мы сами. Мы узнали о более эффективных и безопасных способах удалённого управления файлами. В 2004 году многие считали, что лучше всего управлять веб-сервером при помощи FTP. Сегодня, когда сервисы типа Git обеспечивают возможность эффективного контроля версий, такой способ кажется рискованным и неэффективным.

Даже если популярные браузеры в ближайшие месяцы избавятся от поддержки FTP, это не значит, что у нас совершенно исчезнут другие способы работы с этим протоколом. Специализированное ПО, разумеется, по-прежнему будет существовать. Но, что более важно, для замены устаревшего протокола FTP есть веские причины.

В отличие от ситуации с IRC (когда у протокола отобрали популярность коммерческие инструменты) и Gopher (рост которого погубил внезапный переход на коммерческую модель), FTP уходит из веб-браузеров потому, что его возраст подчёркивает отсутствие инфраструктуры безопасности.

Самые распространённые способы его использования, например, для организации публично доступных анонимных FTP-серверов, по сути, потеряли свою популярность. А в своей основной нише он в конечном итоге был заменён более защищёнными и современными версиями, например SFTP.

Уверен, что какой-нибудь технарь может заявить, что FTP никогда не умрёт, потому что для него всегда найдётся специализированная область применения. Да, это возможно. Но у подавляющего большинства людей после отключения FTP в браузере Chrome, вероятно, не будет причин искать способы подключиться к нему снова.

Если уход FTP из веб-браузеров ускорит его окончательную гибель, то быть по сему. Однако в течение пятидесяти лет, меняя версии и вариации, он служил нам верой и правдой.



На правах рекламы


VDS с посуточной оплатой для любых целей это про наши эпичные серверы. Максимальная конфигурация 128 ядер CPU, 512 ГБ RAM, 4000 ГБ NVMe.

Подробнее..

Перевод Интереснейшее влияние Cyclone

20.10.2020 14:07:37 | Автор: admin

Оглавление:


  • Cyclone
  • C++, владение и псевдонимы
  • Rust
  • Midoris M#
  • Pony
  • Cone
  • Резюме

В 2001 году Джим Тревор (AT&T Research) и Грег Моррисетт (Cornell) запустили совместный проект по разработке безопасного диалекта языка программирования C как развитие более ранних работ над Типизированным Ассемблером. После пяти лет напряженной работы и нескольких опубликованных научных работ, команда (в том числе Дэн Гроссман, Майкл Хикс, Ник Свами и другие) выпустила Cyclone 1.0. А затем разработчики занялись другими делами.


Мало кто слышал о Cyclone, и почти никто им не пользовался. И все же, когда вы бросаете правильный камень в подготовленный пруд, то вода еще долго продолжает расходиться кругами. Cyclone был большим, хорошо обработанным камнем; и пульсации его духа, а также те новшества, которые в нем были впервые выделены, продолжают распространяться нетривиальными способами.


Перед тем, как рассказать эту историю, предупреждаю: Инновации и влияние это сложный социальный процесс. Ничего нового не возникает в вакууме. Тысячи людей каждый год бросают в пруд новые интересные им камни, под влиянием ранее уже брошенных. Но ни одна статья не может охватить всю эту хаотическую рябь целиком.


Для того чтобы этот рассказ был целостным и удобочитаемым, я сосредоточусь на определенных темах: прогрессе в эволюции статической безопасности и применении линейности в управлении памятью с конкурентным доступом к ней, что выражено в нескольких выбранных мейнстримных ("императивных") языках программирования. Это означает, что тонны актуальных и важных подробностей во влиятельных академических языках и исследованиях останутся без должного внимания. Не позволяйте моим писательским недостаткам ввести вас в заблуждение ввиду упрощенного понимания причины и следствия. Вместо этого проявите любопытство, изучите исторические записи и оцените вклад столь многих первопроходцев.


Cyclone


В конце 20-го века системное программное обеспечение обычно создавалось с использованием С (или "до-современного" С++). Поскольку их семантика близко отражает способ использования CPU, эти языки генерируют экономичные, высокопроизводительные системы. Цена, которую платят за такую эффективность, это риск возникновения ошибок безопасности, таких как переполнения буфера, что делает наши критические системы уязвимыми для вредоносных субъектов.


Целью команды Cyclone было создание языка, совместимого с C, который был бы, по крайней мере, столь же быстрым и экономичным, но гораздо, гораздо более безопасным. Их понятие безопасности было радикальным для своего времени: небезопасные программы должны быть сложны в написании, невозможны для компиляции и паниковать, когда нарушения безопасности встречаются во время выполнения.


Уязвимости, подлежащие вымиранию, включали: переполнение буфера, разыменование нулевых указателей, use-after-free, висячие указатели, double free, атаки с использованием форматных строк printf, использование неинициализированных переменных, небезопасные приведения типов, неопределенные возвраты функций, goto на другую область видимости, и нетегированные union'ы.


Основное оружие для повышения безопасности (и универсальности) было выбрано в результате укрепления печально известной слабой системы типов C посредством умелого применения достижений техник из ML, Haskell, и опубликованных исследований, в частности:


  • Алгебраические типы данных. Хотя C поддерживает сум-типы с помощью struct, использование union для сум-типов может быть небезопасным. Вместо этого, Cyclone вводит объединения фиксированного размера с тегами, типы данных переменного размера и сопоставление паттернов. Cyclone также поддерживает кортежи, позволяя функциям возвращать несколько значений.
  • Кванторные типы. Cyclone поддерживает параметрический полиморфизм (генерики) для функций и типов. Несмотря на то, что эта функция ограничена для типов размером в слово и не может мономорфизоваться, она достаточна для поддержки коллекций с обобщенными (боксовыми) типами. Cyclone также поддерживает абстрактные, экзистенциальные типы, со схожими ограничениями. Подобно трейтам, они позволяют использовать метод-подобные функции для различных базовых типов.
  • Управление памятью на базе регионов. В основу Cyclone была положена фундаментальная работа Тофте и Талпина про доказательства выведения регионов в середине 1990-х годов. Как реализовано в ML Kit (с Биркедалом и другими), анализ программы позволяет заменить использование сборки мусора (GC) памяти более быстрыми, вложенными регионами памяти (аренами). Сопутствующая работа Aiken применяется для арен и управления памятью с подсчетом ссылок для C. Команда Cyclone улучшила эти методы, заменив перекрестно-функциональные выкладки явными аннотациями регионов. Важно отметить, что они обогатили эту схему для поддержки неслыханного ранее разнообразия безопасных, автоматических стратегий управления памятью: регионы арен (включая арены первого класса), с подсчетом ссылок, трассировка GC (с использованием Boehm), и то, что они назвали уникальным (unique) регионом.
  • Линейные/аффинные типы. Уникальный регион Cyclone является полезным приложением работы Жирара по линейной логике конца 1980-х годов, усовершенствованной позже Вадлером, а затем Уолкером. Гарантируя, что выделенная память всегда будет иметь только одного владельца (ссылку на него), мы получаем безопасное, детерминированное управление памятью без затрат на ведение бухгалтерского учета GC во время выполнения. Управление памятью с подсчетом ссылок также более эффективно в случае, если оно построено с использованием линейной логики. Тем не менее, линейная логика (и регионы) усложняет язык с точки зрения мув-семантики и кванторных типов, с чем команде Cyclone пришлось столкнуться.

Указатели потребовали большого объема работ, чтобы сделать их безопасными:


  • Нулевые указатели. Циклон устранил так называемую "миллиард долларовую ошибку" Тони Хоара, предложив выбор. Вы можете определить указатели как ненуллабельные (например, int @x) и использовать их свободно и безопасно. Или, если вам все-таки нужен нуллабельный указатель, компилятор не даст вам его разыменовать до тех пор, пока вы сначала не покажете, что он не нулевой.
  • Толстые и ограниченные указатели. Для защиты от переполнения буфера Cyclone предлагает "жирные" указатели (char ?), которые хранят точный размер данных вместе с указателем. Арифметика указателей разрешена, но любая попытка доступа к элементам за пределами границ приводит к ошибке во время выполнения. Ограниченные указатели предлагают схожие возможности несколько по-другому.
  • Безопасные для памяти указатели. Для обеспечения доступа указателей только к действительным, живым данным, тип указателя может быть аннотирован регионом, из которого получен его объект в памяти. Эта аннотация гарантирует, что объект освобождается только по истечении срока действия последнего используемого указателя на этот объект. С помощью анализа потока данных также обеспечивается безопасность указателей на данные, выделенные на стеке.
  • Полиморфные указатели. При таком большом количестве аннотаций типов для указателей, безопасность типов может заставить нас дублировать код (или использовать генерики) для каждого возможного варианта указателя, передаваемого в функции. Cyclone преодолел эту проблему удобства, поддерживая полиморфные типы указателей, которые совмещают самые разнообразные типы указателей.

Можно сказать больше о расширениях безопасности Cyclone (например, обработка исключений и явное присвоение), но я думаю, что вы поняли суть. Команда "Циклона" добросовестно и скрупулезно занималась поиском и минимизацией уязвимостей безопасности. Они даже проработали стратегию статического типа, чтобы сделать многопоточность безопасной, используя блокировки потоков и thread-local данные.


Примечательно, что все эти улучшения в области безопасности и универсальности были разработаны с учетом сохранения как можно большей обратной совместимости с C. По понятным причинам, они хотели сделать путь к безопасности как можно более безболезненным для существующих программистов на C. Их работы демонстрируют полезные примеры, когда код на C был портирован на Cyclone, с результатами бенчмарков, иллюстрирующими, что безопасность не обязательно влечет за собой резкое снижение производительности.


C++, владение и псевдонимы


Прежде чем двигаться вперед по временной шкале, я хочу противопоставить безопасное управление памятью Cyclone с C++. Управление памятью в C++ основано на двух ключевых возможностях, доступных до 1990 года: шаблоны (более универсальные и сложные, чем типичные генерики) и получение ресурса это инициализация (RAII). Используя RAII, программа может получить и использовать некоторый локальный к блоку ресурс, и ожидать, что компилятор автоматически уничтожит этот ресурс в конце этого блока. Однако RAII не работает с объектами, динамически выделяемыми с помощью new.


Для устранения возможности утечки из-за забытых delete, стандарт 1997 года представил auto_ptr, первый "умный" указатель. Эта шаблонная функция, действует как указатель, при этом RAII все еще уполномочен обеспечивать автоматическое удаление владеемого объекта. Еще лучше было то, что auto_ptr был линейно-подобен [1]: Только одна переменная принадлежала указанному ресурсу. Присвоение передает право собственности.


Тем не менее, auto_ptr имел фатальный изъян дизайна, ограничивая его полезность. В 2002 году, вдохновленный Эндрю Кёнигом из Bell Labs, Говард Хиннант написал "Предложение добавить семантику перемещения в C++". Ключевым мотивом стала производительность: неразрушающее копирование указателя намного дешевле, чем любое глубокое копирование. Результатом стандартного процесса стал unique_ptr, заменивший auto_ptr в техническом отчете 2005 года (TR1) и, в конечном итоге, в C++11. В том же стандарте был введен shared_ptr, умный указатель с подсчетом ссылок, основанный на практиках конца 1990-х годов.


Таким образом, к 2006 году различные тенденции привели к тому, что как Cyclone, так и C++ поддерживали одни и те же две формы автоматического управления памятью: с одиночным владением (линейное) и с подсчетом ссылок. При этом управление памятью Cyclone, основанное на регионах, было более универсальным (так как оно также поддерживало арены и трассирующий GC) и гораздо более безопасным.


Когда речь зашла о строгой безопасности памяти, команда Cyclone располагала более глубокой практикой и академическими исследованиями, для продвижения вперед. Кроме влияний, о которых я упоминал ранее, они опирались на типы псевдонимов (Smith and Walker, 2000, как реализовано в Typed Assembly Language), использование подсчета ссылок в Objective C, а также на влияющую Логику разделения (рус.ссылка) (Reynolds, O'Hearn, Pym, 2000-2002). Как говорит Грег Моррисетт: "Вклад Cyclone заключался в том, чтобы найти общий фреймворк, в который можно было бы вложить кучу разных вещей".


Обработка "заимствованных" ссылок иллюстрирует разрыв в безопасности между Cyclone и C++. Использование функции get() на умных указателях С++ возвращает псевдоним указателя. Так как Си++ их не отслеживает, чтобы гарантировать, безопасность псевдонимов для использования, не проблема ошибочно использовать указатель после того, как объект, на который он указывает, был освобожден.


В Cyclone также имеется возможность создать полиморфный указатель, заимствованный из любого регионального указателя. В отличие от C++, Cyclone тщательно отслеживает время жизни области видимости каждого заимствованного указателя, часто неявно. Сложный анализ на этапе компиляции времени жизни региона (включая субтипирование региона) делает невозможным для любого заимствованного указателя пережить время жизни его владельца. Таким образом, заимствованные указатели Cyclone всегда безопасны в использовании.


Rust


В 2006 году, в том же, когда команда Cyclone закрыла лавочку, Грейдон Хоар (в то время сотрудник Mozilla) начал работу над языком программирования Rust в качестве личного проекта. Три года спустя началось корпоративное спонсорство, финансирование и укомплектование кадрами, кульминацией которого стала стабильная версия 1.0 в 2015 году.


Если вы знаете Rust, моя краткая информация о безопасности и возможностях Cyclone должна звучать жутко знакомо. Rust это надежный, реально работающий язык системного программирования, обеспечивающий достижение практически всех целей Cyclone.


Rust ссылается на Cyclone, C++ и SML/OCaml в числе многих своих предшественников. Несколько членов основной команды, таких как Нико Мацакис, Аарон Турон и Дэйв Герман, также привнесли богатые академические исследования в свой выбор дизайна.


Rust так же безопасен, как и Cyclone, во всех тех же отношениях и часто использует в значительной степени схожие методы. Тем не менее, различия между языками легко обнаруживаются:


  • Синтаксис Rust скорее привычный для C/C++, чем совместимый.
  • Генерики и трейты более гибкие, схожие с языками ML-семейства. Их использование является ключевым для основных возможностей языка (например, Option, Result и "умные" обертки указателей, такие как Rc и Mutex).
  • Borrowed References более универсальны, поддерживают такие функции, как статические мутексы (напр, &mut), нелексическое время жизни, использование заимствования для получения блокировок в области видимости, а также сахар с удалением явных указаний лайфтаймов. При этом интригующе отметить, что полиморфные переменные Cyclone `r (часто используемые в качестве региональных аннотаций) напоминают аннотацию времени жизни Rust .
  • Управление памятью. В связи с тем, что Rust принял владение как определяющую характеристику языка, его поддержка множественных стратегий управления памятью более ограничена, чем у Cyclone. Как и в случае с C++, техники однопользовательского владения (Box) и подсчета ссылок (Rc) являются доминирующими. Хотя и существуют пакеты Rust для трассирующего GC и арен, они ограничены по сравнению с поддержкой Cyclone для регионов, особенно в отношении безопасных арен первого класса.
  • unsafe. Команда Rust мудро осознала, что им необходимо предложить лазейку, позволяющую программистам писать безопасную, производительную логику, которую компилятор не может проверить как безопасную. Ряд важных библиотек полагаются на эту существенную особенность.

Важно, что Rust пошел на полную линейность, выходя далеко за рамки управления памятью с одним владельцем. Создатели хотели бороться с фундаментальными проблемами, возникающими при предоставлении общего, изменяемого доступа к значениям.


В большинстве основных языков программы могут легко иметь множество ссылок на один и тот же объект, каждая из которых способна изменять (мутировать) его состояние. Это может вызвать проблемы. Отладка и сопровождение значительно сложнее, когда вы не знаете, где возникают изменения, особенно когда неожиданно нарушаются инварианты. Неограниченная общая мутируемость открывает двери к гонкам данных не только для многопоточных программ, но иногда и в однопоточном контексте. При правильном использовании блокировки (как и предполагалось в Cyclone) могут вылечить гонки данных, но часто они несут значительные затраты на пропускную способность.


Языки десятилетиями искали лучшие мутирующие решения с псевдонимами. Ограниченные типы Ada, restrict в C, строгие правила псевдонимов в C++, ограничения без псевдонимов для аргументов в Fortran, гибкая защита псевдонимов для Java, функциональные языковые ограничения мутируемости, академическая работа над дроблением прав и (опять-таки) логикой разделения.


Как оказалось, линейная логика это не просто ценная стратегия управления памятью. Она также является ценной стратегией и для псевдонимов и гонок данных. В 1992 году язык Clean ввел уникальные типы для обработки операций ввода-вывода и деструктивных обновлений. Более поздние языки, такие как ATS, Alms и Mezzo, исследовали эту идею по-разному. Команда Rust находилась в контакте с этими командами и в то же время была в курсе многочисленных исследований, проводимых в настоящее время.


Полученная в результате модель владения Rust в значительной степени основана на идее взаимного исключения, согласно которой либо имеется единственная мутирующая ссылка на объект, либо, допустимы множественные иммутабельные ссылки. Соблюдение этого ограничения устраняет ранее упомянутые проблемы и делает безопасным передачу изменяемых данных из одного потока в другой без блокировок. Экстенсивный подход Раста к бесстрашному параллелизму опирается не только на это, но этот аспект вносит важный вклад.


И, если вы действительно хотите иметь общий и мутируемый доступ, это тоже возможно, используя механизмы синхронизации, основанные на блокировках (например, Mutex) или даже безблокировочную, но несколько ограниченную Cell.


Midori M#


Midori это исследовательский/инкубационный проект компании Майкрософт, который длился с 2007 по 2014 год. Его целью было коммерческое внедрение Singularity, операционной системы, построенной на более надежном фундаменте, чем горы небезопасного Си и Си++ кода.


Для достижения своих целей, параллельности, безопасности и производительности команда создала новый диалект языка программирования C# под названием M#. Поздние возможности C#, такие как срезы и async/await, имели свое происхождение в M#. Несмотря на некоторое упорное стремление, они не пошли по стопам Cyclone (и Rust'а) в отношении управления памятью; M# остался языком со сборкой мусора (хотя и там были внесены значительные изменения).


Как и в случае с Cyclone и Rust, работа над Midori и M# была богато вдохновлена предшествующим творчеством и исследованиями: C++ const, анализ псевдонимов, линейные типы, монады, эффекты типов, регионы, логика разделения, типы уникальности, проверка моделей, современные C++, D, Go и Rust. Несколько человек из команды Midori знали о Cyclone. Колин Гордон, зная о работе Дэна Гроссмана над Cyclone, последовал за ним в Университет Вашингтона в качестве аспиранта/доктора, где сделал важный вклад в качестве стажера в команде Midori. Мануэль Фендрих, чья ранняя работа вдохновила его на "заимствование", взятое из Cyclone, внес ключевой вклад в проект Singularity. Дэвид Тардити, другой участник проекта Singularity/Midori, сейчас работает с Майклом Хиксом (команда Cyclone) и другими участниками проекта Microsoft'а Checked C, чьи цели перекликаются с целями Cyclone.


Команда Midori была так же сосредоточена на "трех китах безопасности", как и Cyclone и Rust. Они использовали аналогичные механизмы безопасности, такие как срезы (для решения проблемы выхода за границы), тегируемые union'ы и заимствованные ссылки. Они также тестировали в работе дополнительные механизмы, включая изолированные процессы, возможности объектов, контракты, работу с исключениями и возможности ссылок (Прим.пер.Это такой термин, со смыслом прав доступа).


Возможности ссылок M# обогащают полезность уникальных ссылок. M# помечает все ссылки одной из четырех безблокировочных ссылочных возможностей (квалификаторов прав доступа): изолированные, записываемые, неизменяемые и читаемые. Несмотря на то, что все они безопасны в гонке данных, каждая из них включает (и ограничивает) возможности своей ссылки по-разному. Ограничение, налагаемое isolated, линейность: может быть только одна.


При всех своих преимуществах уникальные (линейные) ссылки имеют существенное ограничение. Используя только уникальные ссылки, можно построить только иерархические (древовидные) структуры данных. Почти все циклические структуры данных должны допускать несколько ссылок на один и тот же объект, что недоступно с помощью уникальных ссылок. Это ограничение, а также деструктивные ограничения семантики перемещения надо держать в уме, расхваливая достоинства управления памятью с одним владельцем и уникальными ссылками.


В свете этого ограничения представьте себе, что мы имеем изолированную (уникальную) ссылку на некую циклическую структуру данных, реализованную внутренне с использованием псевдонимных ссылок. Безопасно ли перемещать всю эту структуру данных из одного потока в другой? Определенно да, если псевдонимы указывают на неизменяемые значения. Однако, если псевдонимические ссылки являются мутируемыми (writable), мы должны быть более осторожны. Перемещение безопасно только в том случае, если все изменяемые ссылки на каждый объект в этой структуре данных, по сути, перемещаются вместе. Если мы не можем гарантировать, что перемещаемая структура данных "внешне изолирована", мы подвергаемся опасности возникновения гонки данных, так как несколько потоков могут получить мутируемые ссылки на одни и те же объекты.


M# способен гарантировать внешнюю изоляцию во время компиляции, используя два механизма ссылочных возможностей. Первый в виде "сужения окна", при которой право доступа по какому-либо полю объекта может быть понижено на основании права доступа по ссылке, используемой для доступа к этому объекту. Например, иммутабельная ссылка на объект не может быть использована для изменения значения, на которое указывает поле-ссылка (указатель внутри) этого объекта, даже если тип этого поля мутабелен.


Вторым механизмом является способность M# навязывать (принуждать), а затем "восстанавливать" возможности. Восстановление позволяет временно сделать изолированную ссылку доступной для записи (или неизменяемой) для некоторой ограниченной области видимости, после чего можно безопасно восстановить ее исходное изолированное состояние. В то время как она является записываемой, мы можем мутировать и дополнять структуру данных, на которую указывает ссылка, дополнительными объектами. Чтобы сохранить внешнюю изоляцию, логика внутри области видимости восстановления ограничена таким образом, что она может использовать только immutable либо isolated ссылки, приходящие из-за пределов области видимости (и не записываемые или только для чтения).


Помимо возможности межпоточных перемещений мутируемых, циклических структур данных, механизм принуждения и восстановления M# обладает и другими преимуществами. Его также можно использовать для безопасного (и мутируемого) построения циклических структур данных, которые в конечном итоге переходят в неизменяемые. В конечном итоге, ссылочные возможности Midori безопасно дают многопоточным программам дополнительные преимущества в производительности и универсальности структур данных за счет использования уникальных ссылок.


Pony


В 2014-5 годах Сильван Клебш и его команда разработали и создали компилятор для актор-ориентированного языка Pony. Здесь было использовано слишком много взаимосвязанных идей, в том числе и наработки по актор-процессам из Erlang. Выбор дизайна еще раз продемонстрировал, что производительность и возможности не обязательно должны быть врагами с безопасностью.


Pony полон интересного функционала и архитектурных решений, таких как: актеры и поведение, неявная передача сообщений, интерфейсы против трейтов, а также необычный гибридный подход к сбору мусора, использующий как подсчет ссылок, так и трассировку. Как и M#, Pony поддерживает возможности объектов и ссылок. Pony усовершенствовал, обогатил и переименовал свой набор ссылочных возможностей, уточнив, что разрешено и что запрещено. Пони также дал возможность инстанцировать дженерики с уникальной ссылкой.


Cone


Несмотря на то, что у меня не было ролей в рассказанных до сих пор историях, они представляют для меня большой личный интерес, благодаря моей работе над языком Cone.


Два года назад я внимательно изучал язык Rust и Pony в надежде научиться инновационным стратегиям безопасного и эффективного управления памятью и параллелизмом. Я был в восторге от того, что я обнаружил, и в итоге задокументировал свои мысли о том, как расширить их методы для поэтапного управления памятью. В частности, я хочу объединить подход Rust к владению и заимствованию ссылок с ссылочными возможностями (разрешениями) Pony в поддержку более универсального, безопасного, производительного использования памяти.


В то время я понятия не имел, насколько актуальной была новаторская работа Cyclone до появления Rust and Pony. Это изменилось несколько месяцев назад, когда Аарон Вайс прислал мне ссылки на пару интересных академических статей. Одно вело к другому, и вскоре я погрузился в историю Cyclone и связанные с ним работы в мельчайших деталях.


Теперь я понимаю, что Cone преследует те же цели, что и Cyclone, не только с точки зрения безопасности, согласованности и производительности, но и с точки зрения универсальности управления памятью. Долгое время одной из моих целей было облегчить программисту выбор метода управления памятью между управлением ею с использованием единственного владельца, подсчётом ссылок, трассирующим GC, арен или пулов, чтобы это наилучшим образом отвечало требованиям программы к производительности и структуре данных. Теперь, вдохновившись Cyclone, добившегося этого 15 лет назад, я ищу возможность добавить к этому списку арены 1го класса. Я не менее благодарен за то, что смог использовать многие инновационные, усовершенствованные функции, впервые появившиеся в более поздних языках.


Резюме


В конце 1990 года Филипп Вадлер в работе "Линейные типы могут изменить мир!", заключил: "требуется больше практического опыта, прежде чем мы сможем оценить вероятность того, что линейные типы изменят мир". Так много языков дало нам этот практический опыт. И этот опыт, несомненно, меняет то, как мир программирования строит программы для обеспечения безопасности и производительности.


Теперь, когда языки, ориентированные на безопасность, производительность и линейность, становятся все более общепринятыми и успешными, мы все чаще видим, что существующие (и новые) языки приобретают схожие возможности. Язык программирования D планирует поддерживать владение и заимствование (Прим.пер.Уже вышло в релиз). Nim изучает нечто подобное (Прим.пер.Отложено, см.177), ссылаясь на документ Google/IBM, в котором большая часть технологии основана на Cyclone.


Я уверен, что на этом история не закончится. И я за это выражаю благодарность многим людям, включая команду Cyclone, которая так много сделала, запустив этот пробный шар.


Я благодарен Грегу Моррисету, Грейдону Хоару, Майклу Хиксу, Колину Гордону и Дэну Гроссману за их бесценные отзывы на более раннюю версию этой статьи, открывшие мне глаза на то, как много людей внесли свой вклад в основополагающие идеи, которые позволили создать эти языки.


Об авторе


Jonathan Goodwin 3D Веб евангелист. Автор языков программирования Cone и Acorn.


[1] С++ был не первым. Пятью годами ранее (1992), Linear Lisp продемонстрировал использование линейной логики в качестве решения для сбора мусора.

Подробнее..

Почему бизнес хочет DevOps и что нужно знать инженеру, чтобы говорить с ним на одном языке

27.10.2020 14:04:24 | Автор: admin
Последние несколько лет мы при каждом удобном случае снова и снова обсуждаем, что же такое DevOps. Это уже порядком надоело, но раз всё еще происходит, значит есть проблема проблема взаимодействия бизнеса и инженеров.

Я часто вижу, как люди, пришедшие к применению DevOps из разных сфер, говорят на разных языках и понимают под словом DevOps совершенно разное. В итоге в какой-то момент времени оказывается, что участники проекта по трансформации абсолютно не понимают и друг друга, и зачем нужен весь этот DevOps тоже.



Я не хочу рассуждать о том, что такое DevOps и какое его понимание более правильное. Мне интересно проследить за эволюцией процессов в IT и разобраться, что бизнес хочет получить от внедрения DevOps, что это значит для инженеров и как нам быть на одной волне.

N.B.: Материал для этой статьи лёг в основу моего выступления на DevOps Live, поэтому вместо чтения можно послушать доклад он вполне сойдёт за подкаст.

На примере клиентов ITSumma я вижу, как изменились запросы бизнеса в последние несколько лет. Мы занимаемся сопровождением сложных информационных систем с 2008 года, и поначалу это в основном была работа по обеспечению отказоустойчивости сайтов, но теперь появились кардинально новые запросы. Раньше важнее всего было, чтобы продакшен стабильно работал, был готов к масштабированию, а в случае аварии быстро поднимался. Теперь не менее важным стало обеспечение отказоустойчивости платформ разработки и систем выкладки.
В крупных компаниях произошло смещение системы ценностей: стабильная работа develop-окружения теперь так же важна, как и надежность продакшена.
Чтобы проследить траекторию и понять, что изменилось в мышлении и где мы теперь, погрузимся ненадолго в историю разработки программного обеспечения.

Немного истории разработки


Я считаю, что есть, условно, четыре эпохи в развитии принципов разработки программного обеспечения. И что важно на всех этапах существовала и доставка ПО. Просто в разное время эту доставку обеспечивали разные люди.

Мейнфреймы. 19601980-е годы


Особенности периода. Начальный этап с появления компьютеров как таковых до примерно 1985-го года характеризуется тем, что программы разрабатывают для себя. Небольшие группы разработчиков реализуют довольно ограниченную функциональность, которая отвечает нуждам и используется внутри одной компании или госструктуры. Этой ограниченной функциональностью может быть запуск людей на Луну, но всё равно сфера применения этой программы гораздо-гораздо уже, чему у современных сервисов.

Пользователи: сотрудники компании. Число пользователей программ того времени очень ограниченно: это 3 космонавта корабля Аполлон, 20 человек, рассчитывающих государственный бюджет, 100 человек, обрабатывающих результаты переписи населения.

Дистрибуция ПО: физическая, на мейнфрейме. Пробиваются перфокарты, загружаются в ЭВМ, и минут через 10 программа готова к использованию. За доставку, по сути, отвечает человек, который пробивает перфокарты. При этом если программист допустил ошибку, то исправлять её долго: заново писать и отлаживать код, пробивать перфокарты, загружать. На всё это уйдут дни и впустую будет потрачено время многих людей цена ошибки очень высока, возможно, катастрофа.

На этом этапе IT-бизнеса как такового еще не существует. Если посмотреть в Википедии количество компаний по производству ПО, основанных в 1975-м, то их там будет всего четыре. Правда, одна из них Microsoft, которая тогда была очень маленькой и нишевой.

Персональные компьютеры и ООП. 1980-1990-е годы


Все начинает меняться примерно в 1985 году с массовым распространением персональных компьютеров: в 77-м началось производство Apple II, в 81-м появился IBM PC, чуть раньше стали популярны минимейнфреймы от DEC.

Особенности периода: создание программного обеспечения начинает формироваться в бизнес-направление. Это становится возможным, потому что пользователей программ стало больше и можно строить программы на продажу.

Например, в 79-м появляется электронная таблица VisiCalc, которая заменяет собой бухгалтера-калькулятора человека, который фактически работал excel'ем. Бухгалтер заносил в большую бумажную таблицу числа и как-то по формулам их обрабатывал. Потом аналитик спрашивал, что будет, если доход в третьем квартале будет в два раза больше, и бухгалтер-калькулятор менял одно значение и снова всё пересчитывал на бумаге.

Пользователи: внешние по отношению к производителю ПО компании. VisiCalc перевернул всю индустрию компьютерного бизнеса, программа, вместо узконаправленной штуки, которая пишется для конкретного набора людей, стала массовой. Например, экономисты и аналитики стали покупать компьютеры, чтобы использовать электронные таблицы.

Поскольку пользователей стало много и программы начали продавать частным лицам, возникает вопрос: как сделать так, чтобы программа работала у такого большого количества людей, и как разрабатывать такие сложные программы.

Поскольку расширяется аудитория, то нужна и большая функциональность. Соответственно, нужно увеличивать команду разработки это уже не десяток программистов, а 100-500 человек, которые работают над сложным программным продуктом.

Интересно, что в каждой эпохе становления IT есть несколько ключевых книг, которые в своё время вызвали переворот в мышлении. Период, когда зарождается бизнес разработки программного обеспечения и команды разработчиков растут, на мой взгляд, характеризуется двумя книгами: Мифический человеко-месяц и Приёмы объектно-ориентированного проектирования. Паттерны проектирования. То есть с одной стороны появляется понимание, что невозможно, увеличив команду в 4 раза, сократить время разработки в 4 раза. А с другой что есть решение, которое способно помочь масштабироваться.

Популярным решением проблемы роста сложности ПО становится ООП. Считается, что если взять большую программу, допустим, Microsoft Excel, и разбить на какие-то объекты, то группы разработчиков смогут работать над ними независимо. Таким образом получится масштабировать работу на отдельные элементы функциональности и ускорить разработку нашего Microsoft Excel. Причем под ускорить, скорее всего, понимается цикл разработки в несколько лет.
Аргументация внедрения ООП звучит очень похоже на плюсы микросервисной архитектуры.
Но по сути, мы по-прежнему упаковываем программу в один пакет exe-файл во времена повсеместного использования Microsoft DOS, а потом Windows и поставляем пользователю.

Доставка ПО: на физических носителях. Но так как теперь это массовое производство, то доставка ПО заключается в том, чтобы: записать наш exe-шник на дискеты, наклеить на них наклейки с названием продукта, упаковать в коробки и буквально доставить пользователям в разных странах. При этом необходимо не допустить существенное количество брака, потому что если произвести дискеты где-нибудь в Америке, доставить в Россию и обнаружить, что половина из них с браком, это будут огромные издержки и мы потеряем пользователей насовсем.

Цена ошибки: пользователи вернут деньги и больше никогда не купят продукт, что может погубить весь бизнес.

Цикл разработки ПО просто потрясающе долог, этапы занимают месяцы:

  • планирование 12 месяцев;
  • разработка 24 месяца;
  • тестирование 12 месяцев;
  • доставка 12 месяцев.

Новая версия выпускается раз в несколько лет, поэтому никак нельзя допускать ошибки на этапе кодирования.

Однако главный риск связан с тем, что на протяжении всего этого длинного цикла разработки отсутствует обратная связь от пользователей.

Представьте: мы придумали новый IT-продукт, провели небольшое исследование и решили, что, возможно, эта программа понравится пользователю. Но убедиться в этом мы никак не можем! Мы можем только два года писать софт, а потом попросить бухгалтеров у себя в округе, например, в Редмонде, поставить новую версию Excel и попробовать её использовать. И это по сути все наши возможности для тестирования продукта. Поэтому не исключено, что через два года разработки окажется, что наше ПО никому не нужно.

Если же наш софт всё-таки покупают, но он имеет баги и плохо работает, то пользователи легко могут его вернуть это еще физический товар, коробка, которую можно принести обратно в магазин. И заодно решить, что покупать ПО этого производителя больше никогда не стоит.

Agile. 20012008


Следующая эра начинается с распространением интернета в 2000-х.

Особенности периода: IT-бизнес переходит в интернет, но браузеры работают еще так себе.

Microsoft создаёт Internet Explorer и бесплатно поставляет его всем пользователям Windows. Интернет становится доступен огромному числу людей, но при этом браузер Microsoft целенаправленно сделан не очень пригодным для реализации динамической функциональности, чтобы защитить свои программы от конкуренции со стороны браузерных приложений и Netscape (подробнее по запросу Война браузеров). Поэтому интернет еще используется в основном для загрузки файлов, но этого уже достаточно, чтобы бизнес перешёл в интернет.

Доставка ПО: дистрибутивы становится возможно распространять через интернет.

Дистрибуция ПО через интернет позволяет гораздо чаще раз в несколько месяцев выпускать обновления и новые версии. Больше не обязательно записывать ПО на дискеты и диски пользователи могут скачать обновления из интернета, а разработчики могут допускать больше ошибок.

Цена ошибки: риск для бизнеса уже не так велик, потому что пользователь может получить обновление и продолжить пользоваться продуктом.

Где-то в это время зарождается Agile и выходят книги о гибкой разработке и экстремальном программировании, которые и для современного IT-менеджмента являются классической основой, например: Extreme Programming Explained: Embrace Change, Refactoring. Improving the Design of Existing Code, Test Driven Development.
Основная идея в том, что раз доставлять ПО можно через интернет, то цикл производства может быть гораздо короче, а новую версии можно выпускать каждые полгода.
Цикл разработки в начале 2000-х выглядит примерно так:

  • планирование 2 месяца;
  • разработка 6-12 месяцев;
  • тестирование 1-3 месяца;
  • доставка несколько недель.

Можно, например, больше не тестировать так тщательно. Если у 10% пользователей проявятся баги, то для них можно выпустить патч, а не тратить заранее год на то, чтобы убедиться, что наше ПО работает как надо абсолютно везде. Таким образом, можно гораздо быстрее проверять гипотезы, но быстрее тут это по-прежнему полгода-год.

То, что можно меньше вкладываться в тестирование и детальное планирование, позволяет сократить расходы на проведение эксперимента. И слово эксперимент станет ключевым в следующую эпоху.

DevOps. 20092020


Особенности периода: устанавливаемого ПО практически не осталось, а немногое существующее обновляется через интернет. Интернет используется повсеместно, становятся популярны социальные сети и развлекательный софт, которые живут исключительно в интернете. Реализовывать сложную динамическую функциональность интерфейсов можно непосредственно в браузере и мы переходим туда.

Доставка ПО: посредством Облака. Если раньше, программа всё равно устанавливалась на компьютер пользователя и для него должна была быть отлажена, то теперь по сути нужно сделать программу лишь под один компьютер сервер в Облаке. Для нас это удобно тем, что у нас есть полный контроль над этим компьютером и тем, как работают на нём наши программы. Конечно, остаются некоторые трудности с отрисовкой интерфейсов в браузере, но они гораздо менее серьезные чем те, что были раньше.

Всё это позволяет ускорить планирование, реализацию, тестирование. Больше нам не нужно месяцами или годами жить с чёрной дырой неизвестности: выстоит ли проект или нет, нужна ли в нём такая функциональность и т.д. Обновлять ПО можно практически в реальном времени.

Но в 2006-2008 идеологически ПО еще разрабатывается по-прежнему как некое цельное ядро. Это, конечно, не exe'шник, но это всё равно цельный монолит, состоящий из набора очень плотно связанных объектов. Такое ПО слишком тяжеловесное, для того чтобы меняться так быстро, как этого хочет рынок.

Для решения проблемы неповоротливости монолита те же самые ребята, которые принесли нам ООП, говорят, что приложение можно и в целом разделить на отдельные программы, которые будут между собой коммуницировать. И тогда будет возможным ещё больше увеличить команду разработчиков с сотен до тысяч и создавать новую функциональность непрерывно. Тем самым проводить как можно больше экспериментов, проверять гипотезы, адаптировать бизнес под запросы рынка и действия конкурентов и двигать его вперед.

В 2009 году выходит первый доклад о том, как Dev и Ops объединяются, чтобы обеспечить 80 деплоев в день, и это становится одной из главных ценностей в разработке. Цикл разработки теперь выглядит совершенно по-другому:

  • планирование несколько недель;
  • разработка несколько недель;
  • тестирование несколько дней;
  • доставка несколько минут.

Ошибки можно исправлять практически на лету и разрабатывать гипотезу очень быстро. Тут же появляется всем известное теперь слово MVP.

Если в 70-е у разработчика почти не было права на ошибку и ПО было фактически недвижимым при запуске космонавтов на луну требования к функциональности не часто меняются то теперь софт становится абсолютно динамическим. Все готовы к тому, что будут баги, поэтому и нужна поддержка и команда, которая будет обеспечивать работу системы в условиях динамичного развития.
В новой эпохе впервые за историю развития IT специальность, связанная с доставкой ПО, стала действительно айтишной.
До этого профессия человека, который обеспечивал систематическую доставку программного обеспечения, вообще говоря, не была айтишной. В 70-80-е это были люди, которые засовывали перфокарты в компьютеры, в 80-90-е люди, которые грамотно вели переговоры с фабриками и заводами по производству дисков и занимались логистикой. Это всё абсолютно не связано ни с разработкой, ни с системным администрированием.

Не погруженные глубоко в тему DevOps люди часто думают, что DevOps это новое клёвое название для админов, которые больше общаются с разработчиками. Но бизнес (и википедия) считает, что DevOps это методология внутри процесса разработки ПО. И не так важно, что конкретно она означает, важно, что она дает. А дает DevOps как методология возможность максимально быстро адаптироваться к изменениям рынка и менять сам процесс разработки ПО.

Если компания не хочет отставать от конкурентов, то ей нужно переходить от длинных циклов разработки и релизов раз в месяц к DevOps. DevOps-трансформация при этом означает обеспечение Agile-процесса целиком от разработки до выкладки. И таким образом процесс доставки ПО включается в процесс разработки и становится айтишной специальностью.

И да, поскольку процесс доставки обычно включает в себя работу, связанную с серверными и инфраструктурными штуками, то кажется, что это должен или может делать человек с админским бэкграундом. Но это приводит к проблеме во взаимопонимании инженеров и бизнеса. Особенно когда речь идет об админах, переживающих DevOps-трансформацию и выполняющих запросы бизнеса, который хочет быть гибче.

У большинства админов, которые занимаются обеспечением отказоустойчивости, идеология работает не трожь! находится во главе угла. Они хоть и не запускают Аполлон на Луну, но мыслят теми же категориями надежности. А бизнес в новых условиях, пускай и ценой сбоев, хочет:

  • минимальное время от идеи до продакшена;
  • максимальное количество проверенных гипотез за короткое время;
  • минимальное влияние ошибок на работу продакшена.

Пускай оно сразу упадет это ничего, мы откатим, поправим и снова выложим. Лучше быстрее проверить, чем вкладываться во что-то, на что не будет спроса.
Подход к отказоустойчивости меняется: больше не нужно, чтобы текущая версия ПО была стабильной на протяжении долгого времени нужно, чтобы ошибка в текущей версии ПО минимально влияла на работоспособность всей системы.
Не нужно обеспечивать стабильность маленького кусочка нового кода; нужно иметь возможность выкинуть его как можно быстрее и вернуть тот, который работал. Это опять про гибкость: ценность не в стабильности кода, который выложен в инфраструктуре, а в способности инфраструктуры быть максимально гибкой.

Как инженеру пойти навстречу бизнесу


Итак, что же мы можем сделать, чтобы найти больше пересечений с ценностями бизнеса?

Если мы говорим, что внедрение DevOps служит нуждам бизнеса, то должен быть способ понять, делает ли инженер то, что нужно бизнесу. Вот какие метрики можно ввести, если изучить отчёт DORA State of DevOps и исследование состояния DevOps в России:

  • Частота деплоев (deployment frequency) как часто вы деплоите код в продакшен или как часто ваши конечные пользователи получают новые релизы.
  • Время внесения изменений (lead time for changes) от коммита кода в репозиторий до его выкладки в продакшен.
  • Время, за которое сервис восстанавливается после сбоя или аварии (time to restore).
  • Частота аварий, вызванных выкладкой изменений (change failure rate) какой процент деплоев приводит к ухудшению качества обслуживания пользователей и требует исправлений, например, откатов.

Эти метрики позволяют оценить, как компания использует возможности DevOps. В то же время, посмотрев на эти метрики, инженер может понять, какими своими действиями он может помочь бизнесу.

Частота деплоев


Понятно, что чем чаще компания деплоится, тем вернее она движется по пути DevOps-трансформации. Но деплоиться часто страшно. Однако DevOps-инженер может помочь справиться с этими страхами.

Страх 1: выложим что-то плохо протестированное, из-за чего продакшен упадет под нагрузкой.

Роль DevOps: обеспечить возможность легкого отката, помочь автоматизировать тестирование в инфраструктуре.

Страх 2: выложим новую функциональность с багами, а её внедрение изменит данные или структуру данных настолько, что откатиться будет невозможно.

Роль DevOps: работать в связке с разработчиками и помочь в архитектурных решениях, предложить эффективные методы миграции данных и т.д.

Страх 3: выкладывать долго и сложно (практика показывает, что 20 минут на сборку docker обычная история).

Роль DevOps: обеспечить скорость деплоя и отката, ускорить процесс сборки.

Время внесения изменений


Это отчасти менеджерская метрика, потому что именно менеджер должен организовать процесс так, чтобы код, который написал разработчик, можно было максимально быстро закоммитить и задеплоить. Устранить препятствия на этом пути тоже может помочь DevOps-инженер.

Проблема 1: долго проходит pull request. Например, потому что есть ревью и ревью на ревью. В корне этой проблемы лежит всё та же боязнь выложить код.

Роль DevOps: работать с менеджером разработки в вопросе автоматизации принятия PR.

Проблема 2: долгий ручной процесс тестирования.

Роль DevOps: помочь автоматизировать тестирование.

Проблема 3: долгая сборка.

Роль DevOps: мониторить время сборки, уменьшать его.

Поэтому DevOps-инженеру нужно, во-первых, понять, как тестируется софт, как тестирование автоматизируется и как автоматизацию тестирования можно интегрировать в процесс сборки ПО. Во-вторых, разложить весь пайплайн выкладки ПО на составляющие и найти, где его можно ускорить. Замониторьте весь процесс от коммита до выкладки в продакшен, узнайте, сколько идет сборка, сколько pull request ждёт аппрува, и вместе с менеджером и разработчиками придумайте, на чём можно сэкономить.

Время восстановления работоспособности


Time to restore время, за которое сервис восстанавливается после сбоя или аварии, метрика, гораздо более близкая к SRE.

Проблема 1: сложно локализовать техническую проблему.

Роль DevOps: организовать observability, вместе с разработкой обеспечить инфраструктуру для мониторинга и настроить систему мониторинга так, чтобы эффективно следить за работой сервиса.

Проблема 2: инфраструктура не готова к легкому процессу отката.

Роль DevOps: обеспечить техническую возможность.

Проблема 3: после миграции невозможно откатиться.

Роль DevOps: научить разработчиков практикам миграции данных, позволяющим легкие откаты, и практикам отказоустойчивости.

Частота аварий


Change failure rate как часто выложенный код падает это снова про менеджмент и идеологию, но здесь есть интересный момент: код часто падает, если его редко выкладывать.

К сожалению, я видел случаи, когда компания берет курс на DevOps-трансформацию, внедряет GitOps и Kubernetes, но частота релизов от этого не меняется. Подход остаётся прежним, и разработка новой версии как занимала полгода, так и занимает полгода. А если вы пишете код, который на протяжении месяцев не выкладываете в продакшен, то он упадет с гораздо большей вероятностью, чем код, который выкладывается каждую неделю. Этого разрушает весь процесс целиком: если компания взяла курс на DevOps, а при этом цикл разработки занимает шесть месяцев, то это какая-то беда.

В таком случае DevOps должен забить тревогу и попытаться ещё раз объяснить суть DevOps-подхода и то, как изменился подход к разработке за последние годы.

Дивный новый мир


Нам как инженерам нужно понимать, что же важно для бизнеса, и на это и направлять свои усилия.

  • Стабильность текущей версии кода не так важна, как стабильность инфраструктуры целиком и возможность откатиться к предыдущей версии, изолировать проблему и быстро её исправить.

  • Стабильность окружения разработки, его производительность критически важна, особенно если в команде сотни разработчиков. Когда разработчики из-за проблем со средой разработки вынуждены ждать, это равносильно простою фабрики.

  • Мониторинг процесса доставки ПО стал частью мониторинга всей инфраструктуры. Если что-то выкладывается 20 минут, то надо попытаться это ускорить.
  • Скорость доставки ПО становится одной из ключевых задач, нужно обеспечить такую молотилку и чтобы она при этом работала как часы.
  • Создание удобных окружений для разработки ещё одна ключевая задача. Если разработчику удобно, он пишет код быстрее, чаще выкладывает и всё работает хорошо.

Подписывайтесь на наш блог, здесь мы регулярно публикуем интересное из мира DevOps и рассказываем о случаях из нашей практики, которые помогут, например, подготовить сервисы к чёрной пятнице. Или подключайтесь к моему телеграм-каналу там я собираю мысли на профессиональные (и не только) темы и делюсь любопытными ссылками.
Подробнее..

TLDR занимательные RFC, YT-каналы на выходные, живойкомпьютер из 50-х и история Fidoneta

25.10.2020 16:08:20 | Автор: admin

В прошлый раз мы поговорили о перестройке IT-монополий, сломе cookie-стен и открытом ПО, а до этого обсудили непривычную дистанционку, личную ИБ и то, почему разработчики дороже денег. Сегодня вновь делимся главными моментами из наших избранных материалов.

Alex Motoc / Unsplash.comAlex Motoc / Unsplash.com

Шутки ради: пара занимательных RFC

Формат Request for Comments существует более пятидесяти лет. За это время вышло около девяти тысяч различных спецификаций, но не ко всем из них стоит относиться слишком уж серьезно.

Так, RFC 8771 описывает сетевую нотацию I-DUNNO. Ее задача необратимо обфусцировать IP-адреса, чтобы усложнить их чтение и закрепить эту область за вычислительными системами.

В 8774-м документе предусмотрели возможные проблемы с квантовыми сетями будущего, а именно 0-RTT, с которым готовы столкнуться лишь TLS 1.3 и QUIC. Чтобы справиться с потенциальными сложностями, автор предлагает составить список всех протоколов, подверженных квантовым багам.


Компьютер, который отказывается умирать

Еще одна наша находка японский FACOM 128B. В этом году ему исполняется 62 года, а 100-й линейке этих устройств 66 лет. Стоит признать, что компьютер уступает своим современникам (вроде IBM 701) по производительности, но его хватило, чтобы спроектировать целый авиалайнер.

Недостатки FACOM компенсирует надежностью и простотой обслуживания. 128B прекрасно себя чувствует и в роли музейного экспоната для поддержки его работоспособности нужен всего один инженер. Кстати, в статье мы говорим и о других долгожителях IBM 402 и DEC MicroVAX 3100.

Наш короткий ролик о FACOM 128B:


Почти анархия: краткая история Fidonet

Стоит признать, что основателям этого проекта не было дела до победы над интернетом, а его название вовсе не произошло от клички пса одного из них. Их решение было уникальным с точки зрения отсутствия активной коммерциализации, хотя такой подход и погубил это начинание.

Том Дженнингс, начавший работу над проектом в 83-м, уже через год провел первый сеанс связи с коллегой, находившимся на другом побережье США. Но от формата точка-точка к простой древовидной структуре сеть перевели лишь через несколько лет. Тогда и появились пойнты, ноды, сисопы и регионы, задавшие международный масштаб для независимого проекта.

В Россию Fidonet пришел в 90-е, тогда он был на пике популярности. Однако уже к концу десятилетия по уровню и скорости развития интернет не оставил Fidonet'у ни единого шанса. С другой стороны, сама технология все еще в ходу сегодня Fido Technology Network все еще пользуются не только отдельные энтузиасты, но и некоторые банки или даже правоохранительные структуры.


Изучить на выходных: книги для сетевых администраторов

Мы посмотрели, что сегодня обсуждают на Hacker News и других англоязычных технологических площадках, а по итогам такого анализа подготовили компактную подборку литературы.

Первая книга о принципах построения компьютерных сетей при участии ведущего специалиста VMware. Она распространяется бесплатно репозиторий проекта на GitHub, а читать тут.

Вторая книга бестселлер и всесторонний справочник для сетевого администратора. Один из разработчиков DNS назвал ее незаменимой для тех, кто работает с облаком и открытым ПО.

Третья от одного из топовых экспертов по кибербезопасности. Здесь сделали ставку на простоту примеров и разбор ситуаций, с которыми может столкнуться системный администратор.

Кстати, вот короткий видеообзор еще одной подборки книг на этот раз с фокусом на ИБ:


Парочка тематических подкастов по теме сетевых технологий

Мы изучили несколько аудиопередач и рассказали об избранных подкастах. Так, один из них решили не продолжать в 2020-м, но у программы есть архив из 85 выпусков средней длительности, которые достаточно легко слушать какая-то особенная подготовка для этого не требуется. Шоу подойдет тем, кто хотел бы разобраться с рядом базовых мифов и оценить профильные темы свежим взглядом.

Ведущие второго подкаста уделяют больше внимания вопросам информационной безопасности. Здесь выпуски чуть объемнее, но и формат отличается свежий эпизод повествует о борьбе TrickBot'ом, есть двухсерийный разбор крупномасштабной учётки данных в Yahoo и рассказ о Золотом щите.


Англ. YT-каналы об алгоритмах, разработке и архитектуре ПО

Этот обзор, опубликованный на днях в нашем блоге, добавили в избранное 123 хабрапользователя. Тут есть достаточно популярные и относительно необычные проекты, но формат подачи материала у них многим покажется доступнее для восприятия и понимания (все-таки есть визуальная составляющая).

Среди ключевых находок стоит отметить:

Пара специализированных рекомендаций (Python, Linux и др.) в комментариях к хабратопику.


Подробнее..

Немного индустриальной истории Intel в честь Manufacturing Day

16.10.2020 10:22:46 | Автор: admin
image
Первое принадлежащее Intel здание в Санта Кларе, Калифорния
Manufacturing Day или День промышленности отмечается в США в первую пятницу октября. Это неофициальный, но все более значимый для страны праздник, призванный, в первую очередь, вдохновить на трудовые свершения новые поколения промышленников. Пользуясь случаем, мы решили показать фото из архива Intel, когда производство компании делало свои первые шаги.
Даже гиганты индустрии когда-то были маленькими важно сделать правильный зачин.


Один из отцов основателей Intel Роберт Нойс (справа) и Пол Брассёр наблюдают за работой сотрудницы на линии создания подложек. Маунтин Вью, Калифорния, середина 70-х


Вещи пакуются, а работа идет. Энди Гроув (справа сзади), бывший исполнительный директор и председатель совета директоров Intel, вместе с другими сотрудниками готовится к переезду в первое принадлежащее компании здание в Санта Кларе, Калифорния именно оно показано на КДПВ. 1971 г.


Intel открывает свое первое международное производство в Малайзии. Обратите внимание, что рабочая одежда сотрудниц сшита из местной ткани, батика. Пенанг, Малайзия, 1972 г.


Линия сборки и тестирования. Каждый готовый процессор изучался под микроскопом. Малайзия, 1975 г.


Сотрудники наблюдают за работой печей. Маунтин Вью, Калифорния, 70-е


Амуниция для чистых комнат (aka костюм кролика) впервые появилась на заводе Fab3 в Ливерморе, Калифорния, в 1973 году. До этого сотрудники носили простые халаты. Фото 1978 г.


Техник на заводе в Ливерморе, Калифорния, загружает поднос 4-дюймовыми подложками


Специалист использует вакуумный щуп для загрузки 4-дюймовых подложек. 1979 г.


Техник держит 4-дюймовую подложку. 1990 г.


И, наконец, сегодняшний день. Слева направо: Исполнительный директор Intel Боб Суон, менеджер проекта автоматическая линия доставки материалов Мишель Стрмиска и старший вице-президент Кейван Есфарджани стоят под той самой автоматической линией доставки мы ее вам показывали.
Подробнее..

45 лет полёту станции Венера-9

22.10.2020 20:12:41 | Автор: admin
В 1975 году появился Altair 8800, Билл Гейтс и Пол Аллен основали компанию Microsoft и создано Европейское космическое агентство (ЕКА).

И в том же году до Венеры добралась советская межпланетная станция. Пока первый искусственный спутник летал по орбите планеты, спускаемый аппарат 22 октября 1975 года добрался до поверхности планеты и передал первые панорамные снимки. Связь с аппаратом продержалась 53 минуты.

...22 октября 1975 года межпланетная станция Венера-9, преодолев за 136 суток полета расстояние более 300 миллионов километров, выведена на орбиту вокруг Венеры и стала первым в истории искусственным спутником Венеры. Спускаемый аппарат станции совершил мягкую посадку на поверхность Венеры. Впервые в условиях атмосферы планеты Венера при давлении в 90 раз больше, чем на Земле, и температуре 485 градусов по Цельсию получено уникальное изображение поверхности Венеры на месте посадки....




В 1960-е годы в СССР начались попытки запускать аппараты к Венере в рамках космической программы Венера. Первый пуск был неудачными, но уже второй аппарат Венера-1 достиг зоны действия тяготения планеты, где с ним было потеряна связь он пролетел на расстоянии 100 000 км от поверхности. В 1965 году результат был уже лучше 24 000 км.

Венера-4 доставила спускаемый аппарат и смогла получить данные о давлении, что использовали при построении следующих аппаратов. Венера-7 впервые совершила мягкую посадку на другую планету в 1970-м году.

А Венера-9 в 1975 году впервые передала телевизионную панораму с Венеры на Землю.

Аппарат измерил плотность грунта и содержание естественных радиоактивных элементов. Он был не один вместе с Венерой-9 на поверхность приземлился спускаемый Венера-10, а станции в это время облетали планету. Мы узнали, что 510% солнечной энергии достигает поверхности планеты в виде излучения, рассеянного облаками.

Прошло 45 лет, а это событие до сих пор остаётся значимым в истории освоения космоса.













Фото: Роскосмос.
Подробнее..

Великолепный Марио рождение легенды

09.10.2020 22:10:21 | Автор: admin

Ровно 35 лет назад, 13 сентября 1985 года, состоялся релиз игры, на долгие годы определившей облик индустрии и заложившей фундаментальные основы жанра платформер. Игры, которая принесла компании Nintendo баснословную прибыль и наглядно доказала, что спасение принцесс под силу не только рыцарям в сияющих доспехах, но и обычным водопроводчикам. В честь этой знаменательной даты мы подготовили для вас материал, повествующий о череде удивительных событий, подаривших миру одного из самых обаятельных персонажей за всю историю видеоигр.

Только бизнес и немного личного


30 апреля 1934 года в семье итальянских иммигрантов Луи и Рины Сегали, проживавших в Сиэтле (штат Вашингтон), родился долгожданный ребенок. В 1952 году Сегали-младший окончил среднюю школу, после чего в течение 5 лет работал в одной из местных строительных компаний, а в 1957 году принял решение основать собственный бизнес в сфере городского девелопмента и дорожного строительства. На старте будущая M.A. Segale Inc. состояла всего из двух сотрудников (самого Сегали и его жены Донны), однако благодаря упорной работе семейной пары предприятие постепенно трансформировалось из небольшой конторы, в активах которой значился единственный пикап, в одного из крупнейших региональных подрядчиков, а в 1998 году компания вошла в состав крупного ирландского концерна CRH plc, став частью его дочки Oldcastle Materials, базирующейся в Атланте. На тот момент совокупная стоимость M.A. Segale Inc. достигла 60 миллионов долларов США.

Ведение бизнеса в столь конкурентной нише требовало немалых денежных вливаний, поэтому Сегали параллельно осваивал смежные отрасли с целью получения дополнительных средств, которые в дальнейшем можно было бы инвестировать в развитие M.A. Segale Inc. Одним из таких направлений стала сдача в аренду складских помещений в пригороде Сиэтла. Занятие оказалось довольно прибыльным, хотя и доставляло бизнесмену немало хлопот: Сегали регулярно приходилось иметь дело с нерадивыми арендаторами, ни в какую не желавшими своевременно выполнять взятые на себя финансовые обязательства.

Одна из таких историй произошла в 1981 году. Небольшая японская компания, производившая аркадные автоматы, задумала покорить американский рынок и арендовала у Сегали под свою продукцию вместительный склад. Увы, ее дебютная игра потерпела полный коммерческий провал, что привело к неизбежной просрочке арендной платы. Сегали тогда лично встретился с главой американского филиала и строго отчитал его прямо перед подчиненными, однако в конечном счете сторонам удалось прийти к взаимовыгодному соглашению: компания получила необходимую отсрочку, благодаря чему ей удалось поправить свое финансовое положение и сполна расплатиться со всеми долгами.

Вряд ли хоть кто-то мог предположить, что благосклонность предпринимателя сыграет решающую роль в становлении индустрии видеоигр и приведет к появлению самого популярного в мире персонажа платформеров. Ведь нерадивым арендатором был не кто иной, как Минору Аракава, президент Nintendo of America, а устроившим ему разнос бизнесменом Марио Сегали, в честь которого впоследствии и получил свое имя всемирно известный водопроводчик.


Марио Сегали и его виртуальный протагонист мало похожи друг на друга

Игра на выживание: от Donkey Kong до Super Mario Bros.


Само по себе появление в меру упитанного усатого коротышки в самом расцвете сил является следствием целой череды компромиссов и совпадений. Дебют Nintendo на американском рынке игровых автоматов действительно обернулся грандиозным провалом. Пользующийся огромной популярностью в Японии аркадный шутер Radar Scope (вариация на тему Space Invaders), на который компания делала основную ставку, с треском провалился. Из 3 тысяч привезенных в США игровых автоматов (всю партию пришлось заказать заранее у Ikegami Tsushinki, так как сама Nintendo не имела достаточных производственных мощностей) удалось реализовать лишь около тысячи, а остальные продолжили пылиться на том самом злополучном складе.


В такой ситуации наиболее логичным (и безопасным) для Nintendo стало бы признание поражения и сосредоточение на внутреннем рынке, однако Минору Аракава смог убедить своего отчима Хироси Ямаути, возглавлявшего компанию в те времена, пойти на рискованный шаг и вложиться в создание новой игры. Поскольку в компании катастрофически не хватало профессиональных гейм-дизайнеров, на должность руководителя проекта утвердили тогда еще совсем зеленого Сигэру Миямото, на счету которого было участие в одном-единственном проекте (и то лишь на вторых ролях) том самом Radar Scope, который столь прохладно встретили американцы.

Однако это решение оказалось абсолютно верным: именно Сигэру смог создать подлинный шедевр, с которого и началось триумфальное восхождение Nintendo на олимп игровой индустрии.


Счастливая семья: Сигэру Миямото в окружении своих детей Марио и Луиджи

Неопытность Миямото в гейм-дизайне в конечном счете и определила концепцию будущего проекта. В то время при разработке игр было модным заимствовать отдельные эпизоды из боевиков, будь то погони, перестрелки или сражения с пришельцами. Однако Сигэру хотел создать более целостный продукт, способный рассказать пусть короткую, но самодостаточную историю в рамках видеоигры для аркадного автомата. Да, как бы странно это ни звучало, но будущий Donkey Kong был во многом именно про сюжет, благодаря чему и смог завоевать сердца игроков.

Хотя сперва ни о какой гигантской горилле речи не шло, а в качестве главных героев игры предполагалось использовать персонажей комикса и одноименного мультфильма о Попае. По изначальной задумке в роли damsel in distress (кстати, этот троп был задействован в видеоигре впервые) выступала возлюбленная моряка Олив Ойл, а главным антагонистом должен был стать громила Блуто. Однако King Features Syndicate, которой принадлежали права на персонажей, отказала Nintendo, посчитав затею не слишком удачной. И пожалела об этом спустя всего год: на фоне успеха Donkey Kong компания все же дала проекту зеленый свет, и в 1982 году вышла игра Popeye, имевшая схожую концепцию, однако обрести мировую известность ей, увы, не было суждено.


После отказа King Features Syndicate Миямото нашел вдохновение в кинокартине 1933 года Кинг-Конг. По сути, сюжет игры представлял собой переосмысление заключительной сцены фильма: обезумевший примат гигантских размеров карабкается по строительным лесам, сжимая в лапе красавицу Паулину (именно Паулину, а не принцессу Пич, как многие считают), а игрок берет на себя роль храброго плотника, который должен, минуя все препятствия, спасти свою возлюбленную.


Рекламный плакат к оригинальной игре Donkey Kong

Концепция оказалась гениальной в своей простоте: вся фабула умещалась на одном экране и не требовала каких-то особых выразительных средств или пояснений. Игрок мог сразу понять что почем: вот главный враг, вот красавица, которую нужно спасти, а вот и наш протагонист, на плечи которого возложена эта нелегкая задача. Сюжет игры был предельно прост, однако отличался целостностью и завершенностью.


Концепт-арт Donkey Kong, нарисованный Сигэру Миямото

Изначально главный герой значился во всех диздоках не иначе как Jumpman (Прыгун), и лишь благодаря просроченной аренде обрел простое, но запоминающееся имя. Что же касается образа персонажа, то он во многом стал таким из-за технических ограничений игровых автоматов. Спецовка и кепка появились благодаря тому, что существенно упростили работу художников и аниматоров, избавив от необходимости прорисовывать мелкие детали одежды и прическу, яркие цвета помогли выделить протагониста на фоне декораций, а перчатки Микки Мауса четко обозначить кисти рук при совершении различных действий.


Широко раскрытые глаза, роскошные усы и нос картошкой делали Марио узнаваемым, но, чтобы все это можно было разглядеть на миниатюрном спрайте, человечка пришлось наделить анатомией Карлсона. Ну а профессию он сменил и вовсе благодаря бывшему однокурснику Сигэру Миямото: как-то раз в личном разговоре приятель гейм-дизайнера отметил, что костюм Марио решительно не подходит плотнику, а вот для водопроводчика будет в самый раз. Вот так, благодаря череде случайностей и несовершенству техники, на свет появился самый популярный персонаж за всю историю видеоигр, ставший впоследствии талисманом Nintendo.


На момент завершения разработки еще никто не подозревал, насколько успешной окажется новая игра. Поскольку судьба американского филиала Nintendo висела на волоске, производство аркадных автоматов было развернуто все на том же складе. Трем сотрудникам компании (дополнительный персонал был непозволительной роскошью) поручили установить новые программные платы в невостребованные 2 тысячи игровых автоматов Radar Scope и заменить наклейки на лицевых панелях. Впрочем, совсем скоро Nintendo столкнулась с другой проблемой: спрос на новую игру оказался настолько велик, что компания едва справлялась с его удовлетворением.


Аркадные автоматы Radar Scope, Donkey Kong и его сиквелов: найдите 10 отличий

На фоне успеха оригинала сиквел не заставил себя долго ждать: в 1982 году свет увидела игра Donkey Kong Jr. (Донки-Конг младший), в которой Марио выступил уже в роли главного антагониста (в первый и последний раз). По сюжету игры наш тогда еще плотник построил для гигантской гориллы прочную клетку, а игрок управлял племянником человекообразного хулигана, который должен был вызволить нерадивого родственника из неволи.


Следующее пришествие Марио на экраны игровых автоматов состоялось уже в 1983 году и расставило все точки над i. Обаятельный усач официально сменил профессию, став водопроводчиком, да и действие игры перенеслось со строительных лесов под землю. Теперь Марио предстояло очистить городскую канализацию от невесть откуда взявшихся агрессивных черепах, крабов и гигантских мух, причем достаточно нетривиальным способом: когда противник появлялся на платформе, персонаж должен был ударить по ней снизу в прыжке и затем выбить врага за пределы экрана мощным пинком, пока тот беспомощно лежит на спине. Если не успеть этого сделать, противник переходил в следующую стадию, становясь более агрессивным и быстрым. А помогал в этом нелегком деле нашему героическому усачу брат-близнец Луиджи, носивший комбинезон зеленого цвета.


Следующее приключение братьев Марио (да-да, Марио, помимо прочего, еще и фамилия главных героев, что Сигэру Миямото официально подтвердил лишь в 2015 году, во время празднования 30-летия франшизы) не заставило себя долго ждать: в 1985 году компания выпустила полноценный платформер Super Mario Bros. для домашней игровой системы Nintendo Entertainment System (Famicom). Игра имела оглушительный успех и даже попала в Книгу рекордов Гиннесса, став самым продаваемым тайтлом в истории индустрии: совокупный тираж Super Mario Bros. превысил 40 миллионов копий.


Что касается сюжета, то здесь со времен Donkey Kong мало что поменялось: Миямото вновь использовал девицу в беде, с той лишь разницей, что теперь наш водопроводчик спасал не абы кого, а принцессу Грибного королевства Пич (от английского Peach персик), а в роли его противника выступал грозный Король Боузер лидер злобных черепах Купа. Зато по наполнению контентом Super Mario Bros. могла дать фору практически любой игре тех времен.

Инженерам Nintendo удалось совершить невозможное и выжать максимум из ограниченных ресурсов консоли, что позволило создать по-настоящему увлекательную и разнообразную игру, у которой на момент релиза попросту не было достойных аналогов. Super Mario Bros. включала в себя 32 уровня, по 4 в каждом из 8 уникальных миров, а ее боевая система предполагала сразу несколько способов устранения врагов: Марио мог запрыгнуть на противника сверху, ударить по платформе, на которой тот находился, снизу, использовать виртуального оппонента в качестве оружия (спрятавшуюся в панцирь черепаху можно было запустить в других противников, причем она могла отрикошетить от стены и попасть в самого Марио) или уничтожить с помощью огненного шара (для этого надо было подобрать специальный бонус).


Ограниченное количество жизней (Марио, ко всему прочему, погибал с одного удара) делало платформер по-настоящему хардкорным, а таймер обратного отсчета добавлял динамики, мотивируя игрока постоянно двигаться вперед, ориентироваться в происходящем на ходу и совершенствовать собственные навыки. В сочетании с разрушаемым окружением и множеством секретов, большинство из которых можно было обнаружить лишь случайно, все это обеспечивало невероятную насыщенность игрового процесса.

Ну а после успешного прохождения в Super Mario Bros. открывался режим повышенной сложности, привносящий дополнительное разнообразие в геймплей:

  • противников становилось больше, они начинали передвигаться заметно быстрее;
  • оглушенные враги практически сразу приходили в себя;
  • все грибы Гумба заменялись на более опасных жуков Баззи;
  • платформы-лифты уменьшались в размерах, и на них становилось сложнее запрыгнуть;
  • количество вращающихся огненных стержней увеличивалось, при этом они становились длиннее;
  • на некоторых картах появлялись дополнительные ловушки и препятствия.


Super Mario Bros. стала подлинной иконой индустрии, обозначив фундаментальные основы жанра, поэтому именно дату ее релиза и принято считать официальным днем рождения Марио. А герои игры во главе с великолепным водопроводчиком и по сей день кочуют из проекта в проект, продолжая радовать игроков по всему миру.

Впрочем, Nintendo не забыла и о других персонажах, принесших компании мировую славу. Простоватый Донки-Конг окончательно перевоспитался (видимо, пребывание в клетке, сооруженной Марио, оказало на примата благотворное влияние), получив собственную франшизу. Да и красотка Паулина в дальнейшем неоднократно появлялась в играх Nintendo и даже смогла выстроить политическую карьеру, став мэром Нью-Донка: в этом качестве ее можно встретить в Super Mario Odyssey.


А еще Паулина неплохо поет

Праздник со слезами на глазах


Увы, в наше время редкая бочка меда обходится без ложки дегтя, и даже столь знаменательное событие, как 35-летний юбилей Марио, не стало исключением. Хотя, казалось бы, кто мог испортить такой праздник, кроме, разумеется, самой Nintendo? Но ирония как раз и заключается в том, что именно большая N и не преминула воспользоваться столь удачно подвернувшимся случаем.

Давайте пофантазируем. Вы являетесь владельцем одной из богатейших компаний в игровой индустрии, и вам принадлежит самая успешная франшиза в истории видеоигр. Ключевому маскоту бренда исполняется 35 лет. Что можно придумать по такому случаю? Да буквально все что угодно. Например, выпустить лимитированную версию Nintendo Switch с уникальным дизайном и выгравированным на корпусе автографом Сигэру Миямото, способную занять почетное место на полке любого коллекционера. Или предложить фанатам достойные ремастеры классических игр серии, выполненные на уровне Super Mario Odyssey (если речь идет о 3D-играх) или New Super Mario Bros. U Deluxe (если говорить о традиционных платформерах с видом сбоку). Nintendo решили пойти по второму пути: 18 сентября 2020 года состоялся официальный релиз сборника Super Mario 3D All-Stars, куда вошли ремастеры Super Mario 64 (1996), Super Mario Sunshine (2002) и Super Mario Galaxy (2007). Вот только назвать их достойными язык не поворачивается, да и слово ремастеры стоит взять в кавычки.


Строго говоря, перед нами даже не совсем порты. Как выяснил дата-майнер OatmealDome еще до официального релиза, портом с натяжкой является лишь Super Mario Galaxy: в данном случае разработчики действительно перекомпилировали код оригинальной игры, добавив поддержку nVidia Tegra X1, однако нативно APU обрабатывает лишь игровую логику, в то время как за рендер и даже за воспроизведение звука отвечает эмулятор под кодовым названием hagi. В то же время Super Mario 64 и Super Mario Sunshine не были переделаны вообще: при желании их можно хоть сейчас запустить на том же Dolphin.

Все улучшения графики (весьма скромные, надо отметить) и исправления перевода применяются на лету, точно так же, как это реализовано в свободных эмуляторах классических консолей, хотя последние справляются со своей задачей куда лучше, нежели фирменный костыль от Nintendo. И только главное меню сборника является оригинальным: оно выполнено на базе LunchPack, который также использовался в играх серии Splatoon, Super Mario Maker и Animal Crossing.


В Super Mario 64 немного улучшены текстуры и увеличено разрешение рендера, но этим дело и ограничивается

Таким образом по факту мы имеем дело не с ремастерами, а с максимально ленивым ретекстуром, где не было изменено практически ничего. На фоне недавних Crash Bandicoot N. Sane Trilogy от главных жадин индустрии Activision или того же Medievil от Sony такое отношение к преданным фанатам можно назвать откровенно свинским, особенно с учетом круглой даты.

Впрочем, за положительными примерами даже не надо ходить к другим издателям, ведь в прошлом году Nintendo наглядно продемонстрировала, что способна сделать шикарный ремейк классической игры в современной обертке. Речь идет, конечно же, о во всех смыслах замечательной The Legend of Zelda: Link's Awakening.


The Legend of Zelda: Link's Awakening образцовый ремейк от Nintendo

Оригинальный проект был выпущен в далеком 1993-м, став первой игрой франшизы, вышедшей на портативной консоли Game Boy. Ремейк образца 2019 года был воссоздан с нуля в полном 3D, причем с каким-то сверхчеловеческим вниманием к деталям: буквально каждый кустик остался на своем законном месте. И хотя многие критики ставили игре в укор устаревший гейм-дизайн, на практике The Legend of Zelda: Link's Awakening как раз и можно назвать образцовым ремейком: запустив эту игру, вы испытаете ровно те же самые ощущения, что дарил вам оригинал, с поправкой на современные визуальные технологии, которые, впрочем, ничуть не испортили ни геймплей, ни ламповость атмосферы.


Даже пасхалки остались на своих местах

На фоне The Legend of Zelda: Link's Awakening ситуация с Super Mario 3D All-Stars выглядит несуразной, словно кто-то внутри компании намеренно саботировал юбилей Марио. Впрочем, если рассуждать логически, то все встает на свои места, хотя выводы для игрового сообщества будут и не самыми утешительными.

Nintendo подарила нам с вами немало замечательных игр (и все еще продолжает их разрабатывать), но сегодня это в первую очередь огромная корпорация, действия которой определяются экономической целесообразностью. Собрав вокруг себя многомиллионную армию фанатов, компания весьма прозрачно обозначила намерение монетизировать собственные репутационные активы. И столь контрастное качество продуктов лишь наглядно это подтверждает. Давайте сравним между собой The Legend of Zelda: Link's Awakening образца 1993 и 2019 годов.


В оригинал, если бы Nintendo выпустила его без изменений, лишь адаптировав под разрешение экрана Switch и добавив цветные спрайты, сегодня смог бы играть разве что ностальгирующий геймер, заставший тот самый релиз, вышедший 27 лет назад, или более позднее переиздание 1998 года The Legend of Zelda: Links Awakening DX, выпущенное для Game Boy Color. А поскольку эта игра даже не является номерной частью франшизы (ее действие происходит не в королевстве Хайрул, а на острове Кохолинт, да и самой Зельды вы здесь не встретите), ленивый порт не смог бы привлечь внимание ни новых игроков, ни тех, кто приобщился к легендарной серии лишь недавно. Поэтому большая N приложила все возможные усилия, чтобы сделать ремейк-конфетку, который окажется интересен достаточно широкому кругу игроков, при этом досконально воссоздала исходные локации, добавив отличный оркестровый саундтрек и сохранив дух оригинала.

Ситуация с Super Mario 3D All-Stars диаметрально противоположная. Из всей троицы лишь Super Mario 64 выглядит морально устаревшим, но с учетом популярности франшизы (а об усатом водопроводчике знают даже те, кто не интересуется видеоиграми в принципе) и знаковости перечисленных тайтлов, даже эту игру с удовольствием купят и пройдут заново, благо core-геймплей всех трех игр таков, что они будут актуальны и еще через 10 лет. Выходит, что и напрягаться незачем: достаточно прикрутить к исходным дистрибутивам эмулятор, сделать новое меню для сборника и дело в шляпе!

А если не будут брать, отключим газ, подумал про себя один из топ-менеджеров компании, решив добавить эксклюзивности в и без того эксклюзивный проект, и подписал распоряжение о том, чтобы ремастеры находились в продаже лишь ограниченное время до 31 марта 2021 года включительно. Уже в апреле Super Mario 3D All-Stars должен навсегда исчезнуть из eShop, и вскоре единственным легальным способом поиграть в этот сборник станет приобретение физической копии с рук, ведь дополнительный тираж картриджей также не планируется. Так что всем, кто находится в поисках надежных активов для инвестиций, рекомендуем присмотреться к покупке этого издания, ведь со временем оно будет лишь дорожать.


Super Mario 3D All-Stars самое надежное вложение ваших средств

Если вы полагаете, что после всего этого игроки стали массово бойкотировать релиз, то глубоко ошибаетесь: еще на этапе предзаказов Super Mario 3D All-Stars заняла второе место в рейтинге бестселлеров Amazon (на момент написания статьи сборник расположился на 7-й позиции), а цены у перекупщиков на старте предпродаж достигали $350. Иными словами, люди стали действовать именно так, как от них ожидали в Nintendo: побоявшись, что физических копий не хватит на всех, поклонники Марио начали в срочном порядке скупать картриджи. И продолжают до сих пор: в британском чарте Super Mario 3D All-Stars прочно удерживает первое место, а продажи самой Nintendo Switch после выхода сборника достигли 146 тысяч устройств, что на 90% больше по сравнению с сентябрем прошлого года.

И хотя без ревью-бомбинга в этот раз не обошлось, это мало на что повлияло: 6,5 балла пользовательского рейтинга и гневные отзывы на Metacritic практически не отразились на продажах.


Пользователи Metacritic активно жалуются на качество ремастеров, но Nintendo не обращает на это внимания

С другой стороны, раз уж Nintendo в текущем поколении стала экономить на консолях и при этом даже не боится судебных разбирательств (а 23 сентября в адрес компании был направлен уже второй иск, связанный с качеством джойконов, на этот раз составленный французской ассоциацией потребителей UFC-Que Choisir), то использованию порочных практик в сфере цифровой дистрибуции не приходится удивляться.

Кстати, если уж речь зашла о железе, вот еще один интересный факт: внутренней памяти Nintendo Switch недостаточно для того, чтобы вместить все игры о Марио и его друзьях, официально доступные на данной платформе. Давайте посчитаем!

Игра


Объем, МБ


Super Mario Odyssey


5747


New Super Mario Bros. U Deluxe


2572


Paper Mario: The Origami King


6662


Mario Kart 8 Deluxe


7059


Mario Tennis Aces


2491


Luigi's Mansion 3


7554


Mario + Rabbids


2980


Super Mario Party


2885


Super Mario Maker 2


3135


VS. SUPER MARIO BROS.


98


Марио и Соник на Олимпийских играх 2020 в Токио


6574


Super Mario 3D All-Stars


5013


Итого


52770



Около 53 гигабайт величина по нынешним временам весьма скромная даже для смартфона, но не для Nintendo Switch. Гибридная консоль получила встроенный накопитель на 32 ГБ, причем реальный доступный для хранения данных объем составляет лишь 25,4 ГБ, так как остальное пространство занимает операционная система. Вот и получается, что каждому, кто пожелает достойно отметить юбилей героического водопроводчика, перепройдя любимые игры, для начала придется обзавестись картой памяти SanDisk for Nintendo Switch как минимум на 64 ГБ (а лучше на все 128 с учетом будущих релизов). В этом случае вы сможете установить дистрибутивы перечисленных игр на microSD-карточку, а внутреннюю память консоли оставить для сохранений, скриншотов и видео.


Самое забавное, что при использовании карты памяти вы практически не теряете в производительности, как это было бы в случае со смартфоном. Все дело в том, что внутри Nintendo Switch установлен NAND-чип Toshiba THGBMHG8C2LBAIL eMMC 5.1, максимальная теоретическая пропускная способность которого составляет 600 МБ/с в операциях чтения и 125 МБ/с при записи файлов. Хотя на момент релиза консоли в мобильных устройствах уже вовсю использовался стандарт UFS 2.0, способный похвастаться вдвое большей производительностью (1200 МБ/с), Nintendo закономерно проигнорировала данный факт. Более того, гибридная консоль не задействует на все 100% даже возможности eMMC 5.1, что наглядно продемонстрировала в своем исследовании Digital Foundry.


Как показали тесты, при использовании карт памяти со скоростью чтения 100 МБ/с (а именно такой производительностью и характеризуются SanDisk for Nintendo Switch) длительность загрузки игр увеличивается не более чем на 14%. Например, в случае с достаточно тяжелой Legend of Zelda: Breath of the Wild разница составляет всего 5 секунд максимум с учетом того, что на загрузку каждой локации уходит около 30 секунд. При этом microSD-карты оказываются примерно на 6% быстрее по сравнению с фирменными картриджами, так что при прочих равных вы не заметите какой-либо разницы в длительности загрузки.

Да и в надежности подобного решения не приходится сомневаться. Традиционно продукция SanDisk проходит самые суровые испытания на способность противостоять факторам внешней среды и техногенным воздействиям, и линейка microSD-карт для Nintendo Switch не является исключением. Флеш-карты серии выдерживают падение с высоты до 5 метров на бетонный пол, сохраняют работоспособность даже спустя 72 часа пребывания в пресной или соленой воде на глубине до 1 метра, защищены от воздействия рентгеновского излучения и статических магнитных полей с силой индукции до 5000 Гс, а также будут исправно функционировать при экстремально низких (до -25 C) и экстремально высоких (до +85 C) температурах в течение как минимум 28 часов. Таким образом карты памяти от SanDisk имеют все шансы пережить консоль, ведь не случайно на каждую модель распространяется пожизненная гарантия.


Но как бы ни были хороши microSD-карточки от SanDisk, сама необходимость их приобретения не может не удручать. Тем более что еще в прошлом поколении Nintendo предлагала покупателям два варианта Wii U: Basic с накопителем на 8 ГБ и Premium, получившую внутреннее хранилище на 32 гигабайта. Разумеется, для домашней консоли вопрос дискового пространства не стоял столь же остро, ведь к Wii U можно было подключить внешний винчестер емкостью до 2 терабайт, однако сам факт выбора позволял надеяться на то, что в текущем поколении нам предложат несколько консолей в разной ценовой категории скажем, с 32, 64 и 128 ГБ памяти на борту. Но чуда не произошло, и оно уже вряд ли произойдет, особенно если учесть, что Nintendo до сих пор не решила проблему с джойконами.

Впрочем, давайте завершим этот материал на мажорной ноте, ведь в рамках конференции Super Mario Bros. 35th Anniversary Direct компания Nintendo сделала два весьма интересных анонса. Первый из них скорый выход на Nintendo Switch Super Mario 3D World. Порт хита с Wii U получит поддержку кооперативной игры по сети (в оригинале был лишь локальный кооператив), новое DLC Bowser's Fury и улучшенную графику. И если последний пункт после Super Mario 3D All-Stars вызывает лишь скептическую ухмылку, то в качестве дополнительного контента сомневаться не приходится (все же на талантливых геймдизайнерах Nintendo никогда не экономила), да и возможность поиграть с друзьями в онлайне определенно стоит того, чтобы приобрести данную игру. Релиз состоится уже 12 февраля 2020 года.


Второй анонс выглядит еще интереснее и в то же время вызывает недоумение: почему до такого никто не додумался раньше? Речь идет, конечно же, о Mario Kart Live: Home Circuit AR-гонке для Nintendo Switch. В комплекте с игрой будет поставляться миниатюрная радиоуправляемая машинка, в которую встроена камера, передающая изображение на экран консоли. Switch же, в свою очередь, будет создавать дополненную реальность в режиме реального времени, добавляя к транслируемому изображению разметку трассы, виртуальных соперников и разнообразные бонусы. При этом игра поддерживает локальный мультиплеер на четверых игроков, благодаря чему способна стать отличным семейным развлечением, а может, чем Боузер не шутит, и совершить очередную революцию в жанре! Релиз Mario Kart Live: Home Circuit состоится уже 16 октября.

Подробнее..

Эмуляторы игровых консолей правовые аспекты разработки и использования

22.10.2020 16:15:14 | Автор: admin

Давным-давно в далекой галактике разработчики видеоигр концентрировали свои усилия на увлекательном геймплее, не боялись экспериментировать, придумывая новые фичи и даже целые жанры, и стремились создавать не просто коммерческие продукты, но целостные, гармоничные произведения искусства, каждое из которых было в своем роде уникальным. Увы, золотой век игровой индустрии давно прошел: сегодня даже иные AAA-проекты больше всего напоминают онлайн-казино в красивой обертке, предлагающие целый букет аддиктивных механик и не способные удивить ничем, кроме цен во внутриигровом магазине.

К счастью, благодаря эмуляторам игровых консолей мы с вами можем вернуться в те замечательные времена, когда балом правили творцы, а не эффективные менеджеры, а игры стремились развлечь игрока и приносили подлинную радость. Но насколько законно использование подобных программ и не является ли это формой пиратства? Попробуем разобраться вместе.

От IBM System/360 до iNES


Поскольку все начинается с идеи, можно сказать, что появлением эмуляторов мы обязаны корпорации IBM, являющейся главным трендсеттером в мире информационных технологий. Выпуск в далеком 1964 году мейнфреймов серии IBM System/360 ознаменовал наступление новой эры, ведь именно в этих ЭВМ впервые была очерчена четкая граница между архитектурой и реализацией, что стало возможным благодаря использованию микрокода, который обеспечивал взаимодействие между центральным процессором и программным обеспечением.


Мейнфрейм IBM System/360

Новый уровень абстракции позволял использовать идентичный софт на всех устройствах серии (за исключением нескольких узкоспециализированных модификаций), начиная от бюджетных и заканчивая высокопроизводительными решениями, превосходящими по быстродействию модели начального уровня практически в 50 раз, что открывало дополнительные возможности для конечного потребителя. Теперь компания могла приобретать оборудование, отвечающее ее текущим потребностям, и переходить по мере роста на более мощные платформы без необходимости модифицировать существующее ПО, что помогало значительно снизить финансовые и временные затраты на модернизацию IT-инфраструктуры.

С легкой руки IBM использование программных и/или аппаратных средств, предназначенных для копирования функций одной вычислительной системы (гостевой) на другую (хост), стали называть эмуляцией. Изобретение эмуляции определило генеральный вектор развития всей компьютерной индустрии на долгие годы вперед, а впоследствии принесло и немало радости поклонникам видеоигр, ведь по гамбургскому счету именно благодаря инновациям IBM сегодня мы с вами можем вернуться в прошлое и насладиться любимыми игрушками, вышедшими несколько десятков лет назад.


Интерес к созданию эмуляторов игровых систем появился в сообществе разработчиков в 90-х годах прошлого века, когда производительность персональных компьютеров достигла достаточного уровня, чтобы воспроизводить поведение консолей с приемлемой скоростью. Большой вклад в развитие данного направления внес наш с вами бывший соотечественник, уроженец Перми, Марат Файзуллин, более известный в сети под ником fms, эмигрировавший в США в 1992 году. Будущий обладатель докторской степени по информатике от Мэрилендского университета в Колледж-Парке, впоследствии устроившийся в компанию Intel на позицию Senior Software Engineer, стал широко известен среди поклонников видеоигр благодаря разработке эмулятора платформы MSX (Machines with Software eXchangeability) fMSX, первая версия которого увидела свет в 1993 году, а также благодаря проектам Virtual Game Boy (VGB, 1995 год) и Virtual Game Boy Advance (VGBA), предназначенным для запуска игр, выпущенных на одноименных портативных консолях Nintendo, и разработке одного из самых первых (и наиболее удачных) эмуляторов Nintendo Entertainment System iNES, релиз которого состоялся в 1996 году.


Перечисленные проекты продолжают развиваться по сей день и доступны практически на всех актуальных платформах. А код эмуляции восьмиразрядного процессора MOS Technology 6502, написанный Файзуллиным, оказался настолько удачным, что впоследствии использовался при разработке xNES, созданного Николасом Хамелом, FreeNES от Самуэля Бронсона, NES and PCEngine emulator от Bero и во многих других проектах.

Первый Bleem! комом


Хотя, по понятным причинам, именно консоли Nintendo пользовались особой любовью среди разработчиков эмуляторов, первое судебное разбирательство в данной сфере инициировала вовсе не большая N, а Sony, подавшая в 2000 году иск против Connectix Corporation, автора Bleem! эмулятора игровой системы PlayStation.


Боксовое издание эмулятора Bleem! для Windows 95/98

С учетом того, что весной этого же года в Японии состоялась премьера PlayStation 2, а осенью консоль стала продаваться в США и Евросоюзе, подобный шаг выглядит, мягко говоря, странно. Тем не менее у Sony были три вполне веских повода для судебного разбирательства:

  • Bleem! оказался действительно быстрым

Bleem! был написан на ассемблере и, в отличие от многих других эмуляторов того времени, использующих исключительно вычислительные мощности CPU, умел работать с графическими ускорителями, что позволяло играть в эксклюзивы Sony даже на относительно слабых машинах. Для японского гиганта это могло стать серьезной проблемой, ведь 7 июня 2000 года, на закате поколения, свет увидела обновленная версия PlayStation PSone, а доступный широкому кругу потребителей эмулятор мог негативно отразиться на ее продажах.

  • Эмулятор работал на Sega Dreamcast

Проект Bleemcast! позволял запускать игры с первой PlayStation на консоли прямого конкурента Sega Dreamcast. Для этого Connectix Corporation воспользовалась уязвимостью в стандарте MIL-CD (Music Interactive Live CD), созданном Sega для воспроизведения на домашней консоли мультимедийных дисков. Причем Bleemcast! не просто эмулировал приставку от Sony, а существенно улучшал графику в запускаемых играх, увеличивая разрешение рендера до 640 480 пикселей, то есть ровно в два раза (на PS1 игры работали в разрешении 320 240), добавляя сглаживание и билинейную фильтрацию текстур.


Обложка CD-ROM с Bleem! для игровой консоли Sega Dreamcast

  • Bleem! являлся коммерческим продуктом

Connectix Corporation разработала Bleem! отнюдь не из альтруистических соображений и не ради пожертвований от благодарных фанатов: и оригинальный эмулятор, и Bleemcast! продавались на физических носителях. Поскольку имело место извлечение прибыли, это позволило Sony инициировать судебное разбирательство.

И как ни странно, японский гигант проиграл по всем фронтам, а данный процесс создал весьма важный судебный прецедент. По его итогам суд принял решение о том, что само по себе создание эмуляторов и даже их коммерческая реализация не нарушают Бернскую конвенцию (основное международное соглашение в области авторского права) и не противоречат местному законодательству. Но лишь в том случае, если был написан оригинальный код и все сведения об архитектуре, необходимые для разработки, получены методом реверс-инжиниринга, а не из внутренней документации платформодержателя, попавшей в открытый доступ в результате утечек или похищенной умышленно.

Тем не менее для самой Connectix Corporation победа оказалась пирровой. За время судебных разбирательств дело прошло через несколько инстанций, и хотя в итоге решение было вынесено в пользу разработчиков Bleem!, небольшая компания попросту не смогла справиться с огромными издержками. Ситуацию осложнило и прекращение выпуска Dreamcast на территории Северной Америки, о чем Sega объявила уже в 2001 году, так что вся работа над Bleemcast! (а в конечном счете разработчикам пришлось адаптировать эмулятор под каждую конкретную игру) оказалась бессмысленной.


Обложка Bleemcast! для Tekken 3

В результате в ноябре 2001 года Connectix Corporation объявила о закрытии Bleem!.. На официальном сайте проекта появилась заставка, изображающая надгробный камень с названием эмулятора и рыдающего над ним ежика Соника, сжимающего в руке поникший цветок (отсылка к консоли Sega, на успех которой разработчики рассчитывали больше всего).


Покойся с миром, Bleem!..

Сказ о том, как читеры засудили Nintendo


Можно сколько угодно спорить, кто прав, а кто виноват в истории с Bleem!, однако нельзя отрицать огромное значение данного инцидента. Во многом именно судебное противостояние Sony и Connectix Corporation отбило у крупных компаний всякое желание судиться с разработчиками эмуляторов игровых систем. В частности, данное мнение разделяет Пьер Бурдон, один из создателей Dolphin эмулятора Wii и GameCube с открытым исходным кодом.

Напомним, что 3 мая 2003 года свет увидела The Legend of Zelda: Ocarina of Time для GameCube, и Dolphin смог запустить эту игру спустя всего неделю после релиза. И пусть это была не новая часть серии, а лишь порт с Nintendo64, утечка лучшей видеоигры за всю историю индустрии, и по сей день имеющей самый высокий балл на Metacritic среди всех ранжируемых проектов, не могла укрыться от неусыпного взора юристов большой N. Тем более что при запуске на эмуляторе игра выглядела значительно лучше, чем на оригинальной консоли.


The Legend of Zelda: Ocarina of Time

Однако Nintendo попросту не за что было уцепиться. Исходный код Dolphin изначально был доступен для всестороннего анализа, и ни одна его строчка не подпадала ни под закон об авторском праве, ни под действие собственных лицензионных соглашений компании о неразглашении технических данных, составляющих коммерческую тайну. Именно прозрачность позволила Dolphin избежать печальной участи.

Другой скользкий момент, касающийся как разработки, так и использования эмуляторов, заключается в том, что для нормального функционирования ряда таких программ требуется дамп BIOS консоли. В одних случаях оригинальная микропрограмма позволяет повысить точность эмуляции, избавиться от графических артефактов и иных ошибок, в других же без ее наличия запуск игр становится вовсе невозможным. Но насколько законными являются манипуляции с BIOS? Ответ на этот вопрос был дан еще в 1992 году в ходе судебного разбирательства между Lewis Galoob Toys и Nintendo of America, хотя предметом спора были отнюдь не эмуляторы, а, говоря современным языком, хардварные читы.

В начале 90-х компания Codemasters, ныне известная как разработчик автомобильных симуляторов DiRT, GRID и F1, заказала у Lewis Galoob Toys производство особых устройств для Nintendo Entertainment System, получивших название Game Genie. Впоследствии аналогичные девайсы были созданы для SNES, Game Boy, а также Sega Genesis.


Game Genie устанавливалось в слот игровой консоли, тогда как картридж подключался к разъему на самом устройстве, распиновка которого повторяла оригинальную. После запуска приставки на экране появлялось специальное меню, в котором игрок мог ввести код в формате адрес-значение, изменяющий те или иные данные, поступающие из ПЗУ картриджа в RAM игровой системы, и таким образом модифицировать параметры игры. В комплекте с девайсом поставлялся справочник, содержащий список известных кодов с описанием того, на что они влияют. Game Genie позволяло сделать персонажа бессмертным, открывать бонусные уровни без прохождения основной игры, накручивать необходимые ресурсы в общем, делать все то же самое, что и современные читы.


Game Genie, подключенное к Super Nintendo Entertainment System

Самое забавное, что судопроизводство началось задом наперед. В мае 1990 года именно Galoob инициировала процесс, целью которого было получение официального заключения о том, что Game Genie не нарушает авторские права Nintendo, а также постановления суда, которое бы запрещало японской компании умышленно модифицировать NES таким образом, чтобы сделать чит-приставку и консоль несовместимыми.

В ответ Nintendo подала встречный иск с весьма интересной формулировкой. Юристы компании утверждали, что творение Galoob нарушает авторские права Nintendo на разработанные игры, так как Game Genie создает производное произведение (игру с измененным кодом) без разрешения правообладателя. Не будет преувеличением сказать, что в тот год над всеми эмуляторами нависла реальная угроза, ведь в случае победы Nintendo был бы создан серьезный прецедент, благодаря которому платформодержатели получили бы реальный инструмент давления на разработчиков такого ПО. Не говоря уже о том, что под аналогичную формулировку подпадает и деятельность моддеров.

Но американская судебная система оказалась на стороне геймеров. Сказать спасибо за наше с вами светлое настоящее стоит окружному судье Ферн Мейерсон Смит (Fern Meyerson Smith), которая справедливо заключила, что после приобретения игровой консоли и картриджа покупатель имеет право экспериментировать с продукцией Nintendo так, как сочтет нужным, в том числе модифицируя программный код и создавая его новые варианты для личного использования. Пока речь не идет о распространении полученных таким образом копий программного обеспечения (оригинальных или модифицированных), ничего противозаконного в подобных деяниях нет.


Ферн Мейерсон Смит именно ее должны благодарить все поклонники ретроигр

Nintendo попробовала опротестовать это решение в Апелляционном суде девятого округа, однако апелляция была отклонена. В результате большая N не только проиграла, но и лишилась более 15 миллионов долларов. Все дело в том, что на первых порах японскому гиганту удалось добиться запрета на реализацию Game Geniе вплоть до завершения разбирательства, однако для этого компании пришлось внести залог в размере 15 миллионов долларов, дабы гарантировать, что в случае выигрыша Galoob получит компенсацию убытков. Поскольку тяжба продлилась более года, в декабре 1991-го залог в полном объеме присудили Galoob, также обязав Nintendo погасить все судебные издержки производителя Game Geniе.

Три аргумента в пользу эмуляторов


Решение Ферн Мейерсон Смит легализовало целый ряд важных аспектов, связанных с разработкой и использованием эмуляторов. Теперь любой обладатель консоли имеет законное право на создание дампа BIOS купленного им устройства, чтобы в дальнейшем использовать его для изучения архитектуры системы или запуска игр. Во многом именно благодаря данному прецеденту сегодня мы с вами можем поиграть в любую из тысяч игр прошлых лет для ныне мертвых платформ, насладившись всеми преимуществами, которые обеспечивают современные эмуляторы консолей. Среди всего их многообразия можно выделить три основных.

Преимущество 1: оригинальный пользовательский опыт


Не секрет, что издатели в попытке выжать максимум прибыли из принадлежащих им IP частенько халтурят. И справедливости ради надо сказать, что ситуация с Super Mario 3D All-Stars является отнюдь не самой вопиющей. Разумеется, за такую цену, да еще и в честь столь знаменательной даты, как 35-летие Марио, хотелось бы увидеть полноценные ремейки классических хитов, а не ленивый ретекстур, чем на самом деле и является этот своеобразный подарочек от большой N. Впрочем, данный сборник все же имеет одно весьма важное преимущество: игры, в него вошедшие, исправно работают.

Чего не скажешь о Silent Hill 4: The Room, релиз которой состоялся 2 октября в сервисе цифровой дистрибуции GoG. Konami захотела подзаработать на похороненной ею же франшизе, решив продать фанатам тот самый порт 16-летней давности с вырезанной DRM и адаптацией под современные системы (которой, кстати, занимались сами ребята из Good old Games). По меркам 2004 года порт Silent Hill 4 был не так уж и плох: по крайней мере, в нем отсутствовали фатальные недостатки вроде проблем с картинкой или производительностьюм, чем грешили те же Capcom. Однако по пути на персональные компьютеры Silent Hill 4 растеряла немало скриптов, из-за чего ПК-игроки лишились множества весьма атмосферных моментов. В первую очередь это касается разнообразных проявлений потусторонней активности в квартире главного героя, которые попросту исчезли из PC-версии игры.


Это проявление полтергейста в квартире Генри Таунсенда так и осталось эксклюзивом PlayStation 2

В этом плане Konami отличается завидным постоянством и толерантным отношением ко всем платформам. Достаточно вспомнить Silent Hill HD Collection, вышедший в 2012 году для PlayStation 3 и Xbox 360. Поскольку исходный код оригинальных игр был утрачен, Konami пришлось работать с прекомпилированными дистрибутивами со всеми вытекающими последствиями: Silent Hill 2 и 3, вошедшие в сборник, растеряли львиную долю своего очарования и обзавелись новыми багами. Так, например, из второй части куда-то исчез туман, не только работавший на атмосферу, но и скрывавший границы карты и текстуры низкого разрешения, что полностью сломало все погружение в мрачный мир культового ужастика. На скриншоте ниже слева приведены кадры из ремастера, а справа скриншоты из оригинальной версии игры.


Нет, Мария, Its not okay. Its disgusting!

Поэтому всем, кто хотел бы поностальгировать или впервые приобщиться к, пожалуй, лучшей игровой хоррор-серии, можно посоветовать воспользоваться PCSX2, дабы в полной мере прочувствовать изначальный замысел авторов, вместо того чтобы отдавать деньги Konami за откровенную халтуру.

Преимущество 2: старые игры в новом качестве


Наиболее очевидное преимущество, которое обеспечивает использование эмуляторов, возможность поиграть в классические игры на широкоформатном мониторе в разрешении Full HD или выше с полноэкранным сглаживанием, анизотропной фильтрацией текстур, объемным звуком, возможностью сохранения в любой момент и другими атрибутами современного гейминга. Ведь как бы ни были хороши классические тайтлы, сегодня играть в большинство из них без изменений уже физически больно, особенно когда речь заходит о раннем 3D, благо качественный пиксель-арт практически не подвластен времени.

С помощью эмуляторов можно прокачать даже относительно свежие релизы. Взять ту же The Legend of Zelda: Breath of the Wild. Будучи запущенной на CEMU, игра выглядит куда лучше, нежели на Switch, а если вы являетесь обладателем достаточно мощного ПК, то сможете играть со стабильными 60 FPS, что для гибридной консоли является недостижимой планкой.


The Legend of Zelda: Breath of the Wild на Cemu выглядит просто потрясающе

Если же вы хотите попробовать нечто действительно интересное, рекомендуем обратить внимание на проект 3DSen. Необычный эмулятор NES вышел летом этого года в раннем доступе в Steam. Главной его фишкой является конвертация 2D-графики в 3D (или, если быть совсем точным, в 2,5D) на лету. На данный момент заявлена поддержка 70 тайтлов.


Micro Mages, запущенная на 3DSen

Преимущество 3: больше свободного места в доме


Объем игрового дистрибутива для NES не превышал 40 КБ это в несколько десятков раз меньше объема данного материала, сохраненного в формате docx. При этом размеры картриджа с одной игрой составляли 13,3 12 2 сантиметра. Всего для NES было выпущено 715 игр. Разумеется, отнюдь не каждая из них достойна внимания, а многие проекты, как бы хороши они ни были, могут не понравиться именно вам. Но даже если вы пожелаете обзавестись парой сотен таких игрушек, для их хранения вам потребуется полка весьма внушительных размеров. Учитывая же, что NES лишь одна из множества игровых систем, выпущенных за последние 30 лет, под коллекцию игр для консолей от второго до восьмого поколения вам придется арендовать небольшой склад или выделить целый этаж загородного дома. Именно так и пришлось поступить Антонио Монтейро, коллекционеру из Ричмонда (штат Техас).


Антонио Монтейро и его коллекция видеоигр

Антонио является обладателем самой большой коллекции видеоигр по версии Книги рекордов Гиннесса, включающей 20 139 тайтлов. На точный подсчет всех картриджей, CD, DVD и Blue-Ray ушло в общей сложности 8 дней чистого времени. Ну а сколько места занимает все это добро, вы можете оценить самостоятельно.


Если же вы не испытываете страсти к коллекционированию, то эмуляторы помогут вам сэкономить немало свободного пространства и денежных средств. Ведь, чтобы на долгие годы обеспечить сохранность коллекции, подобной той, что собрал Антонио, вам придется позаботиться и о поддержании постоянного микроклимата в помещении, что также чревато серьезными капитальными и операционными затратами.

Вооружившись же набором эмуляторов вместо самих консолей и цифровыми копиями дистрибутивов, вы избавите себя от множества проблем, связанных с размещением и обслуживанием такой коллекции, благо современные накопители данных способны обеспечить куда большую плотность хранения, нежели архаичные картриджи или оптические диски. Возьмем, для примера, внешний винчестер WD_BLACK P10, разработанный специально для геймеров.


Наиболее вместительная модель емкостью 5 ТБ имеет габаритные размеры всего 11,8 8,8 2 см, то есть оказывается даже меньше картриджа для Nintendo Entertainment System. При этом такой диск способен вместить 125 миллионов копий игр для NES (почти в 175 раз больше, чем в принципе вышло), более 7 тысяч игр для Sony PlayStation (то есть практически все выпущенные проекты) или 1200 игр для PlayStation 2.

WD_BLACK P10 поддерживает высокоскоростной интерфейс USB 3.1 Gen 1, а его производительность достигает показателей 140 МБ/с, что сопоставимо со скоростью внутренних HDD. Помимо этого, данная модель адаптирована для многочасовой работы под нагрузкой, что стало возможным в первую очередь благодаря продуманной системе пассивного охлаждения: крышка корпуса выполнена из металла и играет роль радиатора, эффективно отводя тепло от 2,5-дюймового винчестера.

Если же возможностей P10 вам покажется недостаточно, рекомендуем обратить внимание на WD_BLACK D10.


Если вновь проводить параллели с картриджем NES, то данная модель будет немного длиннее (19,5 см против 13,3) и вдвое толще (4,4 см против 2), что, впрочем, с лихвой компенсируется ее емкостью и производительностью. WD_BLACK D10 способен вместить 8 ТБ данных (200 игр времен NES, 11,5 тысяч игр для PS1 или 1900 игр для PS2), а его производительность достигает уже 250 МБ/с, то есть идентична топовым игровым HDD. Поскольку во вместительном корпусе WD_BLACK D10 нашлось место для кулера, данный винчестер можно эксплуатировать даже в режиме 24/7, не опасаясь его перегрева. В качестве же приятного бонуса стоит упомянуть наличие на боковой панели пары портов USB Type-A мощностью 7,5 Вт, за счет чего диск можно использовать в качестве док-станции для зарядки беспроводной периферии (например, мышки, геймпада или гарнитуры). Благодаря всему перечисленному такой накопитель способен в полной мере удовлетворить потребности не только поклонника ретроигр, но и любителя современных крупнобюджетных проектов.
Подробнее..

Почему в EBCDIC буквы идут не подряд?

07.10.2020 20:16:52 | Автор: admin

Стандарт ASCII был принят в 1963, и сейчас вряд ли кто-нибудь использует кодировку, первые 128 символов которой отличались бы от ASCII. Тем не менее, до конца прошлого века активно использовалась EBCDIC стандартная кодировка для мейнфреймов IBM и их советских клонов ЕС ЭВМ. EBCDIC остаётся основной кодировкой в z/OS стандартной ОС для современных мейнфреймов IBM Z.

То, что сразу бросается в глаза при взгляде на EBCDIC то, что буквы идут не подряд: между I и J и между R и S остались неиспользованные позиции (на ЕС ЭВМ по этим промежуткам распределили символы кириллицы). Кому могло придти в голову кодировать буквы с неравными пропусками между соседними буквами?

Само название EBCDIC ("Extended BCDIC") намекает на то, что эта кодировка в отличие от ASCII создавалась не на пустом месте, а на основе шестибитной кодировки BCDIC, которая использовалась начиная с IBM 704 (1954):

Непосредственной обратной совместимости нет: удобной чертой BCDIC, утраченной при переходе к EBCDIC, было то, что цифрам 0-9 соответствуют коды 0-9. Тем не менее, разрывы в семь кодов между I и J и в восемь кодов между R и S в BCDIC уже были. Откуда же они взялись?

История (E)BCDIC начинается одновременно с историей IBM задолго до электронных компьютеров. IBM образовалась в результате слияния четырёх компаний, из которых самой технологически продвинутой была "Tabulating Machine Company", основанная в 1896 Германом Холлеритом изобретателем табулятора. Первые табуляторы просто подсчитывали число перфокарт, пробитых в определённом месте; но в 1905 Холлерит начал производство десятичных табуляторов. Каждая карта для десятичного табулятора состояла из полей произвольной длины, и числа, записанные в этих полях в привычной десятичной форме, суммировались по всей колоде. Разбивка карты на поля задавалась соединением проводов на коммутационной панели табулятора. Например, на этой перфокарте Холлерита, хранящейся в Библиотеке Конгресса, очевидным образом выбито число 23456789012345678, неизвестно как разделённое на поля:

Самые внимательные могли заметить, что на карте Холлерита 12 рядов для отверстий, хотя для цифр достаточно десяти; а в BCDIC для каждого значения старших двух битов используются только 12 кодов из 16 возможных.

Конечно же, это не случайное совпадение. Изначально Холлерит предназначал дополнительные ряды для "специальных отметок", которые не суммировались, а просто подсчитывались как в самых первых табуляторах. (Сегодня мы бы назвали их "битовыми полями".) Кроме того, среди "специальных отметок" можно было задать group indicators: если при табуляции требовались не только окончательные суммы, но и промежуточные, то табулятор останавливался, когда обнаруживал изменение любого из group indicators, и оператор должен был переписать промежуточные суммы с цифровых табло на бумагу, обнулить табло, и возобновить табуляцию. Например, при подсчёте бухгалтерских балансов группа карт могла соответствовать одной дате или одному контрагенту.

К 1920, когда Холлерит уже ушёл на пенсию, вошли в употребление "печатающие табуляторы", которые подключались к телетайпу и могли сами печатать промежуточные суммы, не требуя вмешательства оператора. Сложность теперь заключалась в том, чтобы определить, к чему относится каждое из напечатанных чисел. В 1931 IBM решила при помощи "специальных отметок" обозначать буквы: отметка в 12-том ряду обозначала букву от A до I, в 11-том от J до R, в нулевом от S до Z. Новый "алфавитный табулятор" мог печатать название каждой группы карт вместе с промежуточными суммами; при этом непробитый столбец превращался в пробел между символами. Заметьте, что S обозначается комбинацией отверстий 0+2, а комбинация 0+1 изначально не использовалась из опасения, что два отверстия рядом в одном столбце могут вызвать механические проблемы в считывателе.

Теперь на таблицу BCDIC можно посмотреть немного под другим углом:

За исключением того, что 0 и пробел переставлены местами, старшие два бита определяют "специальную отметку", которую с 1931 пробивали в перфокарте для соответствующего символа; а младшие четыре бита определяют цифру, пробиваемую в основной части карты. Поддержка символов & - / добавилась в табуляторы IBM в 1930-х, и кодировка этих символов в BCDIC соответствует пробиваемым для них комбинациям отверстий. Когда понадобилась поддержка ещё большего числа символов, то в качестве дополнительной "специальной отметки" стали пробивать ряд 8 таким образом, в одном столбце могло быть до трёх отверстий. Такой формат перфокарт сохранился практически неизменным до конца века. В СССР оставили IBM-овские кодировки латиницы и пунктуации, а для букв кириллицы пробивали сразу по нескольку "специальных отметок" в рядах 12, 11, 0 не ограничиваясь тремя отверстиями в одном столбце.

Когда создавался компьютер IBM 704, то над кодировкой символов для него долго не думали: взяли кодировку, уже используемую тогда в перфокартах, и лишь 0 "поставили на место". В 1964, при переходе от BCDIC к EBCDIC, младшие четыре бита каждого символа оставили без изменений, хотя немного перетасовали старшие биты. Таким образом формат перфокарт, выбранный Холлеритом в начале прошлого века, оказал влияние на архитектуру всех компьютеров IBM, до IBM Z включительно.

Подробнее..

Графические войны 1 лагающее пиксельное XX столетие

08.10.2020 00:10:19 | Автор: admin

50 лет истории видеокарт (1970-2020): Полная история видеокарт и их прародителей


Часть 1


Компьютерная графика. Услышав эти слова, мы представляем поражающие воображение спецэффекты из крупных блокбастеров, красивейшие модели персонажей из ААА-игр, и всё, что связано с визуальной красотой современных технологий. Но компьютерная графика, как и любой технологический аспект, развивалась не одно десятилетие, преодолев путь от отображения нескольких символов на монохромном дисплее до поражающих воображение пейзажей и героев, с каждым годом всё сложнее отличимых от реальности. Сегодня мы начнем рассказ о том, как начиналась история компьютерной графики, вспомним, как появился термин видеокарта и сокращение GPU, и какие технические рубежи год за годом преодолевали лидеры рынка, в стремлении покорения новой аудитории.

image

Предисловие эпохи. Зарождение компьютеров (1940-е/1950-е)


Эпоха компьютерных технологий у многих вызывает ассоциации с началом эпохи персональных компьютеров в начале 80-х, но на самом деле первые компьютеры появились гораздо раньше. Первые разработки таких машин начались еще до Второй Мировой войны, а прототипы, отдаленно напоминающие будущие ПК, увидели свет уже в 1947 году. Первым таким устройством стал IBM 610 экспериментальный компьютер, разработанный Джоном Ленцем из Уотсоновской лаборатории при Колумбийском университете. Он первым в истории получил гордое название Персонального автоматического компьютера (Personal Automatic Computer, PAC), хотя оно и было слегка преувеличенным машина стоила $55 тысяч, и было изготовлено всего 150 экземпляров.

Первые впечатляющие визуальные системы появлялись в те же годы. Уже в 1951 году IBM при участии General Electric и ряда военных подрядчиков разработала летный симулятор для нужд армии. В нем использовалась технология трехмерной виртуализации пилот, находившийся за тренажером, видел проекцию кабины и мог действовать так, как это происходило бы за штурвалом настоящего самолета. Позже графический прототип использовала компания Evans & Sutherland, создавшая полноценный тренажер для пилотов CT5, работающий на базе массива компьютеров DEC PDP-11. Только задумайтесь на дворе всё еще 50-е, а у нас уже тогда была трехмерная графика!

1971-1972. Magnavox Odyssey и PONG


Бум полупроводниковых технологий и производства микросхем полностью поменял расклад сил на рынке, прежде принадлежавшем громоздким аналоговым компьютерам, занимавшим целые залы. Отказавшись от вакуумных ламп и перфокарт, индустрия шагнула в эпоху развлечений для всей семьи, познакомив западный мир с домашними игровыми видеосистемами, прабабушками современных консолей.

Первопроходцем видеоигровых развлечений стало устройство под названием Odyssey Magnavox, первая официально выпущенная игровая система. У Одиссеи были диковинные по современным стандартам контроллеры, а вся графическая система выводила на экран телевизора только линию и две точки, которыми управляли игроки. Создатели устройства подошли к делу с фантазией, и в комплекте с консолью шли специальные цветные накладки на экран, способные раскрасить игровые миры нескольких проектов, идущих в комплекте с Odyssey. Всего для устройства было выпущено 28 игр, среди которых был простой на первый взгляд пинг-понг, вдохновивший энтузиастов из молодой компании Atari на выпуск игрового автомата Pong с идентичной игрой. Именно Pong стал началом магии игровых автоматов, которая, к слову, полностью захватила и Японию и западный мир к началу 80-х.

Несмотря на очевидную простоту, Magnavox Odyssey использовал настоящие картриджи правда, во многом лишь для эффекта. Никаких чипов памяти в них не было картриджи служили набором перемычек, волшебными образом превращающих одно расположение линии с точками в другое, тем самым меняя игру. До полноценного видеочипа примитивной приставке было далеко, но популярность Magnavox Odyssey показала однозначный интерес публики, и многие компании взялись за разработку своих собственных устройств, чувствуя потенциальную прибыль.

1976-1977. Fairchild Channel F и Atari 2600


Ждать первой серьезной схватки за новорожденный игровой рынок пришлось недолго. В 1975 году стремительно устаревающая Magnavox Odyssey исчезла с прилавков, а на её место за титул лучшей консоли нового поколения бились сразу два устройства Channel F от компании Fairchild и Atari VCS от той самой компании, что подарила миру Pong.

image

Несмотря на то, что разработка консолей шла практически одновременно, Atari не успевала и Fairchild первой выпустила своё устройство под названием Fairchild Video Entertainment System (VES).

Консоль от Fairchild появилась на полках магазинов в ноябре 1976 года, и стала настоящей кладезю технических преимуществ. Вместо невнятных контроллеров Odyssey появились удобные, бутафорские картриджи сменились на настоящие (внутри которых стояли ROM-чипы с данными игр), а внутри консоли был установлен динамик, воспроизводящий звуки и музыку из запущенной игры. Приставка умела отрисовывать изображение с использованием 8-цветовой палитры (в режиме черно-белой строки либо цветной) в разрешении 102х54 пикселя. Отдельно стоит заметить, что процессор Fairchild F8, установленный в системе VES, был разработан Робертом Нойсом, который в 1968 году основал небольшую, но перспективную фирму Intel.

Atari была на грани отчаяния проект Stella, основа будущей консоли, сильно отставал по темпам разработки, а рынок, как известно, ждать не будет. Множество вещей, казавшихся инновационными с выходом Fairchild VES, вот-вот должны были стать неотъемлемой чертой всех будущих консолей. Понимая, что на кон нужно ставить всё, основатель компании Atari Нолан Бушнелл подписывает соглашение с Warner Communications, продавая своё детище за $28 миллионов с условием, что консоль Atari выйдет на рынок в кратчайшие сроки.

Warner не подвели, и работа над приставкой закипела с новой силой. Для упрощения логики и удешевления производства к разработке привлекли знаменитого инженера Джея Майнера, который переработал чипы видеовывода и обработки звука TIA (Television Interface Adaptor) в единый элемент, что и стало последним штрихом перед готовностью консоли. Чтобы позлить Fairchild, маркетологи Atari назвали консоль VCS (Video Computer System), вынудив конкурента переименоваться в Channel F.

Но это не слишком помогло Channel F успешно конкурировать с новинкой хотя на этапе релиза консоли в 1977 году было готово всего 9 игр, разработчики достаточно быстро осознали наступление новой технологической эры, и принялись использовать мощности приставки на полную. Atari VSC (позже ставшая Atari 2600), была первой приставкой, в основе которой лежал комплексный чип, не только обрабатывающий видео и звуковую дорожку, но и команды, получаемые с джойстика. Скромные продажи, поначалу смутившие Warner, сменились феноменальным успехом после решения лицензировать аркаду Space Invaders авторства японской компании Taito. Картриджи, поначалу ограниченные 4 Кб памяти, со временем доросли до 32 Кб, а число игр исчислялось сотнями.

Секрет успеха Atari крылся в максимально упрощенной логике устройства, возможности разработчиков гибко программировать игры с использованием ресурсов 2600 (например, иметь возможности менять цвет спрайта во время отрисовки), а также внешняя притягательность и удобные контроллеры, названные джойстиками (от буквального joystick палка счастья). Поэтому, если вы не знали, откуда пришел этот термин, можете поблагодарить за него разработчиков Atari. Как и за главный образ всего ретро-гейминга забавного пришельца из Space Invaders.

После того, как успех Atari 2600 вышел за рамки всех прогнозируемых величин, Fairchild покинула рынок видеоигр, решив, что направление скоро сойдет на нет. О подобном решении, скорее всего, в компании жалеют до сих пор.

1981-1986. Эпоха IBM PC.


Несмотря на то, что уже в 1979 году компания Apple представила Apple II, навсегда изменивший образ доступного компьютера, понятие персональный компьютер появилось немногим позже, и принадлежало совсем иной компании. Монументальная IBM, за плечами которой были десятилетия работы с громоздкими мейнфреймами (с шумом бобин и мерцающими лампочками), неожиданно сделала шаг в сторону и создала рынок, которого прежде не существовало.
В 1981 году в продаже появился легендарный IBM PC, появление которого предваряла одна из лучших рекламных кампаний в истории маркетинга. Никого еще не увольняли за покупку IBM гласил тот самый слоган, навсегда вошедший в историю рекламы.

Однако не только слоганы и яркие рекламные вклейки сделали имя персональному компьютеру IBM. Именно для него впервые в истории была разработана сложная графическая система из двух видеоадаптеров Монохромного адаптера дисплея (MDA, Monochrome Display Adapter) и Цветного графического адаптера (CGA, Color Graphics Adapter).

MDA предназначался для набора текста с поддержкой 80 колонок и 25 строк на экране для набора ASCII символов при разрешении 80х20 пикселей. Адаптер использовал 4 Кб видеопамяти, и отображал зеленый текст на черном экране. В таком режиме было легко и удобно работать с командами, документами и другими повседневными задачами бизнес-сектора.
CGA, напротив, можно было назвать прорывным с точки зрения графических возможностей. Адаптер поддерживал 4-битную палитру в разрешении в разрешении 640х200 пикселей, располагал 16 Кб памяти, и лег в основу стандарта компьютерной графики для активно расширяющейся линейки компьютеров IBM PC.

Впрочем, у использования двух разных адаптеров видеовывода были серьезные недостатки. Масса возможных технических проблем, дороговизна устройств и ряд других ограничений подтолкнули энтузиастов к работе над универсальным решением графическим адаптером, способным работать в двух режимах одновременно. Первым таким продуктом на рынке стала Hercules Graphics Card (HGC), разработанная одноименной компанией Hercules в 1984 году.

image
Hercules Graphics Card (HGC)

По легенде основатель компании Hercules Ван Сиваннукул (Van Suwannukul) разработал систему специально для работы над своей докторской диссертацией на родном тайском языке. Стандартный MDA-адаптер IBM не отображал тайский шрифт корректно, что и побудило разработчика приступить к созданию HGC в 1982 году.

Поддержка разрешения 720х348 точек как для текста, так и для графики, а также возможность работы в режимах MDA и CGA, обеспечило адаптеру Hercules долгую жизнь. Наследие компании в виде универсальных стандартов видеовывода HGC и HGC+ использовалось разработчиками IBM-совместимых компьютеров, а позже и ряда других систем вплоть до конца 90-х. Однако мир не стоял на месте, и бурное развитие компьютерной отрасли (как и её графической части) привлекло множество других энтузиастов среди них были четверо мигрантов из Гонконга Хво Юн Хо (Kwak Yuan Ho), Ли Лау (Lee Lau), Френсис Лау (Francis Lau) и Бенни Лау (Benny Lau), основавшие Array Technology Inc, компанию, которую весь мир узнает как ATI Technologies Inc.

1986-1991. Первый бум рынка графических карт. Ранние успехи ATI


После выпуска IBM PC компания IBM недолго оставалась в авангарде развития компьютерных технологий. Уже в 1984 году Стив Джобс представил первый Macintosh с впечатляющим графическим интерфейсом, и для многих стало очевидно, что графические технологии вот-вот сделают настоящий скачок вперед. Но, несмотря на потерю лидерства в отрасли, IBM выгодно отличалась от Apple и других компаний-конкурентов своим видением направления. Философия открытых стандартов, которой придерживалась IBM, открыла двери производству любых совместимых устройств, что и привлекло в сферу многочисленные стартапы своего времени.

В их числе была и молодая компания ATI Technologies. В 1986 году гонконгские специалисты представили свой первый коммерческий продукт OEM Color Emulation Card.

image
Color Emulation Card

Расширив возможности стандартных монохромных контроллеров, инженеры ATI обеспечили вывод трех цветов шрифта на черном экране зеленого, янтарного и белого. Адаптер располагал 16 Кб памяти и зарекомендовал себя в составе компьютеров Commodore. За первый год продаж изделие принесло ATI более $10 миллионов.

Конечно же, это стало лишь первым шагом для ATI следом за расширенным графическим решением с 64 Кб видеопамяти и возможностью работы в трех режимах (MDA, CGA, EGA) на рынок вышла линейка ATI Wonder, с появлением которой прежние стандарты можно было записывать в архаизмы.

Звучит слишком смело? Судите сами адаптеры серии Wonder получили буфер в 256 Кб видеопамяти (в 4 раза больше!), а вместо четырехцветной палитры на экран выводилось 16 цветов при разрешении 640х350. При этом никаких ограничений при работе с различными форматами вывода не было ATI Wonder успешно эмулировала любой из ранних режимов (MDA, CGA, EGA), а, начиная со 2-ой серии, получила поддержку новейшего стандарта Extend EGA.

image
ATi Wonder

Кульминацией развития линейки в 1987 году стала знаменитая ATI EGA Wonder 800, выводившая 16-цветовую палитру уже VGA-формата в невероятно высоком разрешении 800х600. Адаптер продавался в формате более доступной VGA Improved Performance Card (VIP) с ограниченной поддержкой VGA-вывода.

Первый расцвет рынка видеокарт. Инновации ATI, начало конкурентной борьбы
Значительные успехи ATI в развитии коммерческих графических адаптеров привлекли внимание множества других компаний в период с 1986 по 1987 год были основаны и представили первые продукты на рынке адаптеров такие бренды, как Trident, SiS, Tamarack, Realtek, Oak Technology, LSI (G-2 Inc), Hualon, Cornerstone Imaging и Windbond. Помимо новых лиц в выходе на графический рынок заинтересовались и действующие представители Кремниевой долины такие компании, как AMD, Western Digital/Paradise Systems, Intergraph, Cirrus Logic, Texas Instruments, Gemini и Genoa каждая из них так или иначе представила первый графический продукт в том же промежутке времени.

В 1987 году ATI выходит на OEM-рынок уже в качестве компании-поставщика, выпуская серию продуктов Graphics Solution Plus. Эта линейка была рассчитана на работу с 8-битной шиной компьютеров IBM PC/XT на базе платформы Intel 8086/8088. Адаптеры GSP тоже поддерживали форматы вывода MDA, CGA и EGA, но с оригинальным переключением между ними на самой плате. Устройство прекрасно приняли на рынке, и даже схожая модель от Paradise Systems с 256 Кб видеопамяти (у GSP было всего 64 Кб) не помешала Ati пополнить портфолио новым успешным продуктом.

Все следующие годы канадская компания ATI Technologies Inc. оставалась на пике графических инноваций, постоянно опережая конкурентов. Хорошо известная тогда линейка адаптеров Wonder первой на рынке перешла на 16-битный цвет; получила поддержку EVGA (в адаптерах Wonder 480 и Wonder 800+) и SVGA (в Wonder 16). В 1989 году ATI снизила цены на линейку Wonder 16 и добавила разъем VESA для возможности соединять друг с другом два адаптера можно сказать это были первые фантазии на тему связок из нескольких устройств, которые появятся на рынке гораздо позже.

Из-за разрастания рынка с бесчисленным числом форматов и производителей требовалась специальная организация, способная урегулировать их и разработать ключевые стандарты для игроков рынка. В 1988 году усилиями шести ключевых производителей была основана VESA (Video Electronics Standard Association, Ассоциация стандартов видеоэлектроники), взявшая на себя централизацию стандартов и форматов разрешений, а также цветовой палитры графических адаптеров. Первым форматом стал SVGA (800х600 точек), который уже использовался в картах Ati Wonder 800. В дальнейшем их становилось больше, а некоторые (включая HGC и HGC+) использовались на протяжении десятилетий.

image

Технологическое лидерство ATi укрепляла и на заре 90-х. В 1991 году в продажу вышла Wonder XL первый графический адаптер с поддержкой 32 тысяч цветов и поддержкой разрешения 800х600 при частоте обновления в 60 Гц. Подобного удалось добиться благодаря использованию конвертера Sierra RAMDAC. Помимо этого, Wonder XL стала первым адаптером с 1 Мб видеопамяти на борту.

В мае того же года ATI представила Mach8 первый продукт из новой линейки Mach для работы с обработкой простых 2D-операций например, отрисовки линий, заполнения цветом и битмаппинга. Mach8 был доступен для приобретения как в виде чипа (для последующей интеграции например, в бизнес-системы OEM-формата), так и в виде полноценной платы. Сейчас многим покажется странным выпуск отдельного адаптера для таких вещей, но 30 лет назад многие специальные вычисления всё еще лежали на плечах центрального процессора, тогда как графические адаптеры предназначалась для узкого круга задач.

Впрочем, такой уклад вещей сохранялся недолго следом за интересной VGA Stereo F/X, симбиозом графического адаптера и платы Sound Blaster для эмуляции кодека в формате моно налету, лидер индустрии представил продукт для работы как с двухмерной, так и с трехмерной графикой VGA Wonder GT. Объединив возможности Mach8 и Wonder Ati смогли первыми решить проблему необходимости дополнительного адаптера для работы с разными типами задач. Значительному успеху новинок поспособствовал выход популярной ОС Windows 3.0, в которой впервые ставили акценты на широкий круг задач в работе с 2D-графикой. Wonder GT пользовалась спросом и у системных интеграторов, что благотворно сказалось на прибылях компании в 1991 году оборот ATI превысил $100 млн. Будущее обещало быть светлым, но конкуренция на рынке никогда не ослабевала лидеров ожидали новые испытания.

1992-1995. Разработка OpenGL. Второй бум рынка графических карт. Новые рубежи в 2D и 3D
В январе 1992 года, компания Silicon Graphics Inc представила первый мультиплатформенный программный интерфейс OpenGL 1.0, поддерживающий работу как с 2D, так и с 3D-графикой.

image

В основу будущего открытого стандарта легла проприетарная библиотека IRIS GL (Integrated Raster Imaging System Graphical Library, Интегрированная системная библиотека обработки растровой графики). Понимая, что в скором времени множество компаний представят на рынке свои библиотеки подобного рода, в SGI приняли решение сделать OpenGL открытым стандартом, совместимым с любыми платформами на рынке. Популярность такого подхода было трудно переоценить на OpenGL обратил внимание весь рынок.

Изначально Silicon Graphics нацеливалась на профессиональный рынок UNIX-систем, планируя определённые задачи для будущей открытой библиотеки, но благодаря доступности для разработчиков и энтузиастов OpenGL быстро занял место на развивающемся рынке трехмерных игр.

Однако не все крупные игроки рынка приветствовали такой подход SGI. Примерно в то же время компания Microsoft разрабатывала собственную программную библиотеку Direct3D, и совсем не спешила интегрировать поддержку OpenGL в операционную систему Windows.

image

Direct3D открыто раскритиковал и знаменитый автор Doom Джон Кармак, собственноручно портировавший Quake на OpenGL для Windows, подчеркнув преимущества простого и понятного кода открытой библиотеки на фоне сложного и мусорного варианта Microsoft.

image
Джон Кармак

Но позиция Microsoft осталась неизменной, и после выхода Windows 95 компания отказалась лицензировать MCD-драйвер OpenGL, благодаря которому пользователь мог самостоятельно решить, через какую библиотеку запускать приложение или новую игру. В SGI нашли лазейку, выпустив драйвер в формате установщика (ICD, Installable Client Driver), который помимо растеризации OpenGL получил поддержку обработки эффектов освещения.

Ударный рост популярности OpenGL привел к тому, что решение SGI стало популярным и в сегменте рабочих станций, что вынудило Microsoft выделить все возможные ресурсы на создание своей проприетарной библиотеки в кратчайшие сроки. Основу для будущего API предоставила купленная в феврале 1995 года студия RenderMorphics, чья программная библиотека Reality Lab и сформировала основные принципы работы Direct3D.

Второе рождение рынка видеокарт. Волна слияний и поглощений


Но вернемся немного в прошлое. В 1993 году рынок видеокарт переживал второе рождение, и в поле зрения публики попало множество новых перспективных компаний. Одной из них стала NVidia, основанная Дженсеном Хуангом, Кёртисом Прэмом и Крисом Малаховски в январе 1993 года. Хуанг, успевший поработать программным инженером в LSI, давно вынашивал идею создания компании по производству графических адаптеров, а его коллеги из Sun Microsystems как раз успели поработать над графической архитектурой GX. Объединив усилия и собрав 40 тысяч долларов, трое энтузиастов дали начало компании, которой было суждено сыграть ключевую роль в индустрии.

image
Дженсен Хуанг

Впрочем, в те годы заглядывать в будущее никто не решался рынок стремительно менялся, новые проприетарные API и технологии появлялись чуть ли не каждый месяц, и было очевидно, что в бурном круговороте конкуренции выживут далеко не все. Многие из компаний, вступивших в гонку графических вооружений к концу 80-х, были вынуждены объявить о банкростве среди них оказались Tamerack, Gemini Technology, Genoa Systems и Hualon, тогда как Headland Technology была выкуплена SPEA, а Acer, Motorola и Acumos стали собственностью Cirrus Logic.

Как вы уже могли догадаться, особняком в этом скоплении слияний и приобретений стояла ATI. Канадцы продолжали усердно трудиться и выпускать инновационные продукты, несмотря ни на что пусть это и стало значительно сложнее.
В ноябре 1993 года ATI представила карту видеозахвата VideoIt! в основе которой лежал чип-декодер 68890, способный записывать видеосигнал в разрешении 320х240 при 15 кадрах в секунду или 160х120 при 30 кадрах в секунду. Благодаря интеграции чипа Intel i750Pd VCP владелец новинки мог проводить компрессию-декомпрессию видеосигнала в реальном времени, что было особенно полезно при работе с большими объемами данных. VideoIt! первую на рынке научили использовать центральную шину для общения с графическим ускорителем, и никаких кабелей и коннекторов, как прежде, уже не требовалось.

Проблемы ATI и успехи S3 Graphics


Для ATI 1994 год стал настоящим испытанием из-за серьезной конкуренции компания понесла убытки в размере $4,7 миллиона. Главной причиной неприятностей канадских разработчиков стали успехи компании S3 Graphics. Графический ускоритель S3 Vision 968 и адаптер Trio64 обеспечили американской компании-разработчику дюжину крупных ОЕМ-контрактов с такими лидерами рынка, как Dell, HP и Compaq. В чем была причина такой популярности? Невиданный ранее уровень унификации графический чип Trio64 собрал под одной крышкой цифро-аналоговый преобразователь (DAC), синтезатор частот и графический контроллер. Новинка от S3 использовала объединенный кадровый буфер и поддерживала аппаратное наложение видео (реализованное путем выделения части видеопамяти в процессе рендеринга). Масса достоинств и отсутствие явных недостатков чипа Trio64 и его 32-битного собрата Trio32 привели к появлению множества вариантов партнерских исполнений плат на их основе. Свои решения предлагали Diamond, ELSA, Sparkle, STB, Orchid, Hercules и Number Nine. Вариации разнились от базовых адаптеров на базе VirGe за $169, до сверхмощной Diamond Stealth64 с 4 Мб видеопамяти за $569.

В марте 1995 года ATI вернулась в большую игру с набором инноваций, представив Mach64 первый на рынке 64-битный графический ускоритель, а также первый, способный работать в системах на базе PC и Mac. Наряду с популярной Trio 958 Mach64 обеспечивал возможность аппаратного ускорения видео. Mach64 открыл для ATI выход на профессиональный рынок первыми решениями канадцев в данном секторе стали ускорители 3D Pro Turbo и 3DProTurbo+PC2TV. Новинки предлагались по цене в $899 за целых 4 Мб видеопамяти.

Еще одним важным новичком на рынке графических ускорителей стал технологический стартап 3Dlabs. Приоритетным направлением для молодой компании был выпуск высококлассных графических ускорителей для профессионального рынка Fujitsu Sapphire2SX с 4 Мб видеопамяти предлагалась по цене от $1600, а ELSA Gloria 8 с 8 Мб памяти на борту стоила немыслимые для тех лет $2600. Пытались 3Dlabs выйти и на рынок массовой игровой графики с Gaming Glint 300SX, но высокая цена и всего 1 Мб видеопамяти не принес популярности адаптеру.

Свои продукты на потребительском рынке представляли и другие компании. Trident, ОEM-поставщик графических решений для 2D-задач, представил чип 9280, обладавший всеми преимуществами Trio64 по доступной цене от $170 до $200. Тогда же в продажу вышли Weiteks Power Player 9130 и Alliance Semiconductors ProMotion 6410 обеспечившие прекрасную плавность при воспроизведении видео.

NV1 Дебют NVidia и проблемные полигоны


В мае 1995 года к новичкам присоединилась и NVIDIA, представив свой первый графический ускоритель с символическим названием NV1. Продукт первым на коммерческом рынке объединил возможности 3D-рендеринга, аппаратного ускорения видео и графического интерфейса. Сдержанный коммерческий успех никак не смутил молодую компанию Дженсен Хуанг с коллегами прекрасно понимали, что на рынке, где новые решения представляют каждый месяц, выстрелить будет очень непросто. Но прибыли с продажи NV1 оказалось достаточно, чтобы удержать компанию на плаву и дать стимул продолжать работу.

image
Diamond EDGE 3D 2120 (NV1)

Производством чипов на базе 500 нм техпроцесса заведовала компания ST Microelectronics, но к несчастью для Nvidia всего через несколько месяцев после появления на рынке партнерских решений на основе NV1 (например, Diamond Edge 3D) Microsoft представила первую версию долгожданного графического API DirectX 1.0. Наконец-то! воскликнули геймеры со всего мира, но производители графических ускорителей такого энтузиазма не разделяли.

Главной особенностью работы DirectX стали полигоны треугольной формы. Многие ошибочно полагают, что пресловутые треугольники были всегда, но на самом деле это заблуждение. Инженеры Nvidia закладывали в свой первый продукт квадратичный маппинг текстур (вместо треугольников-полигонов были квадраты), из-за чего приложения и первые игры с поддержкой DirectX вызвали массу проблем совместимости у владельцев NV1. Для решения проблемы Nvidia включили в драйвер обработчик для перевода квадратной разметки текстур в треугольную, но производительность в таком формате оставляла желать лучшего.

Большинство игр c поддержкой квадратичного маппинга текстур были портированы с приставки Sega Saturn. В Nvidia сочли эти проекты настолько важными, что разместили на 4 Мб модели NV1 два порта новой консоли, подключенные к карте через ленточные разъемы. На момент выхода в продажу (в сентябре 1995 года) первый продукт Nvidia обошелся покупателям в $450.

Большинство производителей графических ускорителей к моменту запуска API от Microsoft сильно зависели от проприентарных решений других компаний когда разработчики компании Билла Гейтса только начинали работу над собственной графической библиотекой, на рынке уже присутствовало множество API, таких как S3d (S3), Matrox Simple Interface, Creative Graphics Library, C Interface (ATI) и SGL (PowerVR), а позже в их число вошли NVLIB (Nvidia), RRedline (Rendition) и знаменитый Glide. Такое разнообразие сильно усложняло жизнь разработчикам нового железа, так как API были несовместимы друг с другом, а разные игры поддерживали разные библиотеки. Выход DirectX поставил крест на всех сторонних решениях, ведь использование других проприентарных API в играх для Windows попросту не имело смысла.

Но нельзя сказать, что новинка от Microsoft была лишена серьезных недостатков. После представленного DirectX SDK у многих производителей графических ускорителей исчезла возможность аппаратно управлять ресурсами видеокарт при воспроизведении цифрового видео. Многочисленные проблемы с драйверами на недавно вышедшей Windows 95 возмущали пользователей, привыкших к стабильной работе ОС Windows 3.1. Со временем все проблемы были решены, но главная битва за рынок ожидала впереди взявшая паузу ATI готовилась покорять вселенную трехмерных игр с новой линейкой 3D Rage.

ATI Rage Трехмерная ярость


Демонстрация нового графического ускорителя прошла в рамках лос-анджелесской выставки E3 1995 года. Инженеры ATI объединили преимущества чипа Mach 64 (и его выдающихся возможностей работы с 2D-графикой) с новым чипом для обработки 3D, взяв максимум от предыдущих разработок. Первый 3D-ускоритель ATI 3D Rage (известный также как Mach 64 GT) вышел на рынок в ноябре 1995 года.

image
ATI 3D Rage

Как и в случае с Nvidia, инженерам пришлось столкнуться с массой проблем поздние ревизии DirectX 1.0 вызывали многочисленные проблемы, связанные с отсутствием глубокого буфера. Карта располагала всего 2 Мб видеопамяти EDO RAM, поэтому 3D-приложения и игры запускались в разрешении не более 640х480 при 16-битном цвете или 400х300 при 32-битном, тогда как в 2D-режиме разрешение экрана было значительно выше до 1280х1024. Попытки запустить игру в режиме 32-битного цвета с разрешением 640х480 обычно заканчивались цветовыми артефактами на экране, да и игровую производительность 3D Rage нельзя было назвать выдающейся. Единственным бесспорным преимуществом новинки была возможность воспроизводить видеофайлы в формате MPEG в полноэкранном режиме.

В ATI провели работу над ошибками и переработали чип, выпустив Rage II в сентябре 1996 года. Исправив аппаратные недочеты и добавив поддержку кодека MPEG2, инженеры по какой-то причине не подумали о необходимости увеличить объем памяти первые модели всё еще имели на борту смешные 2 Мб видеопамяти, что неизбежно било по производительности при обработке геометрии и перспективы. Недочет был исправлен в более поздних ревизиях адаптера например, в Rage II+DVD и 3D Xpression+ буфер памяти вырос до 8 Мб.

Но война за 3D-рынок только начиналась, ведь целых три новых компании готовили свои продукты для новейших игр Rendition, VideoLogic и 3dfx Interactive. Именно последней удалось в кратчайшие сроки представить графический чип, значительно опередивший всех конкурентов и начавший новую эру в 3D-графике 3Dfx Voodoo Graphics.

1996-1999. Эпоха 3Dfx. Величайший графический стартап в истории. Последний этап большой конкуренции за рынок


Невероятная история 3Dfx стала хрестоматийным воплощением стартапа, символизирующего как невероятный успех и головокружительные прибыли, так и некомпетентность самоуверенного руководства, и как итог крах и забвение. Но печальный финал и горький опыт не в силах отрицать очевидного 3Dfx в одиночку сотворила графическую революцию, застав врасплох многочисленных конкурентов, и задав новую, феноменально высокую планку производительности. Ни до, ни после этого невероятного периода в истории развития видеокарт мы не видели ничего, даже отдаленно похожего на сумасшедший взлет 3Dfx во второй половине девяностых.

image

3Dfx Voodoo Graphics была графическим адаптером, нацеленным исключительно на работу с 3D-графикой. Предполагалось, что покупатель новинки будет использовать для работы с двухмерными нагрузками другую плату, подключая её к Voodoo через второй VGA-разъем.
Такой подход не смутил многочисленных энтузиастов, и инновационное решение сразу же привлекло многих производителей-партнеров, выпустивших собственные варианты Voodoo.

Одной из интересных карт на базе первого чипа 3Dfx была Orchid Righteous 3D от Orchid Technologies. Фирменным отличием адаптера за $299 было наличие механических реле, издающих характерные щелчки при запуске 3D-приложений или игр.

image
Orchid Righteous 3D

В поздних ревизиях эти реле заменили на твердотельные компоненты, и прежний шарм был утрачен. Вместе с Orchid свои варианты новейшего ускорителя представили и Diamond Multimedia (Monster 3D), Colormaster (Voodoo Mania), Canopus (Pure3D и Quantum3D), Miro (Hiscore), Skywell (Magic3D), и самая пафосная в ряду названий 2theMAX Fantasy FX Power 3D. Раньше видеокарты называть не стеснялись!

Причины подобного ажиотажа вокруг новинки были очевидны при всех возможных недостатках Voodoo Graphics обладала невероятной производительностью, и её появление сразу же перевело в разряд устаревших множество других моделей особенно тех, что могли работать только с 2D-графикой. Несмотря на то, что в 1996 году более половины рынка 3D-ускорителей принадлежало компании S3, 3Dfx ударными темпами завоевывала миллионы фанатов и уже к концу 1997 года компании принадлежало 85% рынка. Это был феноменальный успех.

Конкуренты 3Dfx. Rendition и VideoLogic


Громкие успехи вчерашнего новичка не вычеркнули из игры конкурентов, о которых мы упоминали ранее VideoLogic и Rendition. VideoLogic создала технологию отложенного мозаичного рендеринга (TBRD), благодаря которой пропадала необходимость предварительной Z-буферизации кадра. На финальной стадии рендеринга вычищались скрытые пиксели, а обработка геометрии началась только после того, как будут наложены текстуры, тени и освещение. Технология TBRD работала по принципу разбития кадра на прямоугольные ячейки, рендеринг полигонов в которых происходил независимо друг от друга. При этом полигоны, расположенные за пределами видимой области кадра, отсеивались, а рендеринг остальных начинался только после обсчета общего числа пикселей. Такой подход позволял сэкономить массу вычислительных ресурсов на этапе отрисовки кадра, существенно повышая общую производительность.

Компания вывела на рынок три поколения графических чипов производства NEC и ST Micro. Первое поколение было эксклюзивным продуктом в составе компьютеров Compaq Presario под названием Midas 3 (Модели Midas 1 и 2 были прототипами, и использовались в аркадных автоматах). Вышедшие позже PSX1 и PSX2 были ориентированы на ОЕМ-рынок.
Чипы второго поколения легли в основу приставки Sega Dreamcast японской платформы, сыгравшей свою роль в печальной судьбе 3Dfx. При этом VideoLogic не успели выйти на потребительский рынок графических карт к моменту премьеры их модель Neon 250 морально устарела, проиграв всем бюджетным решениям, и это неудивительно, ведь до прилавков новинка добралась лишь в 1999 году.

Компания Rendition тоже успела отличиться инновациями в графике, и создала первый графический чип Vrit 1000 с возможностью работы не только с двухмерной, но и с 3D-графикой одновременно благодаря процессорному ядру на архитектуре RISC, а также использованию пиксельных конвейеров. Процессор отвечал за обработку полигонов и механизма работы конвейеров рендеринга.

Подобный подход к построению и обработке изображения заинтересовал Microsoft в компании использовали Vrit 1000 во время разработки DirectX, но у ускорителя были свои архитектурные недостатки. Например, он работал только на материнских платах с поддержкой технологии прямого доступа к памяти (Direct memory access, DMA) по ней передавались данные через шину PCI. Благодаря дешевизне и массе программных преимуществ, включающих сглаживание и аппаратное ускорение в Quake от id Software, карта пользовалась популярностью вплоть до выхода Voodoo Graphics. Новинка от 3Dfx оказалась более чем в 2 раза производительнее, а технология DMA быстро потеряла популярность у разработчиков игр, отправив некогда перспективную V1000 на свалку истории.

ATI Гонка за Voodoo c Rage II и Rage Pro


Тем временем ATI не прекращала работу над новыми ревизиями Rage. Следом за Rage II в марте 1997 года была представлена Rage Pro первая AGP-видеокарта от сформированного накануне подразделения ATI 3D Engineering Group.

Rage Pro с 4 Мб видеопамяти на борту практически сравнялась с легендарной Voodoo по производительности, а вариант на AGP-шине с 8 Мб видеопамяти даже превосходил знаменитого конкурента в ряде игр. В Pro-версии карты инженеры ATI доработали коррекцию перспективы и обработку текстур, а также добавили поддержку аппаратного сглаживания и трилинейной фильтрации благодаря увеличенному кэшу в 4 Кб. Чтобы снизить зависимость производительности адаптера от центрального процессора в компьютере, на плате был распаян отдельный чип для обработки операций с плавающей запятой. Любители современных мультимедиа оценили поддержку аппаратного ускорения при воспроизведении видео с DVD-носителя.

Выход на рынок Rage Pro позволил ATI поправить дела с финансами и увеличить чистую прибыль до $47.7 миллионов при общем обороте более $600 млн. По большей части финансовый успех продукту принесли OEM-контракты, реализация графического чипа на материнских платах и выпуск мобильного варианта. Карта, часто фигурировавшая в продаже в вариантах Xpert@Work и Xpert@Play, имела массу конфигураций от 2 до 16 Мб видеопамяти для различных нужд и сегментов рынка.

Важным стратегическим плюсом для штата ATI стало приобретение за $3 миллиона компании Tseng Labs, в которой работали над технологиями интеграции чипов RAMDAC на борт графических карт. Компания разрабатывала собственный графический адаптер, но столкнулась с техническими проблемами, что и привело к встречному предложению от канадских лидеров рынка. Вместе с интеллектуальной собственностью в штат ATI перешло 40 инженеров высшего класса, сразу же приступивших к работе.

Новые конкуренты. Permedia и RIVA 128


Профессионалы из 3DLabs не оставляли надежды захватить интересы геймеров. Для этого была выпущена серия продуктов Permedia, произведенная по 350 нм техпроцессу Texas Instruments. Оригинальная Permedia обладала относительно низкой производительностью, что было исправлено в Permedia NT. Новая карта обладала отдельным чипом Delta для обработки полигонов и алгоритма сглаживания, но при этом стоила дорого целых $600. Когда к концу 1997 года была готова обновленная линейка Permedia 2, конкурировать с игровыми продуктами она уже не могла 3DLabs сменили маркетинг, и представили новинки как профессиональные карты для работы с 2D-приложениями и ограниченной поддержкой 3D.

Всего через месяц после последних премьер 3DLabs и ATI на рынок вернулась Nvidia, представив свою RIVA 128, готовую к жесткой конкуренции кошельки геймеров. Доступная цена и отличная производительность в Direct3D обеспечили новинке всеобщее признание и коммерческий успех, позволив компании заключить контракт с TSMC на производство чипов обновленной RIVA 128ZX. К концу 1997 года две успешные видеокарты принесли Дженсену Хуангу 24% рынка практически всё, что не успела подмять под себя всемогущая 3Dfx.

Забавно, что пути Nvidia и лидера рынка начали пересекаться уже тогда, когда Sega, готовясь к разработке новой консоли Dreamcast, заключила несколько предварительных контрактов с производителями графических решений. Среди них была и Nvidia (с проектом чипа NV2), и 3Dfx (с прототипом Blackbelt). Руководство 3Dfx было полностью уверено в получении контракта, но, к своему удивлению, получило отказ японцы предпочли не рисковать, и обратились за разработкой в NEC, ранее зарекомендовавшей себя сотрудничеством с Nintendo. Представители 3Dfx подали на Sega в суд, обвиняя компанию в намерениях присвоить себе проприетарные разработки в ходе работы над прототипом долгие судебные тяжбы закончились в 1998 году выплатой компенсации в размере $10.5 миллиона в пользу американской компании.

Quantum3D и первое применение SLI


А пока они продолжались, 3Dfx успела обзавестись дочерней компанией. Ей стала Quantum3D, получившая сразу несколько выгодных контрактов на разработку профессиональных графических решений самого высокого уровня от SGI и Gemini Technology. В основе будущих продуктов лежала инновационная разработка 3Dfx технология SLI (Scan-Line Interleave).

Технология предполагала возможность использования двух графических чипов (каждый из которых имеет собственный контроллер памяти и буфер) в рамках одной платы или соединение двух отдельных плат с помощью специального ленточного кабеля. Соединенные подобным образом карты (в формате двухчиповой платы или двух отдельных) делили обработку изображения напополам. Технология SLI обеспечивала возможность увеличения разрешения экрана с 800х600 до 1024х768 точек, но подобная роскошь обходилась недешево: Obsidian Pro 100DB-4440 (две спаренные карты с чипами Amethyst) предлагалась по цене в $2500, тогда как двухчиповая плата 100SB-4440/4440V обошлась бы покупателю в $1895.

image
Obsidian Pro 100DB-4440

Специализированные решения, впрочем, никак не отвлекали лидеров рынка от разработки новых карт серии Voodoo.

3Dfx Voodoo Rush. Спешка, бюджет и разочарование


Летом 1997 года 3Dfx вышла на биржу, и попыталась закрепить ошеломительный успех Voodoo, выпустив Voodoo Rush карту, работающую с 2D и 3D-графикой одновременно, и уже не требующей второго адаптера. Изначально в её основе должен был лежать новый чип Rampage, но из-за технических проблем его релиз был отложен, и в основе Rush использовался урезанный вариант оригинальной Voodoo. Чтобы помирить два вида графических нагрузок, на плате располагалось два чипа SST-1 отвечал за обработку 3D-игр, использующих API Glide, тогда как более посредственный чип производства Alliance или Macronix отвечал за другие 2D и 3D-приложения и игры. Из-за рассинхронизации чипы работали на разных частотах (50 и 72 МГц), вызывая случайные артефакты на экране и недоумение владельцев.

image
Voodoo Rush

Помимо этого, Voodoo Rush имела общий буфер видеопамяти, который одновременно использовали оба чипа. От этого пострадало максимальное разрешение экрана оно составляло лишь половину от 1024х768 (512х384 точки), а низкие частоты RAMDAC не позволили обеспечить желанные 60 Гц в обновлении экрана.

Rendition V2100 и V2200. Уход с рынка


На фоне больших проблем 3Dfx компания Rendition предприняла новую попытку приятно удивить массовый рынок Rendition V2100 и V2200. Новинки вышли на рынок незадолго после премьеры Voodoo Rush, но, к разочарованию энтузиастов, не смогли потягаться даже с урезанной Voodoo. Невостребованные видеокарты вынудили Rendition первой из многих покинуть рынок графических карт.

В результате многие проекты компании остались на стадии прототипов одним из них была доработанная версия V2100/V2200 с геометрическим процессором Fujitsu FXG-1 (в формате двухчипового исполнения). Впрочем, существовал и одночиповый вариант с FXG-1, вошедший в историю как продукт с самым изысканным названием в истории Hercules Thrilled Conspiracy. Вместе с другими разработками (например, чипами V3300 и 4400E) компания была продана Micron за $93 млн в сентябре 1998 года.

Агрессивная экономия. Битва за бюджетный сегмент


Постоянный рост производительности и появление новых технических преимуществ привели к тому, что производителям второго эшелона стало крайне сложно конкурировать с решениями от ATI, Nvidia и 3Dfx, занявших не только нишу энтузиастов и профессионалов, но и народный сегмент рынка адаптеров ценой до $200.

Matrox представила свою графическую карту Mistique по вкусной цене от $120 до $150, но из-за отсутствия поддержки OpenGL новинка сразу же попала в категорию аутсайдеров. S3 начала продажи новой линейки ViRGE, с присутствием максимально широкого модельного ряда свет увидела и мобильная версия адаптера с динамическим управлением питанием (ViGRE/MX), и специальная версия основного ViRGE с поддержкой ТВ-выхода, разъема S-Video и воспроизведением DVD (ViRGE/GX2). Два основных адаптера, призванных сразиться за бюджетный рынок (модели ViRGE, VIRGE DX и ViRGE GX) стоили на момент выхода от $120 за младшую до $200 за старшую.

Трудно представить, но категория ультра-бюджетных решений тоже была местом жесточайшей конкуренции. За кошельки пользователей, готовых заплатить за графический ускоритель не более $99, тягались Laguna3D от CirrusLogic, модели 9750/9850 от Trident, а также SiS 6326. Все эти карты были компромиссными решениями с минимумом возможностей.

После выхода Laguna3D компания CirrusLogic покинула рынок низкое качество 3D-графики, посредственная (и непостоянная) производительность, а также куда более интересные конкуренты (та же ViRGE, стоившая чуть дороже) не оставляли ветеранам индустрии шанса на выживание. Единственными источниками дохода для CirrusLogic оставались продажи допотопных 16-битных графических адаптеров за $50, интересных лишь самым экономным клиентам.

Trident тоже видела потенциал в сегменте рынка ниже среднего в мае 1997 года была выпущена 3D Image 9750, а немногим позже вышла 9850 с поддержкой двухканальной AGP-шины. Исправив многие недочеты 9750 с PCI-шиной, 9850 страдала от посредственной обработки текстур, и не получила лестных отзывов.
Среди карт, продаваемых за бесценок, наиболее успешной была SiS 6326, представленная в июне 1997 года по цене до $50. Обладая хорошим качеством изображения и относительно высокой производительностью, 6326 разошлась тиражом в 8 миллионов устройств в 1998 году. Но на исходе 90-х мир энтузиастов всколыхнул стартап, полный серьезных обещаний им была компания BitBoys.

BitBoys Дерзкие ребята в мире сказочного 3D


BitBoys заявила о себе в июне 1997 года анонсом интригующего проекта Pyramid3D. Революционный графический чип разрабатывался совместными усилиями самого стартапа с компаниями Silicon VLSI Solutions Oy и TriTech. К сожалению для энтузиастов, кроме громких слов на презентациях Pyramid3D так нигде и не появился, а компания TriTech была осуждена за присвоение чужого патента на аудиочип, из-за чего позже обанкротилась и закрылась.
Но BitBoys не прекращали работу, и анонсировали второй проект под названием Glaze3D. Невероятный реализм, лучшая производительность в своем классе и масса новейших технологий были показаны публике на SIGGRAPH99. Рабочий прототип графического адаптера использовал шину RAMBUS и 9 Мб видеопамяти DRAM производства Infineon.
Увы, как и в первый раз, аппаратные проблемы и переносы привели к тому, что ожидаемой революции вновь не наступило.

image
Рекламный скриншот, призванный подчеркнуть реализм, которого должны были достичь карты Glaze3D

Намного позже проект был вновь переименован Axe, а полем для конкуренции выбрали игры с поддержкой DirectX 8.1 прототип даже успел получить официальное название Avalanche3D и обещал взорвать рынок в 2001, но не случилось. На последнем этапе разработки Axe сменился на Hammer, которому прочили поддержку DirectX 9.0. История самого пафосного долгостроя в истории графики закончилась банкротством Infineon, после которого BitBoys отказались от проекта мечты и перешли в сегмент мобильной графики. А теперь вновь вернемся в уютный 1998.

Intel i740 Большая неудача больших профессионалов


Intel выпустила свою первую (и пока что последнюю) графическую карту для 3D-игр под названием Intel i740 в январе 1998 года. У проекта была интересная история, ведь корнями он уходил в проект программы симуляции космических полетов, которую NASA совместно с General Electric создавала для знаменитой серии лунных миссий Аполлон. Позже наработки были проданы Martin Marietta компании, позже вошедшей в состав оборонного гиганта Lockheed (так и появился тот самый Lockheed-Martin). Lockheed-Martin на базе проекта создал линейку профессиональных устройств Read3D, состоящую из двух моделей графических адаптеров Real3D/100 и Real3D/Pro-1000. Иронично, но несмотря на военное происхождение устройств одним из применений выдающихся технологий стал аркадный автомат Sega, использующий две платы Pro-1000.

image

Немного позднее Lockheed-Martin объявил о начале Project Aurora коллаборации с Intel и Chips and Technologies. За месяц до выхода i740 Intel приобрела 20% проекта Real3D, а к июлю 1997 года полностью выкупила Chips and Technologies.
Ключевой особенностью проекта Real3D было использование двух отдельных чипов для обработки текстур и графики Intel объединила их при создании i740. Адаптер использовал оригинальный подход к буферизации данных через шину AGP содержимое кадрового буфера и текстуры загружалось прямо в оперативную память компьютера. В партнерских вариантах i740 обращение к оперативной памяти происходило лишь в том случае, если собственный буфер адаптера полностью заполнялся или был сильно сегментирован. Такой же подход часто используется и сегодня при исчерпании памяти на борту видеокарты система увеличивает буфер, используя свободную RAM.

image

Но во времена, когда буферы исчислялись мегабайтами, а текстуры еще не раздулись до неприличных размеров, такой подход мог показаться по меньшей мере странным.

Чтобы уменьшить возможные задержки при работе с шиной, Intel использовали одну из её особенностей прямой доступ к буферу памяти (Direct Memory Execute или DiME). Такой метод еще назывался AGP-текстуризацией, и позволял использовать оперативную память компьютера для маппинга текстур, обрабатывая их селективно. Средняя производительность вкупе с посредственным качеством изображения позволили i740 добиться уровня прошлогодних карт своего ценового сегмента.

image

За модель с 4 Мб видеопамяти просили $119, а вариант с 8 Мб стоил $149. При этом помимо базовой версии Intel свет увидели всего два партнёрских варианта Real3D StarFighter и Diamond Stealth II G450.

Рассчитывая на успех, Intel начала разработку следующего чипа i752, но ни ОЕМ-производители, ни энтузиасты не проявили интереса к бюджетному адаптеру, серьезно отстающему от актуальных решений. И это неудивительно, ведь в то же время продавалась ViRGE от S3, покупка которой куда больше порадовала бы пользователя. Производство адаптеров было свернуто, а вышедшие на рынок чипы i752 перепрофилировали для использования в качестве решений интегрированной графики.
В октябре 1999 года Lockheed-Martin ликвидировала Real3D, а богатый штат специалистов разошелся в Intel и ATI.

ATI Возвращение в игру с Rage Pro и Rage 128


ATI вновь заявила о себе с Rage Pro Turbo в феврале 1998 года, но эта карта оказалась всего лишь ребрендингом Rage Turbo с доработкой драйверов для выдающихся результатов в синтетических текстах. Обзорщики некоторых изданий были приятно удивлены, но цену в $449 оправдать было очень сложно. Тем не менее, именно с Rage Pro Turbo впервые появился феномен Finewine драйвера постепенно улучшали производительность адаптера с каждой новой ревизией.

Куда более серьезную попытку повлиять на расстановку сил ATI предприняла с выходом Rage 128 GL и Rage 128 VR в августе того же года. Из-за проблем с поставками ATI не смогла обеспечить наличие моделей в магазинах почти до зимних каникул, что сильно сказалось на продвижении новинок. В отличие от OEM-контрактов, стабильно приносящих канадцам серьезную прибыль, простые энтузиасты не смогли оценить новинку из-за отсутствия адаптеров на рынке. Но была и другая причина, по которой продажи Rage 128 оказались ниже ожидаемого.

ATI подготовила Rage 128 к светлому графическому будущему, оснастив новинку 32 Мб видеопамяти (варианты с 16 Мб выпускались под брендом All-In-Wonder 128), которая работала на быстрой и эффективной подсистеме в 32-битном цвете прямой конкурент NVidia Riva TNT не имел никаких шансов. Увы, во времена выхода новинки большинство игр и приложений всё еще работали в 16-битном режиме, где Rage 128 ничем не выделялась на фоне NVidia и S3 (а по качеству изображения даже уступала моделям от Matrox). Массовая публика не оценила подхода ATI, но именно тогда канадцы впервые опередили своё время вот только по достоинству их подход оценили гораздо позже.

1998 год стал для ATI рекордным при обороте в $1.15 млрд чистая прибыль компании составила неплохие $168.4 миллиона. Канадская компания завершила год, располагая 27% рынка графических ускорителей.
В октябре 1998 года ATI приобрела Chromatic Research за $67 миллионов. Компания, знаменитая своими медиапроцессорами MPACT, была поставщиком решений для PC TV от Compaq и Gateway, и предлагала великолепную производительность при работе с MPEG2, высокое качество аудио и отличные показатели в режиме 2D. По иронии судьбы именно единственный недостаток MPACT в виде слабой производительности в 3D-режиме поставил Chromatic Research на грань банкротства всего через 4 года после основания. Всё ближе подступало время универсальных решений.

3Dfx Voodoo 2 и Voodoo Banshee Успешный провал лидера рынка


Пока Intel пыталась выйти на рынок графических адаптеров, его лидер в лице 3Dfx представил Voodoo 2, ставшую технологическим прорывом в нескольких сферах одновременно. Новый графический адаптер от 3Dfx имел уникальный дизайн помимо центрального чипа на плате были два спаренных текстурных обработчика, благодаря чему карта была не только трехчиповой, но и обеспечивала возможность мультитекстурной обработки в OpenGL (когда на пиксель накладывались две текстуры одновременно, ускоряя общую прорисовку сцены), чего прежде никогда не использовалось. Как и оригинальная Voodoo, карта работала исключительно в режиме 3D, но в отличие от конкурентов, совмещавших в одном чипе 2D и 3D-обработку, 3Dfx не шла ни на какие компромиссы, преследуя главную цель отстоять позиции лидера рынка.

Профессиональные версии нового адаптера не заставили себя долго ждать дочерняя компания 3Dfx Quantum3D выпустила три примечательных акселератора на базе новинки двухчиповой Obsidian2 X-24, которую можно было использовать в паре с 2D-платой, SB200/200Sbi с 24 Мб памяти EDO на борту, а также Mercury Heavy Metal экзотический бутерброд, в котором спаренные 200Sbi соединялись между собой контактной платой Aalchemy, в будущем ставшей прототипом знаменитого SLI-мостика NVidia.

image
Mercury Heavy Metal

Последний вариант предназначался для проведения сложных графических симуляций, и был доступен по космической цене в $9999. Для полноценной работы монстр MHM требовал серверной материнской платы серии Intel BX или GX с четырьмя слотами PCI.

Понимая важность контроля над бюджетным рынком уже в июне 1998 года 3Dfx представила Voodoo Banshee первый графический ускоритель с поддержкой 2D и 3D режимов работы. Вопреки ожиданиям и надеждам ставший легендарным чип Rampage так и не был готов, а на борту карта имела всего один блок обработки текстур, практически уничтоживший производительность новинки в мультиполигональном рендеринге Voodoo 2 была в разы быстрее. Но даже если экономичное производство с узнаваемым брендом и обеспечили Banshee хорошие продажи, то разочарование фанатов никуда не исчезло от создателей той самой Voodoo, в одночасье перевернувшей графический рынок, ожидали куда большего.

К тому же, несмотря на лидерство Voodoo 2, отрыв от конкурентов стремительно сокращался. Навязав ATI и NVidia серьезную конкуренцию, 3Dfx сталкивалась всё и новыми и новыми передовыми решениями, и лишь благодаря эффективному менеджменту (3Dfx производила и продавала карты сама, без участия партнеров) компания получала значительную прибыль с продаж. Но руководство 3Dfx видело массу возможностей в приобретении собственных фабрик по производству кремниевых пластин, поэтому компания выкупила STB Technologies за $131 миллион с расчётом на радикальное сокращение стоимости производства и навязывание конкуренции поставщикам Nvidia (TSMC) и ATI (UMC). Эта сделка стала роковой в истории 3Dfx мексиканские фабрики STB безнадежно отставали по качеству продукции от азиатских конкурентов, и никак не могли конкурировать в гонке за техпроцесс.

После того, как стало известно о приобретении STB Technologies, большинство партнеров 3Dfx не поддержали сомнительное решение, и перешли на продукты NVidia.

Nvidia TNT Заявка на техническое лидерство


И причиной для этого стала представленная Nvidia 23 марта 1998 года Riva TNT. Добавив параллельный пиксельный конвейер в архитектуру Riva, инженеры удвоили скорость отрисовки и рендеринга, что вкупе с 16 Мб памяти формата SDR значительно увеличило производительность. Voodoo 2 использовала куда более медленную память EDO и это давало новинке от Nvidia серьезное преимущество. Увы, техническая сложность чипа имела свои плоды из-за аппаратных ошибок при производстве 350-нм чип TSMC не работал на задуманных инженерами 125 МГц частота часто падала до 90 МГц, из-за чего Voodoo 2 смогла сохранить звание формального лидера по производительности.

Но даже при всех недостатках TNT была впечатляющей новинкой. Благодаря использованию двухканальной AGP-шины карта обеспечивала поддержку игровых разрешений до 1600х1200 при 32-битном цвете (и 24-битном Z-буфере для обеспечения глубины изображения). На фоне 16-битной Voodoo 2 новинка от nVidia выглядела настоящей революцией в графике. И хотя TNT не была лидером в бенчмарках, она оставалась опасно близкой к Voodoo 2 и Voodoo Banshee, предлагая больше новых технологий, лучшее скалирование с частотой процессора и более высокое качество обработки 2D и текстур благодаря прогрессивной AGP-шине. Единственным минусом, как и в случае с Rage 128, были задержки в поставках большое количество адаптеров появилось в продаже только осенью, в сентябре 1998 года.

Другим пятном на репутации Nvidia в 1998 году стал иск компании SGI, согласно которому NVidia нарушила права на патент внутренней технологии текстур-маппинга. По итогу судебных разбирательств, продлившихся целый год, было заключено новое соглашение, согласно которому NVidia получала доступ к технологиям SGI, а SGI получала возможность использовать наработки Nvidia. При этом графической подразделение самой SGI было расформировано, что только пошло на пользу будущему графическому лидеру.

Number Nine Шаг в сторону


Тем временем 16 июня 1998 года ОЕМ-производитель графических решений Number Nine решил попытать счастья на рынке графических адаптеров, выпустив карту Revolution IV под собственным брендом.
Сильно отставая по производительности от флагманских решений ATI и Nvidia, Number Nine сделала акцент на бизнес-сектор, предложив крупным компаниям то, в чем были слабы классические карты для игр и 3D-графики поддержку высоких разрешений в 32-битном цвете.
Чтобы завоевать интерес крупных компаний, Number Nine интегрировала проприентарный 36-пиновый разъем OpenLDI в свою Revolution IV-FP, и продавала плату в комплекте с 17.3 дюймовым монитором SGI 1600SW (с поддержкой разрешения 1600х1024). Набор стоил $2795.
Особого успеха предложение не снискало, и Number Nine вернулась к выпуску партнерских карт S3 и Nvidia, пока не была куплена S3 в декабре 1999, а затем продана бывшим инженерам компании, сформировавшим Silicon Spectrum в 2002 году.

S3 Savage3D Бюджетная альтернатива Voodoo и TNT за $100


Бюджетный чемпион в лице S3 Savage дебютировал в рамках E3 1998, и в отличие от многострадальных доминаторов сегментом выше (Voodoo Banshee и Nvidia TNT) попал на полки магазинов уже через месяц после анонса. К сожалению, спешка не могла пройти незаметно драйвера были сырыми, а поддержка OpenGL была реализована только в Quake, ведь проигнорировать одну из самых популярных игр года S3 себе позволить не могла.

С частотами S3 Savage также было не всё гладко. Из-за производственных недочетов и высокого энергопотребления референсные модели адаптера сильно грелись, и не обеспечивали задуманного порога частоты в 125 МГц частота обычно плавала между значениями в 90 и 110 МГц. При этом обозреватели из лидирующих изданий получили на руки инженерные образцы, исправно работавшие на 125 МГц, что обеспечило красивые цифры во всевозможных бенчмарках вместе с похвалами профильной прессы. Позже, в партнерских моделях ранние проблемы были решены Savage3D Supercharged стабильно работала на 120 МГц, а Terminator BEAST (Hercules) и Nitro 3200 (STB) покорили заветную планку в 125 МГц. Несмотря сырые драйвера и посредственную производительность на фоне лидеров большой тройки демократичная цена в пределах $100 и возможность качественного воспроизведения видео позволили S3 получить неплохие продажи.

1997 и 1998 годы стали очередным периодом поглощений и банкротств многие компании не выдержали конкуренции в гонке за производительностью, и были вынуждены уйти из отрасли. Так за бортом остались Cirrus Logic, Macronix, и Alliance Semiconductor, тогда как Dynamic Pictures была продана 3DLabs, Tseng Labs и Chromatic Research оказались выкуплены ATI, Rendition ушла Micron, AccelGraphics приобрели Evans & Sutherland, а Chips and Technologies стали частью Intel.

Trident, S3 и SiS Последняя битва тысячелетия за бюджетную графику


ОЕМ-рынок всегда был последней соломинкой для производителей, безнадежно отставших от конкурентов в работе с 3D-графикой и чистой производительностью. Таким он был и для компании SiS, выпустившей бюджетную SiS 300 для нужд бизнес-сектора. Несмотря на плачевную производительность в 3D (ограниченную единственным пиксельным конвейером) и безнадежное отставание в 2D от всех конкурентов мейнстрим-рынка, SiS 300 покорила OEM-производителей определенными преимуществами 128-битной шиной памяти (64-битной в случае более упрощенной SiS 305), поддержкой 32-битного цвета, DirectX 6.0 (и даже 7.0 в случае с 305), поддержкой мультитекстурного рендера и аппаратного декордирования MPEG2. Был у графической карты и ТВ-выход.

В декабре 2000 года свет увидела модернизированная SiS 315, где появился второй пиксельный конвейер и 256 битная шина, а также полная поддержка DirectX 8.0 и полноэкранного сглаживания. Карта получила новый движок обработки освещения и текстур, компенсацию задержек при проигрывании видео с DVD-носителей и поддержку разъема DVI. Уровень производительности находился в районе GeForce 2 MX 200, но это ничуть не смущало компанию.

Попала SiS 315 и на ОЕМ-рынок, но уже в составе чипсета SiS 650 для материнских плат на сокете 478 (Pentium IV) в сентябре 2001, а также как часть SoC-системы SiS552 в 2003.

Но SiS была далеко не единственным производителем, предлагавшим интересные решения в бюджетном сегменте. Trident также боролась за внимание покупателей с Blade 3D, общая производительность которой была на уровне провальной Intel i740, но цена в $75 с лихвой перекрывала многие недостатки. Позже на рынок вышла Blade 3D Turbo, в которой частоты поднялись со 110 до 135 МГц, а общая производительность вышла на уровень i752. К сожалению, Trident разрабатывала свои решения слишком долго для рынка, где новинки презентовали каждые пару месяцев, поэтому уже в апреле 2000 года это нанесло первый удар по компании VIA, для которой Trident разрабатывали встроенную графику, приобрела компанию S3, и прекратила сотрудничество с прежним партнером.

Впрочем, Trident использовала свою бизнес-модель в максимально выгодном ключе, сочетая массовые поставки и низкую стоимость производства своих бюджетных решений. Мобильный сектор рынка оставался относительно свободным, и специально для него в Trident разработали несколько моделей Blade3D Turbo T16 и T64 (работающих на частоте 143 МГц) и XP (работавшей на частоте 165 МГц). А вот приглянувшийся многим компаниям OEM-рынок уже не был благосклонен к простоте Trident вышедшая чуть позже SiS 315 поставила шах и мат всей линейке продуктов Trident. Не имея возможности быстро разработать достойную альтернативу, в Trident приняли решение продать графическое подразделение дочке SiS компании XGI в 2003 году.

Особняком среди прочих решений в бюджетном секторе стояла S3 Savage4. Анонсированная в феврале и поступившая в продажу в мае 1999 года, новинка предлагала 16 и 32 Мб памяти на борту, 64-битную четырехканальную шину AGP и собственную технологию сжатия текстур, благодаря которой адаптер мог обрабатывать блоки разрешением вплоть до 2048х2048 без особых затруднений (хотя это и было реализовано ранее в Savage3D). Умела карта проводить и мультитекстурный рендеринг, но даже отлаженные драйвера и впечатляющие технические характеристики не могли скрыть того факта, что прошлогодние предложения от 3Dfx, Nvidia и ATI были значительно производительнее. И такое положение вещей повторилось год спустя, когда на рынок вышла Savage 2000. В низких разрешениях (1024х768 и менее) новинка могла потягаться с Nvidia TNT и Matrox G400, но при выборе более высокого разрешения расстановка сил радикально менялась.

3Dfx Voodoo3 Пафос, шум и пустые оправдания


3Dfx не могла допустить, чтобы их новинка затерялась на фоне прогрессирующих конкурентов, поэтому премьера Voodoo3 в марте 1999 года сопровождалась обширной рекламной кампанией карту ярко продвигали в прессе и по телевидению, а смелое оформление коробки притягивало взгляды потенциальных покупателей, мечтавших о новой графической революции.

image

Увы, ставший притчей во языцех чипсет Rampage всё еще не был готов, и архитектурно новинка представляла собой родственника Voodoo2 на основе чипа Avenger. Архаичные технологии вроде поддержки исключительно 16-битного цвета и разрешения текстур всего в 256х256 не порадовали поклонников бренда как и полное отсутствие поддержки аппаратной обработки освещения и геометрии. Многие производители уже ввели моду на текстуры высокого разрешения, мультиполигональный рендеринг и 32-битный цвет, поэтому 3dfx впервые оказалась в числе отстающих по всем параметрам.

Инвесторам убытки в $16 миллионов пришлось объяснять недавним землетрясением в Тайване, которое, однако, почти не отразилось на финансовых успехах ATI и Nvidia. Понимая очевидные преимущества свободного распространения библиотек DirectX и OpenGL, компания еще в декабре 1998 года объявила о том, что их API Glide будет доступен как open-source. Правда, на тот момент желающих едва ли было слишком много.

Riva TNT2 и G400 Конкуренты впереди


Одновременно с пафосной премьерой Voodoo3 от 3Dfx Nvidia скромно представила свою RIVA TNT 2 (с первыми в своей истории картами серии Ultra, где геймеры получали более высокие частоты ядра и памяти), а Matrox презентовала не менее впечатляющую G400.
Riva TNT2 производилась по 250 нм технологии на фабриках TSMC, и смогла обеспечить Nvidia беспрецедентный уровень производительности. Новинка разгромила Voodoo3 практически везде исключением стали лишь несколько игр, в которых использовалась технология AMD 3DNow! В сочетании с OpenGL. Не отстала Nvidia и в плане технологий на картах серии TNT2 присутствовал DVI-разъем для поддержки новейших мониторов с плоским экраном.

Настоящей неожиданностью для всех стала Matrox G400, которая оказалась еще более производительной, чем TNT2 и Voodoo3, отставая лишь в играх и приложениях с использованием OpenGL. За свою демократичную цену в $229 новинка от Matrox предлагала отличное качество изображения, завидную производительность и возможность подключения двух мониторов через спаренный разъем DualHead. Второй монитор был ограничен разрешением в 1280х1024, но сама идея многим пришлась по душе.

Для G400 также была реализована технология рельефного текстурирования (Environment Mapped Bump Mapping, EMBM) для повышения общего качества прорисовки текстур. Для тех, кто всегда предпочитал приобретать лучшее, существовала G400 MAX, носившая титул самой производительной карты на рынке вплоть до выхода GeForce 256 с DDR-памятью в начале 2000 года.

Matrox Parhelia и 3DLabs Permedia Последние посредственности


Большой успех на рынке игровых графических ускорителей не слишком вдохновил Matrox, которая вернулась на профессиональный рынок, лишь однажды соблазнившись повторить успех G400 с Parhelia, но в 2002 году конкуренты уже вовсю осваивали DirectX 9.0, а поддержка трех мониторов одновременно меркла на фоне плачевной игровой производительности.
Когда публика уже успела переварить громкие релизы трех компаний, 3DLabs представила давно заготовленную Permedia 3 Create! Главной особенностью новинки было нишевое позиционирование 3DLabs рассчитывали привлечь внимание профессионалов, предпочитающих коротать свободное время в играх. Компания сделала акцент на высокую производительность в 2D, и привлекла к проекту специалистов из приобретенной в 1998 году Dynamic Pictures, авторов профессиональной линейки адаптеров Oxygen.

К несчастью для 3DLabs, в профессиональных картах приоритетом было сложнополигональное моделирование, и зачастую высокая производительность в этом направлении обеспечивалась серьезным снижением скорости обработки текстур. Игровые адаптеры с приоритетом в 3D работали с точностью до наоборот вместо сложных вычислений во главу угла ставилась скорость рендеринга и обработки текстур с высоким качеством изображения.

Значительно отставая от Voodoo3 и TNT 2 в играх, и не слишком опережая конкурентов в рабочих приложениях и задачах, Permedia оказалась последней попыткой 3DLabs выпустить продукт на рынок игровых адаптеров. Далее знаменитые графические инженеры продолжали расширение и поддержку своих специализированных линеек GLINT R3 и R4 на архитектуре Oxygen, где изобилие моделей варьировалось от бюджетных VX-1 за $299 до премиальных GVX 420 за $1499.

Была в репертуаре компании и линейка адаптеров Wildcat, основанная на разработках Intense3D, купленной у Integraph в июле 2000 года. В 2002 году когда 3DLabs активно заканчивала разработку передовых графических чипов для новых адаптеров Wildcat, компанию выкупила Creative Technology со своими планами на линейки P9 и P10.

В 2006 году компания покинула рынок настольных компьютеров, сосредоточившись на решениях для медиа-рынка, а позже вошла в состав Creative SoC, и стала известна как ZiiLab. История 3DLabs окончательно закончилась в 2012 году, когда компанию купила Intel.

ATI Rage MAXX Двухчиповое безумие в роли отстающего


С момента выхода успешной Rage 128 ATI испытывала ряд трудностей с дальнейшим развитием линейки. В конце 1998 года инженерам удалось успешно реализовать поддержку шины AGP 4x в обновленной версии адаптера Rage 128 Pro, дополнив число разъемов ТВ-выходом. В целом графический чип показывал себя примерно на уровне TNT 2 в плане игровой производительности, однако после выпуска TNT 2 Ultra первенство вновь перешло к Nvidia, с чем канадцы мириться не хотели, началась работа над Project Aurora.

Когда стало очевидно, что гонка за производительностью проиграна, инженеры прибегли к трюку, который в будущем станет одной из особенностей многих поколений красных карт они выпустили Rage Fury MAXX, двухчиповую графическую карту, на плате которой трудились две Rage 128 Pro.

image
Rage Fury MAXX

Внушительные спецификации и возможность параллельной работы двух чипов сделали карту с одиозным названием достаточно продуктивным решением, и вывели ATI вперед, долго лидерство удерживать не удалось. За титул лучших боролась даже S3 Savage 2000, а представленная позже GeForce 256 с DDR-памятью не оставила флагману ATI никаких шансов несмотря на угрожающие цифры и прогрессивные технологии. Nvidia понравилось быть первой, и уступать место лидера рынка юный Дженсен Хуанг совсем не торопился.

GeForce 256 первая настоящая видеокарта. Рождение термина GPU


Не прошло и двух месяцев с момента, как ATI наслаждалась пирровой победой в бенчмарках с анонсом Rage Fury MAXX, когда Nvidia представила ответ, закрепивший за компанией статус лидера рынка GeForce 256. Новинка первой в истории выходила с разными типами видеопамяти 1 октября 1999 года свет увидела версия с чипами SDR, а уже 1 февраля 2000 года начались продажи обновленной версии с памятью типа DDR.

image
GeForce 256 DDR

Графический чип из 23 миллионов транзисторов изготавливался на фабриках TSMC по 220 нм техпроцессу, но, что куда более важно, именно GeForce 256 стала первым графическим адаптером, получивший название видеокарта. Заметили, как тщательно мы избегали этого термина на протяжении всего повествования? Смысл неловких замен был именно в этом. Термин GPU (Graphics Processing Unit, чип обработки графики) появился благодаря интеграции отдельных прежде конвейеров обработки текстур и освещения в качестве составной части чипа.

Широкие возможности архитектуры позволяли графическому чипу видеокарты проводить тяжелые вычисления в операциях с плавающей запятой, преобразовывая сложные массивы 3D-объектов и составных сцен в красивую 2D-презентацию для впечатленного игрока. Прежде все подобные сложные вычисления проводил центральный процессор компьютера, что служило серьезным ограничением детализации в играх.

Статус GeForce 256 как пионера в использовании программных шейдеров с поддержкой технологии трансформации и освещения (T&L) часто подвергался сомнению. Другие производители графических ускорителей уже внедряли поддержку T&L в прототипах (Rendition V4400, BitBoys Pyramid3D и 3dfx Rampage), или на стадии сырых, но работоспособных алгоритмов (3DLabs GLINT, Matrox G400), или в качестве функции, реализованной дополнительным чипом на плате (геометрический процессор Fujitsu на борту Hercules Thriller Conspiracy).

Тем не менее, ни один из вышеперечисленных примеров не вывел технологию на этап коммерческой реализации. Nvidia первой реализовала трансформацию и освещение в качестве архитектурных преимуществ чипа, подарив GeForce 256 то самое конкурентное преимущество и открыв для компании прежде скептически настроенный профессиональный рынок.
И интерес профессионалов был вознагражден всего через месяц после выхода геймерских видеокарт NVidia презентовала первые видеокарты линейки Quadro модели SGI VPro V3 и VR3. Как можно догадаться из названия, карты были разработаны с применением проприетарных технологий компании SGI, договор с которой Nvidia заключила летом 1999 года. Иронично, что немного позже SGI пыталась отсудить у Nvidia свои разработки, но потерпела неудачу, оказавшись на грани банкротства.

Nvidia завершила последний финансовый год уходящего тысячелетия ярко прибыль в размере $41.3 миллиона при общем обороте в $374.5 миллиона порадовала инвесторов. По сравнению с 1998 годом прибыль выросла на порядок, а общие обороты более чем вдвое. Вишенкой на торте для Дженсена Хуанга стал контракт с Microsoft на сумму $200 млн, в рамках которого NVidia разработала чип NV2 (графическое ядро для будущей консоли Xbox), увеличив общие активы компании до $400 млн при выходе на биржу в апреле 2000 года.

Конечно, в сравнение с $1.2 миллиардами оборота и $156 миллионами чистой прибыли ATI цифры набирающего обороты конкурента казались скромными, но канадский производитель видеокарт не почивал на лаврах, ведь щедрые контракты ОЕМ-рынка оказались под угрозой из-за выхода прогрессивной интегрированной графики от Intel чипсета 815.

А впереди было падение великих. И начало новой эры в гонке за производительностью.

Автор текста Александр Лис.

Продолжение следует...

Плейлист Графические войны на YouTube:
image
Подробнее..

Важнейшие вехи в истории развития систем видеонаблюдения

15.10.2020 20:21:55 | Автор: admin

Функции современных систем наблюдения давно вышли за рамки видеофиксации как таковой. Определение движения в зоне интереса, подсчет и идентификация людей и транспортных средств, ведение объекта в потоке сегодня на все это способны даже не самые дорогие IP-камеры. При наличии же достаточно производительного сервера и необходимого ПО возможности охранной инфраструктуры становятся практически безграничны. А ведь когда-то подобные системы не умели даже записывать видео.

От пантелеграфа до механического телевизора


Первые попытки передачи изображения на расстояние предпринимались еще во второй половине XIX века. В 1862 году флорентийский аббат Джованни Казелли создал устройство, способное не только передавать, но и принимать изображение по электрическим проводам пантелеграф. Вот только назвать этот агрегат механическим телевизором можно было лишь с очень большой натяжкой: фактически итальянский изобретатель создал прототип факсимильного аппарата.


Пантелеграф Джованни Казелли

Электрохимический телеграф Казелли функционировал следующим образом. Передаваемое изображение сперва конвертировали в подходящий формат, перерисовывая токонепроводящими чернилами на пластине станиоля (оловянной фольги), а затем фиксируя зажимами на изогнутой медной подложке. В роли считывающей головки выступала золотая игла, построчно сканирующая металлический лист с шагом 0,5 мм. Когда игла оказывалась над участком с непроводящими чернилами, цепь заземления размыкалась и ток подавался на провода, связывающие передающий пантелеграф с принимающим. В это же время игла приемника перемещалась над листом плотной бумаги, пропитанной смесью желатина и гексацианоферрата калия. Под действием электрического тока соединение темнело, за счет чего и формировалось изображение.

Такой аппарат обладал массой недостатков, среди которых необходимо выделить низкую производительность, потребность в синхронизации приемника и передатчика, от точности которой зависело качество итогового изображения, а также трудоемкость и дороговизну обслуживания, вследствие чего век пантелеграфа оказался чрезвычайно короток. Так, например, аппараты Казелли, использовавшиеся на телеграфной линии Москва Санкт-Петербург, проработали немногим более 1 года: будучи введенными в эксплуатацию 17 апреля 1866 года, в день открытия телеграфного сообщения между двумя столицами, пантелеграфы были демонтированы уже в начале 1868 года.

Куда более практичным оказался бильдтелеграф, созданный в 1902 году Артуром Корном на основе первого фотоэлемента, придуманного русским физиком Александром Столетовым. Устройство получило мировую известность 17 марта 1908 года: в этот день с помощью бильдтелеграфа из полицейского участка Парижа в Лондон была передана фотография преступника, благодаря которой полисменам впоследствии удалось вычислить и задержать злоумышленника.


Артур Корн и его бильдтелеграф

Подобный агрегат обеспечивал неплохую детализацию фотографического изображения и уже не требовал его специальной подготовки, однако для передачи картинки в реальном времени все еще не годился: на обработку одной фотографии уходило около 1015 минут. Зато бильдтелеграф неплохо прижился в криминалистике (его успешно использовала полиция для передачи снимков, фотороботов и отпечатков пальцев между отделениями и даже странами), а также в новостной журналистике.

Настоящий прорыв в данной сфере состоялся в 1909 году: именно тогда Жоржу Рину удалось добиться передачи изображения с частотой обновления 1 кадр в секунду. Поскольку телефотографический аппарат имел сенсор, представленный мозаикой из селеновых фотоэлементов, а его разрешающая способность составляла всего 8 8 пикселей, он так и не вышел за пределы лабораторных стен. Однако сам факт его появления заложил необходимую базу для дальнейших изысканий в сфере трансляции изображения.

По-настоящему преуспел на данном поприще шотландский инженер Джон Бэрд, который и вошел в историю, как первый человек, которому удалось осуществить передачу изображения на расстояние в режиме реального времени, поэтому именно его и принято считать отцом механического телевидения (да и телевидения в целом). Учитывая, что Бэрд едва не лишился жизни во время своих экспериментов, получив удар током в 2000 вольт во время замены фотоэлектрического элемента в созданной им камере, такое звание абсолютно заслуженно.


Джон Бэрд, изобретатель телевидения

В творении Бэрда использовался специальный диск, изобретенный немецким техником Паулем Нипковом еще в 1884 году. Диск Нипкова из непрозрачного материала с рядом отверстий равного диаметра, расположенных по спирали в один оборот от центра диска на равном угловом расстоянии друг от друга, применялся как для сканирования изображения, так и для его формирования на принимающем аппарате.


Устройство диска Нипкова

Объектив фокусировал изображение объекта съемки на поверхности вращающегося диска. Свет, проходя через отверстия, попадал на фотоэлемент, благодаря чему изображение конвертировалось в электрический сигнал. Поскольку отверстия были расположены по спирали, каждое из них фактически осуществляло построчное сканирование определенного участка изображения, сфокусированного объективом. Точно такой же диск присутствовал и в устройстве воспроизведения, однако позади него располагалась мощная электрическая лампа, воспринимающая колебания освещенности, а перед ним увеличительная линза или система линз, проецирующая изображение на экран.


Принцип работы механических телевизионных систем

Аппарат Бэрда использовал диск Нипкова с 30 отверстиями (как следствие, получаемое изображение имело развертку всего 30 линий по вертикали) и мог сканировать объекты с частотой 5 кадров в секунду. Первый успешный эксперимент по передаче черно-белого изображения состоялся 2 октября 1925 года: тогда инженеру удалось впервые транслировать с одного устройства на другое полутоновое изображение куклы чревовещателя.

Во время проведения эксперимента в дверь позвонил курьер, который должен был доставить важную корреспонденцию. Воодушевленный успехом Бэрд схватил обескураженного молодого человека за руку и провел в свою лабораторию: ему не терпелось оценить, как его детище справится с передачей изображения человеческого лица. Так 20-летний Вильям Эдвард Тэйнтон, оказавшись в нужное время в нужном месте, вошел в историю как первый человек, попавший в телевизор.

В 1927 году Бэрд провел первую телетрансляцию между Лондоном и Глазго (на расстояние 705 км) по телефонным проводам. А в 1928 году основанная инженером компания Baird Television Development Company Ltd успешно осуществила первую в мире трансатлантическую передачу телевизионного сигнала между Лондоном и Хартсдейлом (штат Нью-Йорк). Демонстрация возможностей 30-полосной системы Бэрда оказалась лучшей рекламой: уже в 1929 году ее взяла на вооружение BBC и успешно использовала в течение последующих 6 лет, вплоть до тех пор, пока ее не вытеснила более совершенная аппаратура на основе электронно-лучевых трубок.

Иконоскоп предвестник новой эры


Появлением электронно-лучевой трубки мир обязан нашему бывшему соотечественнику Владимиру Козьмичу Зворыкину. В годы Гражданской войны инженер принял сторону белого движения и бежал через Екатеринбург в Омск, где занимался оборудованием радиостанций. В 1919 году Зворыкин отправился в командировку в Нью-Йорк. Как раз в это время состоялась Омская операция (ноябрь 1919 года), итогом которой стало взятие города Красной армией практически без боя. Поскольку инженеру больше некуда было возвращаться, он остался в вынужденной эмиграции, став сотрудником компании Westinghouse Electric (в настоящее время CBS Corporation), уже тогда являвшейся одной из ведущих электротехнических корпораций США, где параллельно занимался изысканиями в сфере передачи изображения на расстояние.


Владимир Козьмич Зворыкин, создатель иконоскопа

К 1923 году инженеру удалось создать первое телевизионное устройство, в основу которого легла передающая электронная трубка с мозаичным фотокатодом. Однако новое начальство не воспринимало работы ученого всерьез, так что долгое время Зворыкину приходилось вести исследования самостоятельно, в условиях крайне ограниченных ресурсов. Возможность вернуться к полноценной исследовательской деятельности представилась Зворыкину лишь в 1928 году, когда ученый познакомился с другим эмигрантом из России Давидом Сарновым, занимавшим на тот момент пост вице-президента компании Radio Corporation of America (RCA). Найдя идеи изобретателя весьма перспективными, Сарнов назначил Зворыкина руководителем лаборатории электроники RCA, и дело сдвинулось с мертвой точки.

В 1929 году Владимир Козьмич представил рабочий прототип высоковакуумной телевизионной трубки (кинескопа), а в 1931 году завершил работу над принимающим устройством, названным им иконоскоп (от греч. eikon образ и skopeo смотреть). Иконоскоп представлял собой вакуумную стеклянную колбу, внутри которой были закреплены светочувствительная мишень и расположенная под углом к ней электронная пушка.


Принципиальная схема иконоскопа

Светочувствительная мишень размером 6 19 см была представлена тонкой пластиной изолятора (слюды), на одну сторону которой были нанесены микроскопические (размером в несколько десятков микрон каждая) серебряные капли в количестве около 1 200 000 штук, покрытые цезием, а на другую сплошное серебряное покрытие, с поверхности которого и снимался выходной сигнал. При освещении мишени под действием фотоэффекта капельки серебра приобретали положительный заряд, величина которого зависела от уровня освещенности.


Оригинальный иконоскоп в экспозиции Чешского национального музея техники

Иконоскоп лег в основу первых систем электронного телевидения. Его появление позволило значительно улучшить качество передаваемой картинки за счет многократного увеличения числа элементов в телевизионном изображении: с 300 400 точек в первых моделях до 1000 1000 точек в более совершенных. Хотя устройство не было лишено определенных недостатков, к числу которых необходимо отнести низкую чувствительность (для полноценной съемки требовалась освещенность не менее 10 тысяч люкс) и трапецеидальные искажения, вызванные несовпадением оптической оси с осью лучевой трубки, изобретение Зворыкина стало важной вехой в истории видеонаблюдения, во многом определив дальнейший вектор развития отрасли.

На пути от аналога к цифре


Как это часто бывает, развитию тех или иных технологий способствуют военные конфликты, и видеонаблюдение в данном случае не является исключением. В годы Второй мировой войны Третий рейх начал активную разработку баллистических ракет дальнего действия. Однако первые прототипы знаменитого оружия возмездия Фау-2 не отличались надежностью: ракеты частенько взрывались на старте или падали вскоре после взлета. Поскольку продвинутых систем телеметрии тогда еще в принципе не существовало, единственным способом определить причину неудач являлось визуальное наблюдение за процессом пуска, вот только дело это было крайне рискованным.


Подготовка к запуску баллистической ракеты Фау-2 на полигоне в Пенемюнде

Чтобы облегчить задачу разработчикам ракетного вооружения и не подвергать их жизни опасности, немецкий электротехник Вальтер Брух сконструировал так называемую CCTV-систему (Сlosed Circuit Television система телевидения замкнутого контура). Необходимое оборудование было установлено на полигоне в Пенемюнде. Творение немецкого электротехника позволило ученым наблюдать за ходом испытаний с безопасного расстояния в 2,5 километра, не опасаясь за собственные жизни.

При всех достоинствах система видеонаблюдения Бруха имела весьма существенный недостаток: в нем отсутствовало устройство видеофиксации, а значит, оператор не мог ни на секунду отлучиться со своего рабочего места. Серьезность данной проблемы позволяет оценить исследование, проведенное IMS Research уже в наше время. Согласно его результатам, физически здоровый, хорошо отдохнувший человек будет упускать из виду до 45% важных событий уже спустя 12 минут наблюдения, а через 22 минуты этот показатель достигнет отметки 95%. И если в сфере испытаний ракетного вооружения данный факт не играл особой роли, так как ученым не нужно было сидеть перед экранами несколько часов кряду, то применительно к охранным системам отсутствие возможности видеофиксации заметно сказывалось на их эффективности.

Так продолжалось вплоть до 1956 года, когда свет увидел первый видеомагнитофон Ampex VR 1000, созданный опять же нашим бывшим соотечественником Александром Матвеевичем Понятовым. Подобно Зворыкину, ученый принял сторону Белой армии, после поражения которой сперва эмигрировал в Китай, где на протяжении 7 лет проработал в одной из электроэнергетических компаний Шанхая, затем некоторое время жил во Франции, после чего в конце 1920-х годов переехал на постоянное жительство в США и получил в 1932 году американское гражданство.


Александр Матвеевич Понятов и прототип первого в мире видеомагнитофона Ampex VR 1000

В течение последующих 12 лет Понятов успел поработать в таких компаниях, как General Electric, Pacific Gas and Electric и Dalmo-Victor Westinghouse, однако в 1944 году принял решение основать собственное дело и зарегистрировал Ampex Electric and Manufacturing Company. Поначалу Ampex специализировалась на производстве высокоточных приводов для систем радиолокации, однако после войны деятельность компании была переориентирована на более перспективное направление производство устройств магнитной звукозаписи. В период с 1947 по 1953 год компания Понятова выпустила несколько весьма удачных моделей магнитофонов, нашедших применение в сфере профессиональной журналистики.

В 1951 году Понятов и его главные технические советники Чарльз Гинзбург, Вейтер Селстед и Мирон Столяров решили пойти дальше и разработать видеозаписывающее устройство. В том же году ими был создан прототип Ampex VR 1000B, использующий принцип поперечно-строчной записи информации вращающимися магнитными головками. Такая конструкция позволяла обеспечить необходимый уровень производительности для записи телевизионного сигнала с частотой несколько мегагерцев.


Схема поперечно-строчной записи видеосигнала

Первая коммерческая модель серии Apex VR 1000 увидела свет спустя 5 лет. На момент релиза устройство продавалось за 50 тысяч долларов, что по тем временам было огромной суммой. Для сравнения: вышедший в том же году Chevy Corvette предлагали всего за $ 3000, а этот автомобиль относился, на минуточку, к категории спорткаров.

Именно дороговизна оборудования в течение долгого времени оказывала сдерживающее влияние на развитие видеонаблюдения. Чтобы проиллюстрировать данный факт, достаточно сказать, что в ходе подготовки к визиту тайской королевской семьи в Лондон полиция установила на Трафальгарской площади лишь 2 видеокамеры (и это для обеспечения безопасности первых лиц государства), а по окончании всех мероприятий охранная система была демонтирована.


Королева Великобритании Елизавета II и принц Филипп, герцог Эдинбургский, встречают короля Таиланда Пхумипона и королеву Сирикит

Появление функций приближения, панорамирования и разворота по таймеру позволило оптимизировать расходы на построение охранных систем за счет сокращения количества устройств, необходимых для контроля территории, однако реализация подобных проектов все еще требовала немалых денежных вложений. Так, например, разработанная для города Олеан (штат Нью-Йорк) городская система видеонаблюдения, введенная в эксплуатацию в 1968 году, обошлась городским властям в 1,4 миллиона долларов, а на ее развертывание ушло 2 года, и это при том, что вся инфраструктура была представлена лишь 8 видеокамерами. И разумеется, ни о какой круглосуточной записи речи тогда не шло: видеомагнитофон включался лишь по команде оператора, ведь и пленка, и само оборудование были слишком дорогими, и об их эксплуатации в режиме 24/7 не могло быть и речи.

Все изменилось с распространением стандарта VHS, появлением которого мы обязаны японскому инженеру Сидзуо Такано, работавшему в компании JVC.


Сидзуо Такано, создатель формата VHS

Формат предполагал использование азимутальной записи, при которой задействуются сразу две видеоголовки. Каждая из них записывала одно телевизионное поле и имела рабочие зазоры, отклоненные от перпендикулярного направления на одинаковый угол 6 в противоположные стороны, что позволяло снизить перекрестные помехи между соседними видеодорожками и значительно уменьшить промежуток между ними, повысив плотность записи. Видеоголовки располагались на барабане диаметром 62 мм, вращающемся с частотой 1500 оборотов в минуту. Кроме наклонных дорожек видеозаписи, вдоль верхнего края магнитной ленты записывались две дорожки звукового сопровождения, разделенные защитным промежутком. Вдоль нижнего края ленты записывалась управляющая дорожка, содержащая кадровые синхроимпульсы.

При использовании формата VHS на кассету писался композитный видеосигнал, что позволяло обойтись единственным каналом связи и существенно упростить коммутацию между принимающим и передающим устройствами. Кроме того, в отличие от популярных в те годы форматов Betamax и U-matic, где использовался U-образный механизм заправки магнитной ленты с поворотной платформой, что было характерно и для всех предыдущих кассетных систем, формат VHS был основан на новом принципе так называемой М-заправки.


Схема М-заправки магнитной пленки в кассете VHS

Извлечение и заправка магнитной ленты осуществлялись при помощи двух направляющих вилок, каждая из которых состояла из вертикального ролика и наклонной цилиндрической стойки, определяющей точный угол захода ленты на барабан вращающихся головок, который обеспечивал наклон дорожки видеозаписи к базовому краю. Углы захода и схода ленты с барабана были равны углу наклона плоскости вращения барабана к основанию механизма, благодаря чему оба рулона кассеты находились в одной плоскости.

Механизм М-заправки оказался более надежным и помогал снизить механическую нагрузку на пленку. Отсутствие поворотной платформы упрощало изготовление как самих кассет, так и видеомагнитофонов, что благоприятно отражалось на их себестоимости. Во многом благодаря этому VHS одержал уверенную победу в войне форматов, сделав видеонаблюдение по-настоящему доступным.

Видеокамеры также не стояли на месте: на смену устройствам с электронно-лучевой трубкой пришли модели, выполненные на базе ПЗС-матриц. Появлением последних мир обязан Уилларду Бойлу и Джорджу Смиту, работавшим в AT&T Bell Labs над полупроводниковыми накопителями данных. В ходе своих исследований физики обнаружили, что созданные ими интегральные микросхемы подвержены действию фотоэлектрического эффекта. Уже в 1970 году Бойл и Смит представили первые линейные фотоприемники (ПЗС-линейки).

В 1973 году серийный выпуск ПЗС-матриц разрешением 100 100 пикселей начала компания Fairchild, а в 1975 году Стив Сассон из компании Kodak создал на базе такой матрицы первый цифровой фотоаппарат. Однако им совершенно невозможно было пользоваться, поскольку процесс формирования изображения занимал 23 секунды, а его последующая запись на 8-миллиметровую кассету длилась в полтора раза дольше. К тому же в качестве источника питания для камеры использовались 16 никель-кадмиевых батарей, и весило все это добро 3,6 кг.


Стив Сассон и первый цифровой фотоаппарат Kodak в сравнении с современными мыльницами

Основной же вклад в развитие рынка цифровых камер внесла корпорация Sony и лично Кадзуо Ивама, возглавлявший в те годы Sony Corporation of America. Именно он настоял на инвестировании огромных средств в разработку собственных ПЗС-чипов, благодаря чему уже в 1980 году компания представила первую цветную ПЗС-видеокамеру XC-1. После смерти Кадзуо в 1982 году на его могиле была установлена надгробная плита с вмонтированной в нее ПЗС-матрицей.


Кадзуо Ивама, президент Sony Corporation of America в 70-х годах XX века

Ну а сентябрь 1996 года ознаменовался событием, которое по важности можно сравнить с изобретением иконоскопа. Именно тогда шведская компания Axis Communications представила первую в мире цифровую камеру с функциями веб-сервера NetEye 200.


Axis Neteye 200 первая в мире IP-камера

Даже на момент релиза NetEye 200 сложно было назвать видеокамерой в привычном смысле этого слова. Устройство уступало своим собратьям буквально по всем фронтам: его производительность варьировалась от 1 кадра в секунду в формате CIF (352 288, или 0,1 Мп) до 1 кадра за 17 секунд в 4CIF (704 576, 0,4 Мп), причем запись сохранялась даже не в отдельном файле, а в виде последовательности JPEG-изображений. Впрочем, главной фишкой детища Axis была вовсе не скорость съемки и не четкость картинки, а наличие собственного RISC-процессора ETRAX и встроенного Ethernet-порта 10Base-Т, что позволяло подключать камеру напрямую к роутеру или сетевой плате ПК как обычное сетевое устройство и управлять ею с помощью поставляемых в комплекте Java-приложений. Именно это ноу-хау заставило кардинально пересмотреть свои взгляды многих производителей систем видеонаблюдения и на долгие годы определило генеральный вектор развития индустрии.

Больше возможностей больше затраты


Несмотря на бурное развитие технологий, даже по прошествии стольких лет финансовая сторона вопроса остается одним из ключевых факторов при проектировании систем видеонаблюдения. Хотя НТП и поспособствовал значительному удешевлению оборудования, благодаря чему сегодня собрать систему, аналогичную той, что установили в конце 60-х в Олеане, можно буквально за пару сотен долларов и пару часов реального времени, подобная инфраструктура уже не способна удовлетворить многократно возросшие потребности современного бизнеса.

Во многом это объясняется смещением приоритетов. Если раньше видеонаблюдение использовалось лишь для обеспечения безопасности на охраняемой территории, то сегодня главным драйвером развития индустрии (по оценке Transparency Market Research) является ретейл, которому такие системы помогают решать разнообразные маркетинговые задачи. Типичный сценарий определение коэффициента конверсии на основе сведений о числе посетителей и количестве клиентов, прошедших через кассовые стойки. Если добавить сюда систему распознавания лиц, интегрировав ее с действующей программой лояльности, то получим возможность исследования поведения покупателей с привязкой к социально-демографическим факторам для последующего формирования персонализированных предложений (индивидуальных скидок, бандлов по выгодной цене и т. д.).

Проблема заключается в том, что внедрение подобной системы видеоаналитики чревато существенными капитальными и операционными затратами. Камнем преткновения здесь является распознавание лиц покупателей. Одно дело сканирование лица анфас на кассе при бесконтактной оплате, и совсем другое в потоке (в торговом зале), под разными углами и в разных условиях освещения. Здесь достаточную эффективность способно продемонстрировать лишь трехмерное моделирование лиц в реальном времени с использованием стереокамер и алгоритмов машинного обучения, что приведет к неизбежному росту нагрузки на всю инфраструктуру.

Учитывая это, компания Western Digital разработала концепцию Core to Edge storage for Surveillance, предложив клиентам исчерпывающий набор современных решений для систем видеорегистрации от камеры до сервера. Сочетание передовых технологий, надежности, емкости и производительности позволяет выстроить гармоничную экосистему, способную решить практически любую поставленную задачу, и оптимизировать затраты на ее развертывание и содержание.

Флагманской линейкой нашей компании является семейство специализированных винчестеров для систем видеонаблюдения WD Purple емкостью от 1 до 18 терабайт.


Накопители пурпурной серии были специально разработаны для круглосуточной эксплуатации в составе систем видеонаблюдения высокой четкости и вобрали в себя последние достижения Western Digital в сфере производства жестких дисков.

  • Платформа HelioSeal

Старшие модели линейки WD Purple емкостью от 8 до 18 ТБ выполнены на основе платформы HelioSeal. Корпуса этих накопителей абсолютно герметичны, а гермоблок заполнен не воздухом, а разреженным гелием. Снижение силы сопротивления газовой среды и показателей турбулентности позволило уменьшить толщину магнитных пластин, а также добиться большей плотности записи методом CMR благодаря повышению точности позиционирования головки (с применением Advanced Format Technology). Как следствие, переход на WD Purple обеспечивает прирост емкости до 75% в тех же стойках, без необходимости масштабирования инфраструктуры. Помимо этого, накопители с гелием оказываются на 58% энергоэффективнее в сравнении с обычными HDD за счет снижения потребляемой мощности, необходимой для раскрутки и вращения шпинделя. Дополнительная экономия обеспечивается благодаря сокращению затрат на кондиционирование: при одинаковой нагрузке WD Purple оказывается холоднее аналогов в среднем на 5C.

  • Технология AllFrame AI

Малейшие перебои во время записи могут привести к потере критически важных видеоданных, что сделает невозможным последующий анализ полученной информации. Чтобы это предотвратить, в прошивку дисков пурпурной серии была внедрена поддержка опционального раздела Streaming Feature Set протокола ATA. Среди его возможностей необходимо выделить оптимизацию использования кэша в зависимости от количества обрабатываемых видеопотоков и управление приоритетом исполнения команд чтения/записи, благодаря чему удается минимизировать вероятность пропуска кадров и появление артефактов изображения. В свою очередь, инновационный набор алгоритмов AllFrame AI обеспечивает возможность эксплуатации винчестеров в системах, обрабатывающих значительное число изохронных потоков: диски WD Purple поддерживают одновременную работу с 64 камерами высокой четкости и оптимизированы для высоконагруженных систем видеоаналитики и Deep Learning.

  • Технология Time Limited Error Recovery

Одной из распространенных проблем при работе с высоконагруженными серверами является спонтанный распад RAID-массива, вызванный превышением допустимого времени исправления ошибок. Опция Time Limited Error Recovery помогает избежать отключения HDD в случае, если тайм-аут выходит за рамки 7 секунд: чтобы этого не случилось, накопитель подаст RAID-контроллеру соответствующий сигнал, после чего процедура коррекции будет отложена до момента простоя системы.

  • Система мониторинга Western Digital Device Analytics

Ключевые задачи, которые приходится решать при проектировании систем видеонаблюдения, увеличение периода безотказного функционирования и сокращение времени простоя вследствие неисправности. С помощью инновационного программного комплекса Western Digital Device Analytics (WDDA) администратор получает доступ ко множеству параметрических, операционных и диагностических данных о состоянии накопителей, что позволяет оперативно выявлять любые проблемы в работе системы видеонаблюдения, заранее планировать техническое обслуживание и своевременно выявлять жесткие диски, подлежащие замене. Все перечисленное помогает существенно повысить отказоустойчивость охранной инфраструктуры и минимизировать вероятность утраты критически важных данных.

Специально для современных цифровых камер Western Digital разработала линейку высоконадежных карт памяти WD Purple. Расширенный ресурс перезаписи и стойкость к негативным воздействиям внешней среды позволяют использовать данные карточки для оборудования как внутренних, так и внешних камер видеонаблюдения, а также для эксплуатации в составе автономных охранных систем, в которых microSD-карты играют роль основных накопителей данных.


На данный момент серия карт памяти WD Purple включает в себя две продуктовые линейки: WD Purple QD102 и WD Purple SC QD312 Extreme Endurance. В первую вошли четыре модификации флеш-накопителей объемом от 32 до 256 ГБ. По сравнению с потребительскими решениям, WD Purple были специально адаптированы под современные цифровые системы видеонаблюдения за счет внедрения целого ряда важных усовершенствований:

  • влагостойкость (изделие способно выдержать погружение на глубину до 1 метра в пресную или соленую воду) и расширенный диапазон рабочих температур (от -25 C до +85 C) позволяют одинаково эффективно использовать карты WD Purple для оснащения как внутридомовых, так и уличных устройств видеофиксации независимо от погодных и климатических условий;
  • защита от воздействия статических магнитных полей с индукцией до 5000 Гс и устойчивость к сильной вибрации и ударам вплоть до 500 g полностью исключают вероятность утраты критически важных данных даже в случае повреждения видеокамеры;
  • гарантированный ресурс в 1000 циклов программирования/стирания позволяет многократно продлить срок службы карт памяти даже в режиме круглосуточной записи и, таким образом, существенно сократить накладные расходы на обслуживание системы безопасности;
  • функция удаленного мониторинга помогает оперативно отслеживать состояние каждой карты и эффективнее планировать проведение сервисных работ, а значит, дополнительно повысить надежность охранной инфраструктуры;
  • соответствие классам скорости UHS Speed Class 3 и Video Speed Class 30 (для карт объемом от 128 ГБ) делает карты WD Purple пригодными для использования в камерах высокого разрешения, включая панорамные модели.

Линейка WD Purple SC QD312 Extreme Endurance включает в себя три модели: на 64, 128 и 256 гигабайт. В отличие от WD Purple QD102, эти карты памяти способны выдержать значительно большую нагрузку: их рабочий ресурс составляет 3000 циклов P/E, что делает данные флеш-накопители идеальным решением для эксплуатации на особо охраняемых объектах, где запись ведется в режиме 24/7.
Подробнее..

Перевод Жесткие диски сделали точное машиностроение привычным делом

14.10.2020 14:07:29 | Автор: admin


Современные накопители на жёстких магнитных дисках (НЖМД) интересным образом совмещают в себе кульминацию достижений точного машиностроения в массовом производстве и самую презираемую технологию хранения данных. Несмотря на такие нелестные прозвища, как вращающаяся ржавчина, большая часть дисков умудряется всю жизнь вращать чрезвычайно гладкие магнитные пластины в нескольких нанометрах от записывающих и читающих головок. Кронштейны последних, в свою очередь дёргают соленоиды, способные расположить головку точно над микроскопической магнитной дорожкой за несколько миллисекунд.

Несмотря на то, что уже много десятилетий на один квадратный миллиметр пластин умудряются впихивать всё больше и больше этих магнитных дорожек, а головки чтения и записи постоянно заменяются на всё более сложные, надёжность НЖМД постоянно растёт. В отчёте за второй квартал 2020 года от компании Backblaze, занимающейся хранением данных, видно, что ежегодный процент отказа их НЖМД значительно уменьшился по сравнению с прошлым годом.

Вопрос в том, значит ли это, что НЖМД со временем будут становиться ещё надежнее, и как новые технологии вроде MAMR и HAMR смогут повлиять на этот процесс в ближайшие десятилетия.

От мега- до тера-



Внутренний механизм и его пятьдесят пластин на 610 мм НЖМД IBM 350

Первые НЖМД начали продавать в 1950-х. На IBM 350 можно было записать 3,75 МБ, и у него было пятьдесят дисков диаметром 24" (610 мм) в шкафчике размерами 15217274 см. Сегодня самые передовые НЖМД в форм-факторе 3,5" (14,710,22,6 см) могут вместить до 18 ТБ с использованием обычной (не черепичной) технологии записи.

Тарелки в IBM 350 крутились со скоростью 1200 об/мин. Новые НЖМД концентрируются на уменьшении размера пластин и увеличении скорости вращения шпинделя (5400 15 000 об/мин). Среди других улучшений размещение головок чтения и записи ближе к поверхности пластины.

IBM 1301 DSU (Disk Storage Unit) 1961 года стал значительной новинкой он использовал отдельные кронштейны с головками для чтения и записи для каждой из пластин. Ещё одна инновация использовала аэродинамику головки находились в свободном полёте над поверхностью пластин, поддерживаемые воздушной подушкой, что давало возможность сильно уменьшить расстояние от них до поверхности.

Спустя 46 лет разработки, в 2003-м IBM продала свой бизнес НЖМД компании Hitachi. К тому времени ёмкость дисков возросла в 48 000 раз, а объём сильно уменьшился. В 29 161 раз. Потребление энергии упало с 2,3 кВт до 10 Вт (у настольных моделей), а стоимость мегабайта упала с $68 000 до $0,002. В то же время количество пластин уменьшилось от десятков до максимум парочки.

Храним больше данных в меньшем объёме



Внутренности 1 Seagate MicroDrive

Миниатюризация всегда была главной целью всех областей будь то механика, электроника или вычислительные технологии. Громадные ламповые или релейные компьютерные монстры 1940-х и 1950-х превратились в менее громадные транзисторные системы, а потом в современные стройные чудеса на базе ASIC. Технология хранения претерпела те же изменения.

Управляющая электроника НЖМД испытала на себе все преимущества увеличения популярности цепей VLSI, а также всё увеличивавшейся точности и уменьшения энергопотребления у сервомоторов. Плотность записи на единицу площади росла с развитием материаловедения, благодаря которому появлялись всё менее тяжёлые и более гладкие пластины (стеклянные или алюминиевые), а качество магнитного покрытия улучшалось. Мы всё лучше разбирались в свойствах отдельных компонентов (корпуса ASIC, паяльные сплавы, соленоиды, аэродинамика кронштейнов, и т.п.), и постепенно на смену революциям пришли инкрементальные улучшения.


Шесть открытых НЖМД размером от 8" до 1"

Хотя к экстремальной миниатюризации НЖМД пытались подступиться уже два раза (1,3" HP Kittyhawk microdrive в 1992 и 1" Microdrive в 1999), в конце концов рынок остановился на форм-факторах 3,5" и 2,5". Форм-фактор Microdrive рекламировали как альтернативу карточкам CompactFlash, использовавшим технологию NAND Flash альтернативу с большей ёмкостью и практически бесконечным количеством перезаписей, что хорошо подходило для встраиваемых систем.

Как и в других областях, физические ограничения на скорость записи и время случайного доступа приводят к тому, что НЖМД оказываются полезнее всего там, где важны большие объёмы хранилища за небольшие деньги, а также высокая надёжность. В итоге рынок НЖМД оптимизировался для настольных и серверных компьютеров, а также для целей видеонаблюдения и резервного копирования (соревнуясь с плёнкой).

Разбираемся в причинах отказа НЖМД


Хотя принято считать, что слабым местом НЖМД являются их механические части, в отказах могут быть виноваты различные причины, а именно:

  • Человеческая ошибка;
  • Отказ оборудования, как механического, так и электронного;
  • Повреждение прошивки;
  • Внешние факторы (жара, влажность);
  • Питание.

НЖМД присваивается величина допустимого физического воздействия при отключении питания или во время работы (когда пластины крутятся, а головки не запаркованы). Если превысить эту величину, могут повредиться соленоиды, двигающие кронштейны, или головка может удариться о поверхность пластины. Если не превышать эти значения, тогда основной причиной отказа будет служить естественный износ, степень которого определяется числом MTBF (Mean time between failures, "средняя наработка на отказ").

MTBF выводится путём экстраполяции из наблюдаемого износа по прошествии определённого времени. MTBF для НЖМД обычно составляет от 100 000 до 1 млн часов, и чтобы проверить работу привода за весь этот период, ему нужно было бы оставаться включённым от 10 до 100 лет [не совсем так вот более правильное объяснение / прим. перев.]. Это число предполагает, что НЖМД работает в рекомендованных условиях.

Очевидно, если подвергать НЖМД резким ударам (уронить его на бетонный пол) или перепадам питания (скачки напряжения, электростатические разряды), это сократит его жизнь. Менее очевидными будут дефекты производства, которые могут найтись у любого продукта, поэтому у большинства продуктов есть приемлемый процент отказов.

Дело не в вас, дело в производственной линии




Несмотря на большие показатели MTBF и очевидные попытки компании Backblaze сделать всё, чтобы её 130 000 НЖМД счастливо крутились всю жизнь, а потом попали в рай для НЖМД (обычно через металлический шредер), компания сообщила, что в первом квартале 2020 ежегодная вероятность сбоев (AFR) составила 1,07%. К счастью, это самый низкий показатель в компании с тех пор, как она начала публиковать отчёты в 2013-м. К примеру, в первом квартале 2019 года AFR равнялся 1,56%.

Как мы уже упоминали, во время производства и установки интегральных схем могут появиться недочёты, которые проявят себя уже во время работы НЖМД. Со временем такие вещи, как электромиграция, тепловой и механический стресс могут вызвать отказы в цепях, от разрыва проводников проволочной разварки внутри корпуса ИС, до износа точек пайки или цепей внутри ИС из-за электромиграции (особенно в результате электростатических разрядов).

Механические компоненты НЖМД зависят от допусков точного машиностроения, а также от правильной смазки. В прошлом могла возникнуть проблема залипания головок, когда свойства смазки со временем менялись, пока кронштейны не теряли возможность выйти из запаркованного положения. На сегодня улучшение смазки более-менее решило эту проблему.

И всё же на каждом производственном шаге есть вероятность появления недостатков, которые в итоге накапливаются, и могут испортить красивый блестящий показатель MTBF, переводя продукт на нехорошую сторону графика вероятности отказов (имеющего форму "ванны"). Эту кривую характеризует ранний пик процента отказов, вызванный серьёзными дефектами на производстве, после чего количество отказов спадает, пока график не приблизится к концу времени жизни устройства.

Заглядывая вперёд




Сегодняшние НЖМД наглядно отражают, насколько повзрослел процесс производства многие старые проблемы, преследовавшие их в последнее десятилетие, решены или обойдены. Какие-то серьёзные инновации, вроде перехода к приводам, заполненным гелием, пока не дали значительного прироста в эффективности или надёжности. Другие изменения, такие, как переход от ПМЗ, перпендикулярной магнитной записи, к HAMR, термомагнитной записи, не должны сильно повлиять на время жизни НЖМД, за исключением каких-либо проблем, связанных с самой технологией.

По сути, будущее технологии НЖМД кажется по-хорошему скучным для всех, кому нравится хранилище большого объёма за небольшие деньги, которое должно продержаться хотя бы лет десять. Базовые принципы НЖМД, то есть, хранение магнитных ориентаций на пластине, можно перенести даже на отдельные молекулы. Такие инновации, как HAMR, должны увеличить долговременную стабильность этих магнитных ориентаций.

Это огромное преимущество НЖМД перед NAND Flash, использующей маленькие конденсаторы для хранения зарядов, и метод записи, физически их повреждающий. Там физические ограничения гораздо более жёсткие, и они привели к созданию более сложных конструкций, типа флэш-памяти четырехуровневой ячейки (QLC), которой приходится различать 16 разных величин напряжения в каждой из ячеек. Эта сложность привела к тому, что накопители на основе QLC во многих случаях работают едва быстрее НЖМД на 5400 об/мин, особенно когда дело касается задержки.

Замедление вращения


Первым НЖМД, который я использовал в своём собственном компьютере, был Seagate на 20 или 30 МБ в IBM PS/2 (386SX), который мой отец отдал мне после того, как они на работе перешли на новые ПК видимо, им надо было освободить место на складе. Во времена MS-DOS этого хватало для ОС, кучки игр, WordPerfect 5.1 и много чего ещё. К концу 90-х это был уже смехотворный объём, и когда дело касалось НЖМД, мы рассуждали уже о гигабайтах.

Несмотря на то, что с той поры я сменил множество ПК и ноутбуков, у меня пока что умирали только твердотельные накопители. Это, а также показатели индустрии как те отчёты от Backblaze вселяют в меня уверенность в том, что новые НЖМД будут крутиться ещё достаточно долго. Возможно, когда память типа 3D XPoint станет достаточно дешёвой и объёмной, ситуация поменяется.

А до тех пор, вращайтесь себе.
Подробнее..

Перевод FTP исполнилось почти 50 лет и ему пора на пенсию

20.10.2020 16:06:30 | Автор: admin

Возможно, протокол передачи файлов FTP и был когда-то одним из столпов раннего интернета. Но после 50 лет повсеместного использования его уход на покой, пожалуй, уже неизбежен




Пока вы пытались перестроить всю свою жизнь так, чтобы уместить её в своей крохотной квартирке в начале коронавирусного кризиса, вы могли пропустить эту небольшую новость: из-за того, что вирус повлиял практически на все сферы жизни, компания Google решила пропустить выпуск 82-й версии Chrome.

Кому какое дело, спросите вы? До этого есть дело пользователям FTP протокола передачи файлов.

Во время пандемии Google отложила планы убийства FTP, и недавно, когда всё более-менее успокоилось, компания объявила о возврате к намерению убрать поддержку протокола в 86-й версии Chrome, и полностью убить его в 88-й версии.

Mozilla рассказала о похожих планах для браузера Firefox, ссылаясь на соображения безопасности и возраст кода.

Это один из самых старых протоколов, всё ещё поддерживаемых популярными приложениями в интернете в следующем году ему стукнет 50 но эти приложения уже готовятся отказаться от него.

Давайте углубимся в историю FTP, сетевого протокола, продержавшегося дольше любого другого.

1971


Именно в этом году Абхай Бушан, студент магистратуры из MIT, родившийся в Индии, впервые разработал FTP. FTP появился через два года после telnet, и был одним из первых примеров рабочего набора приложений для сети, известной тогда под названием ARPANET ещё до появления электронной почты, Usenet и даже стека TCP/IP. FTP, как и telnet, до сих пор можно кое-где использовать, однако в современном интернете он потерял популярность в основном из-за проблем с безопасностью. Его место занимает зашифрованная альтернатива SFTP протокол передачи файлов, работающий на базе протокола SSH, по большей части заменившего telnet.

Возможно, неудивительно, что из всех программ, написанных для ранней сети ARPANET, именно FTP проложил себе дорогу в современность.

Причиной этому служат его базовые возможности. По сути, это инструмент, занимающийся передачей данных между хостами. Однако секрет его успеха в том, что он в своё время практически устранил различия хостов. Бушан писал в своей RFC-заявке, что самой большой проблемой использования telnet в то время было то, что все хосты были немножко разными.

Различия в характеристиках терминалов обрабатываются системными программами хостов в соответствии со стандартными протоколами, пояснял он, цитируя как telnet, так и протокол удалённого запуска задач того времени. Однако вам, чтобы пользоваться удалёнными системами, необходимо разбираться в их особенностях.


Терминал телетайпа из эпохи ARPANET

Придуманный им FTP пытался сгладить все проблемы прямого подключения к серверу при помощи подхода, названного им непрямым использованием, позволявшего удалённую передачу файлов или запуск программ. Подход Бушана к протоколу, потомки которого используются и по сей день, использовал структуру директорий для того, чтобы понять различия между отдельными системами.

В RFC Бушан писал:
Я попытался представить протокол пользовательского уровня, который позволит пользователям компьютеров и программ не напрямую использовать удаленные хосты. Протокол облегчает не только операции с файловой системой, но и выполнение программ на удаленных хостах. Это делается через определение запросов, которые обрабатываются взаимодействующими процессами. Ориентация последовательности транзакций обеспечивает большую уверенность и облегчает контроль ошибок. Понятие типов данных вводится для облегчения интерпретации, реконфигурации и хранения простых и ограниченных форм данных на отдельных хостах. Протокол легко расширяется.


В интервью одному из подкастов Бушан отметил, что он занялся разработкой этого протокола, поскольку ощущал необходимость в приложениях у многообещающей сети ARPANET, в частности в электронной почте и FTP. Эти самые ранние приложения стали строительными блоками современного интернета, и за прошедшие десятилетия претерпели значительные изменения.

Из-за ограниченных возможностей компьютеров той эпохи, как отметил Бушан, функциональность электронной почты была встроена в FTP сообщения и файлы передавались при помощи этого протокола в более легковесном формате, и четыре года FTP технически исполнял роль электронной почты.

Поэтому мы подумали почему бы не добавить в FTP пару команд, mail и mail file? Mail это обычные текстовые сообщения, mail file это вложение файла в сообщение, это то, что у нас есть сегодня, сказал он в интервью.

Естественно, Бушан был не единственным человеком, оставившим свой след в этом раннем фундаментальном протоколе. Бушан в итоге ушёл от работы учёного, получив место в компании Xerox. Созданный им протокол продолжал расти и развиваться уже без него, претерпел несколько обновлений в 1970-х и 1980-х годах через последовательность RFC, включая и реализацию с поддержкой TCP/IP.

С тех пор он претерпел несколько небольших изменений, призванных поддерживать его в актуальном состоянии и добавлявших поддержку более новых технологий, современная версия FTP появилась в 1985 году, когда Джон Постел и Джойс Рейнолдс разработали RFC 959, обновление предыдущих протоколов, являющихся основой современных программ, поддерживающих FTP. Примерно в то же время Постел и Рейнолдс также принимали участие в разработке системы доменных имён. В документе новая версия описывалась, как попытка исправить некоторые небольшие ошибки в документации, улучшить объяснение некоторых особенностей протокола, и добавить несколько необязательных команд. Но при этом именно эта версия задержалась надолго.

Из-за возраста протокола у FTP есть множество слабых мест, часть из которых вылезают и по сей день. К примеру, передача директории с кучей маленьких файлов идёт чрезвычайно неэффективно передача больших файлов проходит гораздо лучше, поскольку протокол ограничивает количество отдельных соединений.

Поскольку протокол появился так давно, он во многом определил многие последующие протоколы. Его можно сравнить с чем-то, что часто скачкообразно обновляется в течение десятилетий допустим, с баскетбольной обувью. Конечно, кеды Converse All-Stars до сих пор можно считать хорошей обувью, и они могут хорошо показать себя в определённых условиях и сегодня, однако для профессиональных баскетболистов, скорее всего, лучше подойдёт что-нибудь от Nike с брендом Air Jordan.

FTP это кеды Converse All-Star интернета. Он передавал файлы ещё до того, как это стало круто, и до сих пор сохранил часть тех эмоций.

Никто не зарабатывал с интернета никаких денег это была, скорее, денежная дыра. Мы сражались в праведной борьбе. Мы видели его потенциал. Но если кто-то говорит вам, что мог предсказать будущее, он врёт. Я лично был там.

Алан Эмтейж, создатель первого поискового сервиса Archie, рассуждает в интервью блогу Internet Hall of Fame на тему того, почему его изобретение, позволившее пользователям искать файлы на анонимных FTP-серверах, не сделало его богатым. Если кратко, в то время интернет был некоммерческим, и Эмтейж, аспирант и сотрудник техподдержки монреальского университета Макгилла, использовал школьную сеть для работы Archie, причём без разрешения. Но так поступать было круто, рассказал он. Как говорится, легче просить прощения, чем разрешения. Эмтейж, как и Бушан, эмигрант он родился и рос на Барбадосе, а в Канаду приехал благодаря выдающейся успеваемости.



Почему FTP возможно, последняя связь с остатками прошлого, всё ещё существующего в онлайне


Несколько лет назад я писал, что если взять старую книжку про интернет, и попытаться пройти по указанным там ссылкам, то с наибольшей вероятностью описанные программы удастся скачать с крупного корпоративного FTP, поскольку подобные сайты редко исчезают.

Крупные технологические компании типа Hewlett-Packard, Mozilla, Intel и Logitech, десятилетиями использовали подобные сайты для распространения документации и драйверов среди конечных пользователей. По большей части эти сайты до сих пор работают, раздавая годами хранящийся там контент.

Во многих случаях эти сайты могут быть полезны, если у вас есть необходимость скачать что-то реально старое, типа драйвера или документации (мне это помогло, когда я подключал свою Connectix QuickCam).


Как сегодня выглядит FTP в браузере: ftp.logitech.com

В некоторых случаях ориентироваться на FTP бывает проще, чем на каком-нибудь сайте, поскольку интерфейс FTP последовательный и правильно работает. Через многие веб-интерфейсы бывает кошмарно сложно продраться, когда вам нужно просто скачать драйвер. Однако у простоты есть и обратная сторона FTP не так хорошо работает с современными стандартами, и выглядит более убого, чем современные методы передачи файлов.

Как я писал в прошлом году, на эти FTP-сайты всё сложнее заходить, поскольку компании уходят от этой модели или просто закрывают их.

В той статье было интервью с Джейсоном Скоттом из организации Internet Archive; они пытаются сохранять эти винтажные FTP-сайты, ведь любой из них может отключиться в любой момент.

Скотт тогда отметил, что долговременное существование этих FTP уже считается исключением из правила.

Очень странно, что у этих FTP-сайтов бывает инерция по 15-20 лет, и что они могли всё это время работать в неприкосновенности, сказал он.

И если одна из главных функций FTP-сайтов уходит в историю, возможно, их полное закрытие остаётся лишь вопросом времени. Рекомендую, пока этого не случилось, порыться в каком-нибудь из них, и посмотреть, какие странные штуки можно там отыскать. Мы уже не живём в мире, в котором можно просто порыться в директориях публичных компаний, и даже сегодня этот опыт остаётся интересным.

FTP, как технология, опередившая время, сегодня притягивает критическую массу бизнес-пользователей, считающих передачу файлов через электронную почту ужасно неэффективной или непрактичной в случае больших документов.

так говорится в статье журнала Network World за 1997 год, где доказывается, что несмотря на все недостатки FTP, это всё равно был нормальный вариант для многих удалённых работников и корпоративных пользователей. Конечно, статья была написана заинтересованным лицом Роджер Грин был президентом компании Ipswitch, крупного производителя программ для работы с FTP однако его аргументы в то время были справедливы. Это был отличный способ передавать крупные файлы по сетям и хранить их где-то на сервере. Проблема в том, что протокол FTP, пусть он и улучшался со временем, в итоге обогнали более сложные альтернативы как протоколы (BitTorrent, SFTP, rsync, git, даже современные варианты HTTP), так и облачные решения типа Dropbox или Amazon Web Services.

Когда-то давно и у меня был свой FTP-сервер. В основном я делился через него музыкой, учась в колледже в то время все студенты фанатели от музыкального обмена. У нас были очень быстрые каналы, благодаря чему это была идеальная среда для поддержки FTP-сервера.

Это был отличный способ делиться музыкальными вкусами с миром, но руководство университета в итоге прознало про обмен файлами и начало урезать пропускную способность и всё закончилось По крайней мере, я так думал. Потому что я летом подрабатывал в общежитии, и оказалось, что, когда все разъехались, ограничения канала перестали быть проблемой, и на пару месяцев я снова поднял свой сервер.


Panic Transmit, современный пример FTP-клииента. Многие современные клиенты поддерживают множество протоколов кроме старого доброго FTP.

В итоге я съехал, и FTP-сервер закрылся навсегда в любом случае, появились более эффективные альтернативы, типа BitTorrent, и более легальные, типа Spotify и Tidal. Сожалению ли я сегодня о моём сервере? Конечно. Но в то время я чувствовал, что реализую некий протест, иду против системы. Конечно, ничего такого на самом деле не было.

Как обмен файлами претерпел изменения по сравнению с теми безрассудными временами 15-летней давности, так и мы выросли из использования былых FTP-серверов. Мы обучились более эффективным и безопасным техникам удалённой работы с файлами. В 2004 году было общепринятой практикой работать с веб-сервером через FTP. Сегодня, когда инструменты типа Git позволяют эффективно контролировать версии, такой подход считается рискованным и неэффективным.

Несмотря на то, что в наше время даже главные браузеры избавляются от поддержки FTP, варианты работы с ними у нас всё равно будут. Никуда не денутся специализированные программы. Важно, что мы заменяем винтажный FTP-протокол по убедительной причине.

В отличие от IRC, потерявшего популярность из-за коммерческих инструментов, и Gopher, переставшего развиваться после внезапного перехода на коммерческую модель, FTP уходит на пенсию потому, что его возраст подчёркивает отсутствие в нём безопасной инфраструктуры.

Некоторые из наиболее популярных примеров использования FTP-серверов, вроде публичных хранилищ файлов, вышли из моды. Однако основные варианты использования FTP уже заменили более безопасные и современные их версии, типа SFTP.

Я уверен, что какой-нибудь человек на технической должности будет заявлять, что FTP не умрёт никогда, поскольку для него всегда найдётся какой-нибудь особый вариант использования. Ну и ладно. Но большинство людей, когда Chrome выпилит поддержку FTP из браузера, вряд ли найдут причину заходить на FTP.

Если удаление поддержки FTP из браузера ускорит уход протокола, то так тому и быть. Однако за эти 50 лет в той или иной форме он отлично нам послужил.
Подробнее..

Категории

Последние комментарии

© 2006-2020, personeltest.ru