Русский
Русский
English
Статистика
Реклама

Блог компании ит-град

CPM взлет и падение Гэри Килдалла

26.06.2020 20:05:42 | Автор: admin
История развития технологий полна неожиданностей, крутых поворотов. Побед и поражений, предательства и верности. Иногда, чтобы добиться успеха, нужно было всего лишь оказаться в нужном месте в нужное время. Или прислушаться к дружескому совету.

Сегодня мы расскажем вам о человеке, который мог быть мультимиллиардером, знаменитостью уровня Билла Гейтса, если бы в его жизни оказалось чуть больше везения. Этого человека звали Гэри Килдалл.

Возможно, вы не знаете это имя, но с большой долей вероятности видели или даже пользовались его детищем операционной системой CP/M. Современному пользователю ПК она практически неизвестна, однако в свое время эта ОС получила широчайшее распространение на десятках различных машин, включая ZX Spectrum (и его СНГ-клоны), Robotron и фирменный Commodore 128 (благодаря Zilog Z80 в качестве бортового сопроцессора). Многие из тех, кто пользовался компьютером под управлением CP/M в те годы, даже не задумывались, откуда она взялась.



Ранние годы


Карьера Килдалла началась в Монтерее, Калифорния. Он преподавал математику в военно-морской аспирантуре. Склонность к точным наукам подтолкнула его к программированию. Причина такой резкой смены деятельности, как ни странно, была в рекламе. Килдаллу на глаза попалось объявление о продаже четырехбитного микрокомпьютера на базе Intel 4004. Всего за $25 он приобрел устройство. Потенциал машины был невелик, изначально микропроцессор 4004 предполагался для использования в калькуляторах, однако и его хватило, чтобы Килдалл с головой погрузился в компьютеры и даже встретился с создателями процессора.

Уже в 1972 году он защитил докторскую диссертацию по компьютерным наукам и устроился в Intel консультантом. Качественное академическое образование, любовь к сложным задачам и предпринимательская жилка позволили Килдаллу в кратчайшие сроки добиться замечательных результатов.

По рассказам очевидцев, он был страстным любителем компьютеров и однажды решил научить своего сына программированию на LOGO. Подходящего интерпретатора под рукой не оказалось, и Килдалл написал его сам.

В начале 1970-х Килдалл разработал язык программирования PL/M, Programming Language for Microcomputers. Он был основан на достаточно популярном в те годы PL/1. Предполагалось, что высокоуровневый код программы изначально пишется на мэйнфрейме а-ля IBM-360, а затем транслируется в машинные коды нужного процессора. Более поздние версии PL/M уже содержались в ПЗУ Intellec-4, первого компьютера Intel.



Еще одна примечательная идея Килдалла, родившаяся у него в годы сотрудничества с Intel включать в комплект микрокомпьютера с Intel 8008 (Intellec-8) не только монитор, клавиатуру и считыватель перфолент, но и дисковод гибких магнитных дисков от Shugart. Вместе с университетским приятелем Килдалл в 1973 году разработал и успешно применил контроллер дисководов. Кстати, по одной из версий, именно остроумному Килдаллу мы обязаны появлением слова флоппи-привод.

Разработка и судьба CP/M


В 1970-х программное обеспечение для компьютеров разрабатывалось индивидуально. Нетрудно догадаться, что такой подход не мог не раздражать предприимчивого и амбициозного программиста. Благодаря некоторым техническим доводкам Intellec-8 стал гораздо удобнее в работе, однако для того, чтобы превратить его в полноценную машину требовалась операционная система. Основой послужила предыдущая разработка PL/M.

Во главу угла Килдалл ставил кроссплатформенность и широкое применение единожды написанного софта. И не пытался ни с кем конкурировать: в те годы микропроцессоры использовались преимущественно для управления техникой, и сама идея построить на них полноценный компьютер казалась новой и интересной. Весьма странной кажется позиция Intel: они с радостью купили у Килдалла PL/M, а к CP/M остались полностью равнодушны. Возможно, потому что не рассчитывали на то, что их Intellec-8 обретет достаточную популярность, чтобы покупка стала рентабельной. Intel пошли своим путем и прочно заняли рынок производства микропроцессоров, а Килдалл решил продолжить работу над ОС и продавать её самостоятельно.

Современники Килдалла пишут, что одним из факторов, предопределивших его дальнейшую судьбу, был возраст. В среднем, он был на 10-15 лет старше, чем многие из тех, кого мы сейчас знаем в качестве отцов-основателей эры ПК. Он выбивался из своего поколения, но не мог найти единомышленников среди молодежи.

Вместе с женой, Дороти, в 1976 году он открыл компанию Intergalactic Digital Research. Несмотря на такое громкое название, штат поначалу состоял всего из двух человек, а головной офис был размещен в доме Килдаллов в Калифорнии. В 1977 году компания была переименована в Digital Research Inc. (DRI).


Гэри Килдалл с женой Дороти

Это был колоссальный успех. Копии CP/M расходились быстрее горячих пирожков, а компанию Килдалла даже обвиняли в монополизме. Уже к концу 1970-х микрокомпьютеры крупнейших игроков рынка вовсю пользовались CP/M. Среди них были IMSAI 8080, North Star и Osborne. Примечательно, что в то же самое время небольшая компания Билла Гейтса и Пола Аллена Traf-O-Data, занимавшаяся сбором данных о трафике на дорогах, также активно пользовалась CP/M. По некоторым данным, к 1980 году было продано более 250 тысяч копий CP/M.



Об IMSAI стоит сказать отдельно. В те годы эта компания фактически эксклюзивно на рынке поставляла полностью укомплектованные клоны Altairа. В 1977 году они приобрели у Килдалла лицензию на поставку CP/M, и это еще больше поспособствовало её распространению на рынке. Килдалл неотвратимо процветал, богател и развивал свою операционную систему. Так, именно в CP/M впервые была внедрена вытесняющая многозадачность, появился выделенный BIOS. Многие разработанные Килдаллом алгоритмы и принципы в том или ином виде используются по сей день.


CP/M на Altair 8800

Между тем, эпоха микрокомпьютеров уже подходила к концу. Их понемногу начинали вытеснять персональные компьютеры. Началось всё с Apple I, который в 1976 году выпустила компания Steve Wozniak and co. Всего за три года рынок ПК раздулся до миллиарда долларов, и на сцене наконец появились IBM.



Руководство одной из крупнейших технических компаний США прекрасно понимало: рынок принадлежит молодым, и единственный способ победить это дать пользователям нечто целостное, быстрое и удобное. Гейтс, который был на короткой ноге со многими влиятельными лицами IBM, порекомендовал им обратить внимание на ОС Гэри Килдалла, поскольку у Microsoft на тот момент создание своей ОСи было только в планах. Руководство IBM и Microsoft, тем не менее, подписали договор о неразглашении, согласно которому сотрудники Microsoft не имели права даже упоминать IBM в разговоре.

В начале статьи мы написали: иногда просто стоит оказаться в нужное время в нужном месте. Расскажем одну из легенд, которая косвенно объясняет смерть CP/M и возвышение MS-DOS. Правда это или нет достоверно сказать нельзя. Каждая из сторон трактует историю по-своему, поэтому проще будет принять действительность, а не рассуждать, о том, каким мог бы быть мир, если бы победила другая сторона.

По легенде, Гейтс позвонил Килдаллу и заговорщицким шепотом сообщил, что в ближайшие дни ему стоит ожидать Очень Важных Гостей. Для Очень Важного Разговора. Напрямую сказать, что IBM собираются сделать ему предложение века, он не мог. NDA не позволял даже упоминать конечного заказчика. Гейтс искренне полагал, что искушенный Килдалл поймет, о ком идет речь. Но, по всей видимости, Гэри отнесся к словам коллеги со скепсисом. Поэтому в день, когда на пороге его дома оказались гости из IBM, он преспокойно летал на частном самолете, поручив все дела жене.

Дороти и юридический отдел DRI встретили визитеров и как могли презентовали им CP/M. Так или иначе, впечатлить или хотя бы заинтересовать IBM у них не получилось. История закончилась тем, что жене Килдалла и его сотрудникам также пришлось подписать неприятный договор о неразглашении, а сама сделка сорвалась. Правда, у самого Килдалла на тот момент не было 16-разрядной версии CP/M, поэтому полностью удовлетворить IBM он не мог.

Тут-то и настал звездный час Microsoft. Пожав плечами, Билл Гейтс ухватился за эту возможность. Да, собственной ОС у его компании на тот момент все еще не было. Но это вовсе не значило, что стоит терять такой куш. Отчасти благодаря собственным заслугам, отчасти благодаря связям матери Билл Гейтс получил контракт на поставку операционной системы для первого персонального компьютера IBM.

Гейтс, в свою очередь, обратился к Seattle Computers, выпускающей клон ОС Килдалла. Основатель компании, Тим Патерсон, разработал свою собственную версию CP/M 86-DOS. Как он рассказывал позже, для копирования оригинальной CP\M было достаточно скопировать API-вызовы из официальной документации, так что ничего противоправного он не совершал. Система имела массу багов и недоделок, поэтому на внутреннем сленге называлась Q-DOS (Quick and Dirty Operating System). Система была переименована в PC-DOS и презентована IBM. В дальнейшем на её основе была создана известная всем читателям MS-DOS. Подробнее о хитросплетениях интриг, закрутившихся вокруг CP/M и Билла Гейтса, вы можете прочитать в этой статье.

Гэри был в ярости. Из-за собственной беспечности он упустил блестящую возможность взойти на Олимп мира персональных компьютеров. Даже бог с ним, с Олимпом, вместо того, чтобы подождать и честно купить 16-битную версию ОС у него, Microsoft обратилась к его прямым конкурентам.

IBM же, предчувствуя бурление скандала на почве авторских прав, поступили мудро. Для работы с IBM PC были лицензированы обе ОС: и PC-DOS, и CP/M, а победителя должен был выбрать рынок.



Следующий приступ гнева у Килдалла случился, когда IBM начали рекламировать свои компьютеры. Согласно ценам, указанным в рекламе, PC-DOS продавался за $40, в то время как CP/M Килдалла у официальных распространителей стоила уже $240. По слухам, шестикратная разница в цене была намеренной попыткой припомнить Килдаллу, как он не явился на ту роковую встречу.

В DRI началась стагнация. Какое-то время компания пыталась держаться если не вровень, то ходя бы не на два корпуса позади Microsoft. Килдалл даже разработал собственный графический интерфейс, GEM, однако в преддверие выпуска Windows Microsoft не давала ему возможности полноценно продавать свои разработки.



Жизнь Килдалла кардинально изменилась после неудачного контракта с IBM. В течение следующего десятилетия системы развивались параллельно и имели совместимость друг с другом, отчасти поэтому DR-DOS (новое название CP/M с 1987 года) кое-как продолжала продаваться. Но в 1991 году вышла Windows 3.1, которая уже не была совместима с DR-DOS Килдалла. Всего за год продажи просели на порядок. В 1991 году Килдалл продал свою компанию Novell, надеясь под её крылом дать отпор Microsoft. Но и эта попытка провалилась: Novell DOS уже не мог потягаться с MS-DOS и Windows.

В жизни Килдалла появился новый спутник алкоголь. Он растерял все свои профессиональные контакты и перестал появляться в качестве соведущего на популярной ТВ-программе The Computer Chronicles, которую вел уже более 5 лет.

О последних месяцах жизни Килдалла известно не слишком многое. Он все еще был более чем состоятельным человеком. Владел большой коллекцией спортивных автомобилей, недвижимостью, но интерес и страсть к технике, которыми он жил долгие годы, ушли.
В июле 1994 года, в возрасте 52-х лет он при невыясненных обстоятельствах погиб во время драки в байкерском баре. В 2016 году с разрешения детей Гэри была опубликована часть его мемуаров.

Послесловие


История расставила всех по своим местам. Кто-то безвестен и забыт. Кто-то миллиардер, филантроп и самый желанный тайный Санта в мире.

Гэри Килдалл многое сделал для того, чтобы компьютеры стали такими, какими мы их знаем сегодня. Один из великого множества людей, о которых нам хотелось бы рассказать в этом блоге.

Нельзя умалять заслуги талантливых людей, даже если они проиграли войну за рынок. И ни в коем случае нельзя винить победителей в их провале.
Подробнее..

Перевод Остин Рош реальная история первого ПК

23.07.2020 20:24:01 | Автор: admin
Прим. редактора: статья датирована 2008 годом, поэтому некоторые даты потеряли свою актуальность.

В этом году исполняется сорок лет со дня изобретения одного почти забытого устройства, ставшего впоследствии первым персональным компьютером. Удивительно, но события, описанные в статье, имели место вовсе не в Калифорнии.

Эпоху ПК x86 принято отсчитывать с 1972 года, с момента, когда Intel Corp. разработала чип 8008, 8-битного преемника 4-битного 4004. Последний был создан годом ранее и вошел в историю как первый в мире микропроцессор.

Но на деле история чуть сложнее и интереснее. Во-первых, биография x86 началась на 4 года раньше, еще в 1968 году. Её основоположник ныне почти забытый инженер Остин Рош из Сан-Антонио. Он горел идеей создания персонального компьютера.


Основатели CTC

Во-вторых, Intel приступила к производству процессоров крайне неохотно, а 8008 вовсе не является прямым потомком 4004. Это были два совершенно разных проекта.


Intel 4004

Мы поговорили с промышленным дизайнером Джоном Джеком Фрассанито, главой John Frassanito & Associates Inc. Когда Остин Рош набросал первые чертежи своего компьютера прямо на скатерти клуба в Сан-Антонио, Фрассанито был поражен. Дело было в 1968 году. Тогда Джон работал аккаунт-менеджером у легендарного дизайнера Рэймонда Лоуи (который помимо всего прочего придумал бутылку Coca-Cola и Studebaker Avanti).

Фрассанито пригласили в Computer Terminal Corp. (CTC) для помощи в разработке первого продукта компании. Планировалось создать электронную замену Teletype Model 33. CTC тогда только-только открылась, а её основателями были инженеры НАСА Фил Рэй и Остин Рош.

По прибытии в Сан-Антонио Фрассанито с удивлением узнал, что проект телетайпа это всего лишь легенда, чтобы получить от инвесторов деньги на создание персонального компьютера.

Тайная повестка дня


При написании бизнес-плана решили избегать термина персональный компьютер, поскольку банкиры понятия не имели, что это такое, вспоминает Фрассанито. Таким образом, их первый продукт базировался на уже существующем устройстве. Но идея заключалась в том, чтобы создать первую фирму по производству персональных компьютеров.

Они построили терминал Datapoint 3300. Это дало CTC статус действующей компании, и можно было приступать к настоящему проекту, которым Рош был буквально одержим. Фрассанито вспоминает, как часами они спорили о том, как должен выглядеть и работать персональный компьютер. Рош имел привычку объясняться метафорами из классических произведений, таких как Государь Макиавелли, что вынуждало Фрассанито их читать.


Терминал Datapoint 3300 в естественной среде обитания

Чтобы рынок не испугался появления новой машины, CTC рекламировали её под видом устройства, которое заменит перфокартную IBM 029. Даже дисплей их ПК был уменьшен вдвое, чтобы походить на обыкновенную перфокарту IBM. Чтобы машина казалась привычной даже простым офисным служащим, её шрифт мимикрировал под оттиски печатной машинки IBM Selectric.


IBM 029

Однако корпус компьютера-прототипа страдал от перегрева. В конце 1969 и начале 1970-х годов инженеры CTC изучали способы уменьшения количества компонентов. Одной из идей было разместить плату CPU внутри небольшого чипа.

На сцене появляется Intel


В 1970 году Фрассанито сопровождал Роша на встрече с главой Intel Бобом Нойсом. Они пытались склонить Intel, тогда еще совсем молодую компанию, производящую микросхемы памяти, к созданию процессорных чипов. Рош предложил Нойсу разработать революционный чип за свой счет, а затем поставлять его всем желающим, включая CTC.
Нойс был заинтригован и сказал, что Intel может этим заняться. Однако шаг потенциально глупый, вспоминает Фрассанито. Он сказал: имея процессор, можно продавать по одному чипу для каждого компьютера. А микросхемы памяти продаются сотнями. Тем не менее, Нойс согласился разработать чип за $50000.



Роберт Нойс, сооснователь Intel

Воспоминания Фрассанито подтверждаются стенограммой группового интервью, которое в сентябре 2006 года проходило в Музее истории компьютеров. На нем присутствовало шесть человек, которые занимались разработкой или продвижением первых процессорных чипов Intel: Федерико Фаггин, Хэл Фини, Эд Гелбах, Тед Хофф, Стэн Мазор и Хэнк Смит. Руководство Intel не хотело, чтобы производители компьютеров считали их конкурентами. Появление у Intel собственного процессора могло привести к потере множества контрактов.

По их словам, этот страх держался вплоть до 1973 года. Работа над чипом для CTC под названием 1201 и вовсе была заморожена летом 1970-го после того, как CTC предпочли ему плату ЦП на TTL-схемах.

В Intel никто особенно не удивился этому решению. Архитектура процессора CTC могла занять до 16000 байт памяти, а если вы и так тратите кучу денег на память, то нет смысла экономить плюс-минус 50 долларов на процессоре, перемещая его из TTL. К 1972 году стоимость памяти слегка упала, 16 КБ на тот момент стоили порядка 1280 долларов (около 6700 долларов на современные деньги).

Дебют 2200


Настольный персональный компьютер CTC на базе TTL, получивший название Datapoint 2200, был представлен публике в 1970 году. В качестве устройства хранения в нем использовались кассеты. На них помещалось до 130 КБ данных. Еще 8 КБ были отведены под внутреннюю память. Первым покупателем ПК 25 мая 1970 года стала компания General Mills. В общей сложности они закупили 40 устройств.


Datapoint 2200

В лучших традициях маркетинговой модели IBM машины сдавались в аренду: 168 долларов в месяц за машину с 8КБ памяти и 148 долларов за 2КБ. Модемы продавались отдельно и стоили 30 долларов в месяц. ОЗУ не было, поэтому для внутренней памяти устройство использовало рециркуляционную память MOS.

Аарон Голдберг, в 1970-х годах работавший в IDC, а ныне вице-президент Ziff Davis Media Market Experts, отзывается о Datapoint 2200 как об одном из первых однопользовательских миникомпьютеров того же класса, что и IBM 5320. По его словам, это были продукты промышленного уровня. Они могли потеснить на этом рынке мэйнфреймы.


Рекламный плакат Datapoint

Intel тем временем выпустила свой 4-битный процессор Intel 4004. Компания планировала продавать его Busicom, японской фирме по производству калькуляторов. Контракт с Intel японцы заключили даже раньше, чем CTC, но работа над обоими проектами шла параллельно. Полгода спустя Seiko Holdings Corp., другая японская фирма, захотела получить чип 1201 для использования в научном калькуляторе. Intel возобновила работу над чипом CTC. Вынужденный простой сыграл свою роль: создатели 1201 перешли с 16-контактного корпуса на 18-контактный.

Надо сказать, руководство CTC вело переговоры не только с Intel. Другая компания, Texas Instruments Inc, также разрабатывала для них чип 1201. Но поставленный в 1970-1971 году чип 1201 от TI был неработоспособен, и проект свернули. Это была роковая случайность. TI использовала раннюю спецификацию, разработанную для CTC корпорацией Intel, но не учла того, что в ней могут быть ошибки.

Рабочий чип Intel 1201 был представлен CTC в конце 1971 года. К тому времени CTC уже вовсю работала над Datapoint 2200 II, который был бы намного быстрее и поддерживал жесткий диск. Однако руководство CTC сочло, что 1201 морально устарел. Общим голосованием Роша отстранили от проекта. Фрассанито вспоминает, как Рош побледнел от ужаса, узнав об этом решении. Интеллектуальная собственность на 1201 полностью перешла к Intel.

Intel получает права на 1201


Рош говорил, что идея напечатать целый компьютер на чипе поразительна и инновационна. Он был убежден, что нельзя никому отдавать права на эту разработку вспоминает Фрассанито. Но они сказали: зачем тратить 50 000 долларов на продукт, который мы не будем использовать? Это было одно из худших бизнес-решений в компьютерной истории.

4004 попал в каталог Intel в ноябре 1971 года и стал первым в истории коммерческим микропроцессором. 1201, переименованный в 8008, появился на рынке в апреле 1972 и продавался по цене 120 долларов за штуку. В отличие от 4004, 8008 мог использовать стандартную оперативную память и ПЗУ. Поскольку чип не составлял конкуренции производителям компьютеров, санкций с их стороны не последовало. Руководство Intel выдохнуло с облегчением.



В том же 1972 году Рошу, Рэю и Фрассанито был выдан Патент 224,415 на создание Datapoint 2200. Фактически это позволяет считать их создателями первого в мире ПК.
В 1974 году Intel выпустила чип 8080, основанный на той же архитектуре, что и 8008. Инженеры CTC поделились с Intel экспертизой, полученной во время работы над Datapoint 2200 II. Новый 40-контактный корпус позволил сократить количество вспомогательных микросхем.

Последовавшие за 8080 процессоры основали династию x86, а окончательно утвердил их на троне IBM PC 1981 года. Таким образом, любой современный персональный компьютер может считаться потомком Datapoint 2200.
Я смотрю на современные ПК и вижу в них призрак той самой первой машины. Он таится внутри, среди множества новых штучек и новых регистров, Виктор Д. Пур, бывший исполнительный директор CTC.

Intel заработала на своей линейке x86 миллиарды долларов. Что касается CTC, в конце 1972 года она была переименована в Datapoint. Некоторые инженеры, работавшие над Datapoint 2200, позже участвовали в создании первой коммерческой локальной сети ARCnet (1977 год). К 1980-ом Datapoint пришла в упадок. Как и многие другие компании, выпускающие мини-компьютеры, она оказалась не в состоянии конкурировать с более дешевыми производителями ПК по иронии судьбы, прямыми потомками их детища. Компания Datapoint была окончательно упразднена в 2000 году.


Рош погиб в автомобильной катастрофе в 1975 году, Рэй скончался в 1987-ом, а Нойс в 1990-ом. Фрассанито ушел из Datapoint и открыл собственную фирму в 1975-ом.
А Datapoint 2200 ни дня не использовался в качестве замены IBM 029.
Подробнее..

Перевод Забытый криотронный компьютер Дадли Бака

07.08.2020 18:11:02 | Автор: admin
В 1950-х годах аспирант Массачусетского технологического института убеждал инженеров создавать компьютеры с использованием сверхпроводящих магнитных переключателей вместо ламп или транзисторов.

Изобретение Бака пережило творца. Более того, оно живо и по сей день: криотрон лежит в основе проектов IBM по созданию сверхпроводящих кубитов.

Тем не менее, десятилетия работы над криотроном затерялись на страницах истории компьютеростроения. Многие современные инженеры даже не слышали об этой технологии. Давайте поговорим о работе Бака и его ныне забытом криотронном компьютере.



После Второй мировой войны перед инженерами-электронщиками стоял фундаментально важный вопрос: как нужно строить электронные цифровые компьютеры? Какой тип переключателей лучше всего подходит для логических схем? А что использовать для основной памяти?

Недолго думая, из множества вариантов они выбрали электронные лампы для использования в качестве основного логического переключателя. При этом, чтобы построить всего одну машину, требовались тысячи этих ламп. Транзисторы тогда всерьез никто не рассматривал они только-только были разработаны Bell Telephone Laboratories.

Вариантов памяти тоже было предостаточно: специальные электронно-лучевые и ртутные трубки, вращающиеся магнитные барабаны. К 1950-м появился еще один перспективный кандидат: магнитные сердечники. Одно кольцо, выполненное из ферромагнетика, могло содержать 1 бит данных в зависимости от того, в каком направлении оно было намагничено.

В середине 50-х мир первых вычислительных машин заселили ламповые мейнфреймы с памятью на магнитных сердечниках. Как известно, спустя какое-то время на смену лампам пришли транзисторы, а затем интегральные схемы, как для реализации логики, так и для памяти. Но в 1950-1960-х гг. различные группы инженеров искали принципиально новые пути для создания цифровых компьютеров.

Одним из самых примечательных радикальных ученых был Дадли Аллен Бак. Он работал в МТИ с 1950 по 1959 год вплоть до своей трагической смерти в возрасте 32 лет. Он успел сделать важный вклад в ранние исследования в области создания микросхем. Кроме того, ему принадлежит разработка криотрона сверхпроводящего переключателя. По мнению Бака, его детище должно было стать основным строительным блоком для всех цифровых компьютеров будущего. Ему поверили гиганты: GE, IBM, RCA и военные ведомства США. В конце 1950-х были развернуты крупные исследовательские проекты, посвященные криотрону. Завершились они только после того, как индустрия однозначно выбрала преемника ламп кремниевые микрочипы.


Сделано вручную: Бак создал множество прототипов, включая схему мультивибратора [крупный план, cверху], схема которого состоит из 19 отдельных криотронов [cнизу].



В 1948 году Дадли Бак получил степень бакалавра в области электротехники Вашингтонского университета. Его первым местом работы стала криптологическая организация ВМС США. Там он познакомился с первыми цифровыми компьютерами. В 1950 году он устроился в Массачусетский технологический институт и поступил в аспирантуру по электротехнике к физику Артуру фон Хиппелю. Баку довелось поучаствовать в проекте Whirlwind Массачусетского технологического института технологического монстра, предназначенного для военных целей.

Джей Ласт, аспирант Бака в МТИ, впоследствии возглавивший команду создателей первой планарной кремниевой интегральной схемы Fairchild Semiconductor, вспоминает его как великого провидца и хорошего человека до неприличия хорошего. Подтверждение впечатлению Ласта можно найти в письме Бака, написанном в 1954 году, когда ему было всего 27 лет:
У меня есть приемный сын. Из своих 17 лет 4 он прожил со мной. 6 лет я был скаутмастером, а теперь хожу в методистскую церковь. Иногда по воскресеньям я даже встаю за кафедру. Я одинаково люблю работать и с человеческими, и с инженерными ценностями.

Несмотря на богатую социальную и личную жизнь, Бак с огромной отдачей продолжал работать в МТИ. В проекте Whirlwind он подбирал материалы для изготовления магнитных сердечников. Помимо этого, он находился в постоянном поиске материалов, которые можно было применить в качестве основы для переключателей нового поколения.

А 1952 году внимание Бака привлек химический элемент висмут, известный сильным магнитным сопротивлением: его удельное электрическое сопротивление резко возрастает в ответ на магнитное поле, особенно при низких температурах. При температуре кипения жидкого гелия (4,2 кельвина) электрическое сопротивление висмута изменяется в десятки миллионов раз при приложении сильного магнитного поля. Такое поведение может быть полезно для сборки компьютеров подумал Бак. Относительно небольшой ток в контрольном проводе и создаваемое им магнитное поле могут вызвать огромное изменение удельного сопротивления висмута, внезапно запретив или позволив току проходить через него. Это будет настоящий электронный переключатель!

К 1954 году Бак обратил внимание на еще более интересное свойство электромагнетизма, обнаруженное при низких температурах жидкого гелия: сверхпроводимость. Это явление, хотя и своеобразное, уже было изучено ранее. С начала XX века физикам было известно, что при охлаждении до температур, близких к температуре кипения жидкого гелия, различные металлы полностью теряют свое электрическое сопротивление.

Сверхпроводимость также имеет магнитный аспект, известный как эффект Мейснера. На сверхпроводящий материал не действуют магнитные поля но лишь до определенного момента. Если приложить достаточно сильное магнитное поле, материал почти мгновенно переходит в резистивное состояние. Если магнитное поле убрать, материал возвращается в сверхпроводящее состояние.

Бак увидел потенциал этого явления для электронных цифровых компьютеров: можно создать сверхпроводящий переключатель с магнитным управлением. Это изобретение могло уложить и лампы, и магнитные сердечники на лопатки! Сверхпроводящий переключатель может быть очень компактным, быстрым и энергоэффективным.

Бак в духе футуризма 1950-х назвал свое изобретение криотроном смесь слов cryo (, греч. ледяной холод, мороз) и electronics. Но придумать технологию и дать ей имя было мало. Бак моментально приступил к строительству и тестированию десятков прототипов.

Первые криотроны Бака были до умопомрачения просты. Состояли они из отрезка танталовой проволоки в тугой медной обмотке. К концам медной и танталовой проволоки были подключены электрические выводы, и криотрон погружался в контейнер с жидким гелием.

По медной обмотке шел ток, что создавало магнитное поле. Бак мог сделать танталовую проволоку как сверхпроводимой, так и вернуть ей сопротивление. Прототипы оказались рабочими. Совсем небольшой ток в обмотке позволял управлять гораздо большим током в танталовой проволоке. Криотрон Бака функционировал как логический переключатель цифрового компьютера не хуже ламп и транзисторов.

Бак был захвачен перспективой создания нового устройства. В своей магистерской диссертации он предполагал создание целых массивов криотронов. Бак считал, что даже из его простых прототипов можно построить цифровой компьютер, где криотроны будут использоваться и для логики, и для памяти. Однако существовала одна проблема: скорость переключения криотрона была лишь ненамного выше, чем у электромеханического реле.

В поисках лучшего Бак перепробовал огромное количество различных материалов. Комбинация свинцовой обмотки с ниобием, например, давала время переключения 5 микросекунд. Неплохо, но все же намного медленнее, чем у самых быстрых транзисторов того времени они переключались в 100 раз быстрее. По мнению Бака, уменьшив физический размер криотрона, можно было достичь производительности не ниже, чем у самых быстрых транзисторов.

Соединив вместе несколько прототипов криотрона, Бак успешно изготовил логический вентиль, триггер и усилитель с разветвителем. Выходит, что с помощью одних только криотронов можно собрать все основные схемы для цифровой компьютерной памяти и логики. Криотронный сверхпроводящий компьютер перестал быть идиллической мечтой.


Whirlwind: Бак надеялся, что однажды инженеры смогут уместить компьютер такой же мощности в корпус размером с хлебницу

На этом этапе исследовательская программа Бака всерьез расширилась. Он считал, что, используя методы микроминиатюризации, сможет создать компьютер, содержащий десятки тысяч криотронов. Машина Бака будет обладать вычислительной мощностью, сопоставимой с Whirlwind, одним из самых передовых цифровых компьютеров в мире. Но Whirlwind занимал несколько комнат и потреблял 150 киловатт электроэнергии.



28-летний инженер, по сути, предложил уменьшить Whirlwind до размеров радиоприемника, погрузить его в ванну с жидким гелием и запустить. По его словам, компьютер будет потреблять столько же, сколько обыкновенная лампочка на рождественской елке. Заявление смелое, однако энтузиазм молодого ученого и крепкая аргументация убедили коллег дать его проекту зеленый свет.

Исследования криотронов официально закрепили за Баком в лаборатории Линкольна Массачусетского технологического института. Продолжая работать над компактными, более быстрыми и энергоэффективными криотронами, он одновременно начал проект по созданию большой компьютерной памяти, для которой низкая скорость переключения уже существующих криотронов не имела бы значения.

Для памяти с адресацией по содержанию (позднейшее название) Бак предложил схему из 75 000 криотронов. Сам Бак назвал её recognition unit, так как каждая ячейка памяти проверялась на наличие в ней желаемой информации.

Такой вид памяти был полезен для криптоанализа, в котором важна идентификация шаблонов. Полностью собранный криотронный блок распознавания должен был быть не больше портфеля и при этом иметь сопоставимый с Whirlwind объем памяти 3,2 килобайта.

Когда в середине 1955 года Бак готовил патентную заявку на криотрон, слух о его работе по созданию адресуемой по содержанию памяти просочился в криптологические и компьютерные круги США, вызвав немалый ажиотаж. В июле того же года Джон Макферсон, вице-президент IBM и ведущий специалист в области электронных вычислений, написал Баку, что Уильям Фридман, главный криптолог АНБ, очень заинтересован в сверхпроводящих компонентах компьютера Бака. Спустя всего несколько дней криотрон (Magnetically Controlled Gating Element) был запатентован. В заявке содержался широкий список возможностей криотрона и вариантов применения его в компьютерах.

К этому моменту исследования Бака по криотрону вышли за пределы Массачусетского технологического института. Он подписал консалтинговое соглашение по технологии криотронов с исследовательской фирмой Arthur D. Little. Компания находилась в двух шагах от кампуса МТИ и в 1950-х годах была ведущим производителем криостатов для производства жидкого гелия. При спонсорской поддержке АНБ Бак и сотрудники из A.D. Little начали разработку криотронной памяти. Их первым совместным проектом был небольшой массив памяти для проверки концепции.

В 1955 году Бак сосредоточился на создании миниатюрных криотронов и интегрированных матриц с использованием тонких напыленных пленок. Вместо того, чтобы наматывать маленькие провода друг на друга, он хотел испарять металл через маску, похожую на трафарет, на подложку и создавать тонкий узор из сверхпроводящего материала. Поверх этой пленки напылялся второй, контролирующий слой. Это было нужно, чтобы печатать целые массивы криотронов.

В ходе подготовки Бак испытал множество материалов: сплавы свинца, висмута, стронция, индия и других элементов. В итоге ему удалось создать пленку из сплава свинец-висмут-стронций толщиной 100 нанометров. Она могла переключаться между сверхпроводящим и резистивным состояниями за 0,1 микросекунды, что было в десять раз меньше скорости самого быстрого транзистора того времени. Кроме этого, Бак разработал множество двоичных схем, которые можно было построить исключительно из криотронов триггеры, вентили, мультивибраторы, сумматоры и аккумуляторы.

После регистрации патента и завершения исследований Бак был готов объявить миру о криотроне. В ноябре 1955 года он представил доклад под названием Криотрон сверхпроводящий компьютерный компонент в Институт радиоинженеров, одну из организаций-предшественников IEEE. В статье Бак подробно описал криотрон с проволочной обмоткой и ряд основных цифровых схем, которые можно собрать с его помощью, подчеркивая значение этого сверхпроводящего устройства в вычислениях. Криотрон в его текущем состоянии может использоваться в качестве активного элемента в логических схемах, писал Бак. Не смог он удержаться и от смелого заявления о том, что в ближайшем будущем большой цифровой компьютер будет занимать всего один кубический фут и ему будет достаточно половины ватта мощности.

О скоростях криотронов Бак, напротив, писал весьма скромно: В настоящее время устройство работает несколько быстрее, чем электромеханические реле, но намного медленнее, чем электронные лампы и транзисторы. Мы работаем над увеличением скорости. Несмотря на то, что тонкопленочные криотроны, сопоставимые с транзисторами, уже были испытаны, Бак не торопился делиться этой информацией с общественностью.


Сравним размеры: Бак держит на ладони прототип криотрона, электровакуумную лампу и транзистор.

К моменту публикации статьи в Proceedings of the IRE (апрель 1956 г.) тонкопленочные криотроны уже проходили испытания. Под руководством Бака инженер АНБ Альберт Слэйд начал собственные исследования криотронных схем.

Примерно в это же время Бак представил фон Хиппелю тему для докторской диссертации исследование тонких пленок из сверхпроводящих материалов и способы управления их толщиной и геометрией для создания криотронов с быстрым переключением. Фон Хиппель одобрил тему и назвал её крайне многообещающей.

Вплоть до своей смерти в 1959 году Бак активно занимался разработкой интегрированных криотронных микросхем. Альберт Слейд перевелся из АНБ в Arthur D. Little специально, чтобы работать над криотронной памятью. Другой специалист АНБ, Гораций Тарп Манн, при поддержке Бака занялся изучением тонкопленочных криотронов. В 1957 году IBM и RCA запустили собственные программы, финансируемые АНБ, по разработке высокоскоростного тонкопленочного криотрона. GE тоже не осталась в стороне, начав внутренние исследования. Бак, все еще бывший аспирантом МТИ, впервые столкнулся с жесткой конкуренцией.

В свойственной ему манере Бак решил поставить перед собой еще более высокую цель. Он привлек к работе Кеннета Р. Шоулдерса, сотрудника лаборатории фон Хиппеля. Шоулдерс в то время занимался другой инновационной технологией: использованием электронных лучей для микромашиностроения, травления чрезвычайно маленьких микросхем. Эта технология, позднее названная электронно-лучевой литографией, использовалась при создании кремниевых микрочипов. В середине 1950-х Шоулдерс пытался создать электронное устройство меньше 100 нм даже мельче вируса и всего, что когда-либо делал человек. Амбиции Шоулдерса идеально совпадали с желанием Бака увеличить скорость криотронов за счет миниатюризации и создать из них крупномасштабные интегрированные массивы.

Они проработали вместе до середины 1958 года. Бак получил докторскую степень и должность доцента на кафедре электротехники МТИ, а Шоулдерс перешел в Стэнфордский исследовательский институт в Менло-Парке.

Подводя итог своему сотрудничеству, Бак и Шоулдерс представили доклад под названием Подход к микроминиатюрным печатным системам. Приближается тот день, когда цифровые компьютеры больше не будут производиться путем сборки тысяч индивидуально изготовленных деталей, писали они. Вместо этого весь компьютер или очень большая его часть, вероятно, будет изготавливаться единовременно.

Спустя всего пять месяцев после представления доклада Бак скоропостижно скончался. Последняя запись в его лабораторной записной книжке, датированная 18 мая 1959 года, описывает его попытку создать напыление из бора. 21 мая Бак умер от дыхательной недостаточности ему только-только исполнилось 32 года.

Современники склонялись к тому, что причиной смерти стала вирусная пневмония. Однако вполне вероятно, что виной всему его эксперименты с напылением. Как раз-таки 18 мая он работал с элементами, требующими особой осторожности. В качестве источника бора он использовал газообразный трихлорид бора. В процессе осаждения пленки образовался газообразный хлористый водород. Воздействие любого газа, не говоря уже смеси нескольких, может вызвать отек легких с симптомами, похожими на пневмонию. Если не считать общую программу университета, Бак не был профессиональным химиком и, возможно, не осознавал опасность. Или просто не имел достаточного стендового опыта, чтобы обращаться с этими газами безопасно. Так или иначе, для коллег смерть Бака стала трагедией.


Фрагмент доклада Бака 1956 года.

Исследования криотрона со смертью Бака не закончились. Активные работы продолжались до 1960-х годов. Манн, который работал над тонкопленочными криотронами в АНБ, устроился в лабораторию космических технологий TRW в Лос-Анджелесе. Там вплоть до 1966 года он занимался электронно-лучевой литографией для создания тонкопленочных криотронов. Сотрудники A.D. Little также продолжали разрабатывать криотронную память, пытаясь воплотить идею Бака.

GE, IBM и RCA в начале 1960-х годов разрабатывали микросхемы тонкопленочных криотронов, в частности, для создания памяти. К 1961 году исследователи GE построили рабочий интегрированный сдвиговый регистр из тонкопленочных криотронов. В сложности он не уступал кремниевым интегральным схемам того времени. А через два года криотронная микросхема GE превзошла кремниевые микрочипы по уровню интеграции. Ученые изготовили даже экспериментальный рабочий компьютер из трех массивов интегрированных криотронов.

Несмотря на все эти исследования, быстрое развитие кремниевых микрочипов в частности, их удешевление в 1960-х годах перекрыло прогресс в изучении криотронов. Новые компьютеры строились на кремниевых логических схемах с памятью на магнитных сердечниках. К середине 1960-х большинство исследователей криотронов окончательно переключили свое внимание на кремний.

Тем не менее, кто-то остался верен криотрону. Особый интерес для ученых представляли криотроны, в которых наблюдалось квантово-механическое явление, называемое эффектом Джозефсона. В начале 1970-х исследователи IBM создали модифицированные криотроны, известные как джозефсоновские переходы. Исследования по ним продолжались до 1980-х годов. А джозефсоновские переходы до сих пор являются краеугольным камнем современных исследований IBM и других компаний в области квантовых вычислений.

Криотрон никуда не исчез. Он все еще живет в разных обличиях и под разными именами в длинной тени кремниевого микрочипа. И кто знает, чего бы добился Бак, проживи он дольше.


Это была история о том, как инженер, проживший совсем короткую жизнь, проложил путь к будущему. Да, изобретенная им технология не нашла повсеместного применения. Но исследования в области сверхпроводящих материалов продолжаются и по сей день. Полвека спустя человечеству удалось не только построить квантовые компьютеры, но и дать доступ к вычислениям на них как исследователям, так и любителям благодаря облачным технологиям.

Например, Amazon Braket открывает доступ к квантовым вычислениям на трех суперкомпьютерах компаний Rigetti Computing, IonQ и D-Wave Systems. Microsoft запустила Azure Quantum, облачную экосистему с доступом к разнообразным квантовым ресурсам, включая аппаратные системы. Не стоит забывать и про IBM Quantum Experience, облачную платформу, которая позволяет подключиться к квантовому процессору IBM из любой точки мира.
Подробнее..

Перевод Человек, подчинивший себе половину частиц во Вселенной

24.09.2020 20:09:56 | Автор: admin

Мы живем буквально в преддверии эпохи квантовых компьютеров. Первые экспериментальные машины уже прямо сейчас доступны для тестирования благодаря облачным технологиям и об этом мы отдельно поговорим в конце статьи.

Но имя одного из крупнейших физиков XX века, плоды работы которого мы пожинаем сейчас, спустя 100 лет, часто остается за кадром. Шатьендранат Бозе мало кому известен за пределами родной страны. Западные СМИ вспоминают его исключительно в паре с Эйнштейном, ограничиваясь только фамилией.

Перед вами биография ученого из Индии, патриота и мыслителя. Он сделал для своей страны не меньше, чем его современница Ся Пейсу для Китая.

Страну создают не только её культура и традиции. Крупнейшие государства покоятся на плечах ученых, которые, подобно атлантам, закладывают фундамент для будущего процветания своих сограждан.

Человек, которому подчиняется половина частиц во Вселенной именно так однажды профессор физики представил Шатьендраната Бозе своим студентам. Бозе был ученым-энтузиастом. Эрудитом, заложившим основы статистики Бозе Эйнштейна и теории конденсата Бозе Эйнштейна.

Несколько крупных ученых получили Нобелевскую премию за исследования, связанные с областью науки, которую фактически открыл Бозе. Однако его самого премия обошла. Есть ли повод для грусти? Вряд ли. Титул повелителя половины частиц во вселенной сам по себе значит немало.

Ранние годы жизни

Шатьендранат Бозе родился 1 января 1894 года в Калькутте. Он был старшим сыном в большой и сравнительно небедной семье, у него было семь младших сестер. С малых лет Бозе проявлял недюжинные способности к учебе и жаждал знаний.

Его отец, Шурендранат, работал бухгалтером и всеми силами поощрял способности сына. Каждое утро, уходя на работу, он записывал на полу веранды домашнее задание для сына арифметические задачи. Бозе решал их и вечером с гордостью показывал готовые примеры отцу.

В возрасте 13 лет мальчика отдали в известную школу в Центральной Калькутте. Там способности Шатьендраната также не остались без внимания. Учителя признавали, что в области математики и естественных наук ему не было равных и это в престижной школе, где и преподаватели, и ученики были как на подбор.

В 1909 году, когда ему шел шестнадцатый год, Бозе принял решение пройти промежуточный курс естественных наук в Президентском университете.

А тем временем на Западе Альберт Эйнштейн уже был заслуженно известен своей специальной теорией относительности, опубликованной в 1905 году.

Преподавателями Шатьендраната в Президентском колледже были знаменитые Джагадиш Чандра Бос и сэр Прафулла Чандра Рэй. В 17 лет он успешно сдал промежуточные экзамены и спустя два года стал бакалавром наук в области математики. Стоит ли говорить, что Шатьендранат снова был лучшим в своем классе.

В 1915 году в возрасте 21 года Бозе стал магистром прикладной математики Калькуттского университета. При этом ему удалось установить абсолютный рекорд среднего балла 92%.

На Западе началась Первая мировая Война. Альберт Эйнштейн публикует общую теорию относительности.

Логичным продолжением карьеры любого ученого является получение докторской степени. Любого, но не Бозе. Это было бы слишком просто. Докторской диссертации он предпочел преподавание. С 1916 по 1921 год он читал лекции студентам физического факультета университета Калькутты.

Приблизительно в это время в руки Бозе попала только-только опубликованная общая теория относительности. Труд Эйнштейна очаровал Бозе настолько, что, заручившись помощью своего друга, он в кратчайшие сроки перевел научные работы Эйнштейна с немецкого языка на английский и опубликовал их сборник.

Отдельно отметим, что Бозе был полиглотом. Он хорошо знал множество языков. Среди них бенгали, английский, французский, немецкий и санскрит.

В том же 1921 году Эйнштейн был удостоен Нобелевской премии за заслуги в области теоретической физики. В частности за объяснение фотоэффекта. Это был поворотный шаг в развитии квантовой теории. И вряд ли во всей Индии нашелся бы более преданный фанат Эйнштейна, чем Бозе.

Прорыв

В том же году Бозе покинул родную Калькутту и устроился лектором на физическом факультете Университета Дакки (Бангладеш). Вот что он говорил о ситуации в университете в письме своему другу:

Прошло уже больше месяца со дня моего переезда в твою часть страны. Работа все еще не началась. В университете было ценных вещей, однако из-за тотальной халатности они пришли в удручающее состояние. Кроме того, мы страдаем от нехватки научной прессы. Руководство пообещало оформить несколько подписок и приобрести старые номера. Поговаривают даже об отдельной научной библиотеке

Благодаря стараниям Бозе в университете открылись новые кафедры и лаборатории в частности, продвинутые курсов для студентов факультетов физики и химии. Своим студентам Бозе читал лекции по термодинамике и классическому электромагнетизму.

Как раз во время одной из своих лекций Бозе почувствовал, что существующие выводы из закона излучения Планка неполны. После долгих раздумий и консультаций с коллегами Бозе опубликовал статью, в которой без использования классической физики он приходит к тем же результатам, что и сам Планк. Это был настоящий прорыв. Поначалу выведенная им формула была отвергнута учеными как радикальная и противоречащая консервативным научным взглядам. Но он не унывал. Вместо этого он отправил свою статью непосредственно Альберту Эйнштейну в Германию.

В каком-то смысле Бозе помог Эйнштейну возродить свою научную карьеру. Иронично пионер квантовой революции в начале 1920-х активно препятствовал ей. Письмо Бозе оказалось отрезвляющим глотком свежего воздуха и заняло внимание великого ученого.

Эйнштейн сразу же осознал, какое значение имеет письмо от молодого индийского физика. Его стараниями статья Бозе была переведена на немецкий и опубликована в Zeitschrift fr Physik, популярном немецком научном издании. Так родилась статистика Бозе Эйнштейна.

Эйнштейн был крайне впечатлен тем, что ради научного прогресса никому не известный молодой ученый из Индии решился отправить ему свою спорную статью. Позднее он писал Бозе: Ваша статья важный шаг вперед. И она мне очень нравится!.

Чем больше Эйнштейн размышлял о статье, тем сильнее она влияла на его мировоззрение. Причина, по которой работа Бозе дала точные результаты, крылась в том, что, поскольку фотоны неотличимы друг от друга, нельзя рассматривать любые два фотона с одинаковой энергией как два разных фотона. Это довольно простая для понимания мысль. Рассмотрим пример.

Вы одновременно подбрасываете две различимые и несмещенные монеты в воздух. Существует 4 возможных результата:

Вероятность того, что выпадет два орла составляет всего 1/4. Но все меняется, если сделать монеты неотличимыми друг от друга. В этой ситуации возможны уже три исхода: одновременно два орла, одновременно две решки и орел + решка. Таким образом, шанс выпадения двух орлов увеличивается до 1/3. В мире статистики Бозе вероятность возникновения тех или иных событий может отличаться от наших ожиданий.

Эйнштейн осознал важность этого предположения даже раньше, чем сам Бозе. Он воспринял идею индийского ученого и распространил её на атомы. Это позволило Эйнштейну предсказать существование феномена, известного нам как конденсат Бозе Эйнштейна.

Конденсат Бозе Эйнштейна это так называемое пятое состояние материи. В нем каждый атом становится неотличим от других, и образуется гигантский суператом. В обычном газе атомы находятся в беспорядочном движении с очень высокой скоростью, в то время как в случае с конденсатом Бозе Эйнштейна они остаются вместе в состоянии совершенной гармонии.

Только в 1995 году, спустя 70 лет после того, как было сделано это предсказание, ученым удалось обнаружить существование конденсата Бозе Эйнштейна.

Эта работа стала для Бозе ключом к сотрудничеству с самыми видными учеными Европы тех лет. Для этого он подал заявление на двухлетний отпуск. Университет отпустил Бозе только после того, как он показал вице-канцлеру университета благодарственное письмо от Эйнштейна.

По прибытии в Париж Бозе написал своему кумиру:

Университет предоставил мне двухгодичный отпуск. Всего неделю назад я впервые приехал в Париж. Не знаю, получится ли у меня продолжить свою работу под вашим руководством в Германии. Однако, если вы согласитесь стать моим руководителем, исполнится моя давняя мечта.

С нетерпением Бозе ждал, что Эйнштейн ответит на его просьбу. В то же самое время ему посчастливилось познакомиться с Марией Кюри и помочь ей провести некоторые измерения пьезоэлектрического эффекта. Затем Морис де Бройль лично ознакомил Бозе с дифракцией рентгеновских лучей и спектроскопией. Наконец, пришел ответ от Эйнштейна:

Искренне благодарен вам за письмо. Рад, что скоро у меня будет возможность познакомиться с вами лично.

Бозе отправился в Берлин. Поработать с самим Эйнштейном у него не вышло, однако встреча с мэтром принесла свои плоды. Эйнштейн написал для Бозе рекомендательное письмо. Это позволило ему познакомиться с лучшими немецкими учеными: Фрицем Габером, Лизой Мейтнер и Максом Борном.

В 1926 году Бозе вернулся в Дакку. Ему было 32 года, но без докторской степени он не мог претендовать на должность профессора. Ситуацию спасло все то же письмо Эйнштейна: Бозе был назначен главой факультета физики университета Дакки.

Знания, полученные в Европе, помогли Бозе реформировать университет. Он самостоятельно разработал оборудование для лаборатории рентгеновской кристаллографии. Построил массу других лабораторий, выбил у руководства бюджет на строительство библиотеки. Под его руководством также был открыт центр исследований в области унифицированных теорий поля. Вплоть до 1945 года Бозе продолжал активную работу на факультете.

Когда раздел Индии стал неизбежен, ему пришлось вернуться в Калькутту. Отделение Пакистана виделось ему огромной раной в сердце любимой страны. Из-за депрессии у Бозе не получалось сосредоточиться на научных изысканиях.

Он преподавал в родном городе до самой пенсии. Новаторские идеи принесли Бозе восхищенные отзывы Эйнштейна и коллег по цеху. Обеспечили место в пантеоне крупнейших ученых-физиков. Но мало кто знает о человеческих качествах Бозе. Он был не просто ученым, но человеком, который хотел постичь окружающий мир во всей его полноте, во всей сложности. И непосредственно научная работа была лишь малой частью его собственной вселенной.

Кроме того, он был страстным патриотом. Много сил он потратил на продвижение бенгальского как языка, на котором ведется преподавание. Бозе лично перевел десятки статей на бенгальский. Он считал своим долгом открыть науку своим соотечественникам на их родном языке.

Пенсия

В 62 года Бозе оставил работу и вышел на пенсию, получив статус почетного профессора. Последовали бесчисленные приглашения на крупные мероприятия и вечеринки. Бозе отвергал большую часть приглашений. Не хватало ставшего привычным удовольствия от науки. Постоянного поиска новых знаний и свершения открытий. Поэтому спустя короткое время он вернулся в Калькуттский университет и продолжил исследования в области ядерной физики, органической химии и единой теории поля. Здесь он был на своем месте.

Как раз в это время Поль Дирак, знаменитый физик, посетил Калькутту вместе со своей женой. Примечательна история одной из совместных поездок Бозе и Дирака.

Комфортное заднее сиденье в машине получили Дирак и его супруга. Крупный Бозе сел впереди, рядом с водителем. В попутчики Бозе взял двух своих учеников. Каким-то образом всем удалось разместиться рядом с Бозе на переднем сиденье. На удивленный вопрос о том, не тесновато ли им, Бозе рассмеялся и обезоруживающим тоном ответил: Мы верим в статистику Бозе-Эйнштейна. А, как пояснил Дирак удивленной жене, в статистике Бозе-Эйнштейна всё очень тесно связано.

Именно Дирак, ставший близким другом Бозе, предложил термин бозон в память о вкладе ученого в теоретическую физику.

В 1958 году Бозе избрали членом Лондонского Королевского Общества. Год спустя правительство назначило его национальным профессором. Бозе занимал эту должность вплоть до своей кончины. Как уже было сказано выше, Нобелевскую премию он так и не получил. Когда Бозе спросили, что он думает по этому поводу, он скромно ответил: Я получил всё признание, которого заслуживаю.

Он умер в Калькутте в возрасте 80 лет. С ним ушла целая эпоха. Без натяжки можно сказать, что Шатьендранат Бозе один из величайших физиков Индии. И не только на основании его научных достижений, но и потому что он искренне любил свою страну.

Новость вместо заключения

В самом начале статьи мы обещали, что еще вернемся к теме квантовых вычислительных систем. Современные технологии делают доступным то, что когда-то можно было увидеть только в крупных научных лабораториях. Уже не первый год существуют квантовые вычислительные системы, доступ к которым обеспечивается облачными решениями.

В начале сентября стало известно о еще одном перспективном проекте. Исполнит ли он собственные обещания или окажется очередным журналистским квантовым утенком, покажет время. Приведем здесь короткое описание канадского проекта Xanadu.

2 сентября компания Xanadu (Занаду) из Торонто объявила о запуске первой в мире общедоступной платформы фотонных квантовых вычислений. Клиенты платформы смогут получить доступ к 8-, 12- и (в ближайшем будущем) к 24-кубитным машинам через облако.

По словам Кристиана Уидбрука, основателя и генерального директора Xanadu, каждые шесть месяцев компания собирается удваивать количество кубитов в своих облачных системах. В ближайшие месяцы Xanadu планирует опубликовать документ о фотонных квантовых вычислений, который, по сути, будет представлять из себя учебник о том, как масштабироваться до миллионов кубитов.

Принцип работы Xanadu, квантовые вычисления с непрерывными переменными, не использует генераторы одиночных фотонов. Вместо них применяются так называемые сжатые состояния, состоящие из суперпозиций множества фотонов.

Подробнее..

Ральф Баер пиксель, пиксель, огуречик

27.10.2020 20:10:40 | Автор: admin

Технологии почти перестали нас удивлять. Мы скептически смотрим на облачный гейминг, воспринимаем грядущую эру 5G как нечто само собой разумеющееся. Рабочее место и сотни сервисов в облаке? Deep Fake? Суперкомпьютеры? Фу, ску-у-учно!

Но совсем недавно, каких-то 50 лет назад, простая движущаяся точка на экране приводила людей в восторг. Никаких звуков, а вместо фона полупрозрачная накладка на экран. Куда там Cyberpunkу!

Сегодня речь пойдет о Ральфе Баере изобретателе, подарившем нам мир компьютерных развлечений. Более полувека назад он изобрел саму концепцию игры на экране, придумал световой пистолет и впрочем, обо всем по порядку.

Ранние годы

Ральф Баер (Бауэр) родился 8 марта 1922 года в немецком городе Родальбен в еврейской семье. Его отец Лео трудился на местном обувном заводе шорником. Мать, Шарлотта Киршбаум, была домохозяйкой. Происхождение наложило немалый отпечаток на судьбу будущего изобретателя. В возрасте 11 лет из-за своих корней Ральф был вынужден покинуть школу и продолжить обучение на дому.

Спустя несколько лет Баерам удалось эмигрировать в Соединенные Штаты Америки буквально за несколько месяцев до Хрустальной ночи 1938 года, когда военизированные отряды СА разгромили сотни еврейских домов, магазинов и синагог по всей территории нацистской Германии.

В 1940 году Баер получил профессию радиотехника и в течение трех следующих лет работал по специальности. В 1943-ем его завербовали в армию. Год он прослужил в США и еще два года в военной разведке в Англии и Франции. После войны его приняли в ATIT American Television Institute of Technology в Чикаго. В 1949 году он получил степень бакалавра по специальности телевизионного инженера и спустя несколько лет устроился в Sanders Associates, электронно-техническую компанию, выполнявшую заказы военных ведомств.

Жизнь молодого инженера протекала ровно и неспешно. К этому времени Ральф уже обзавелся собственной семьей и, чтобы проводить с женой и сыном как можно больше времени, организовал в подвале дома небольшую лабораторию для сверхурочной работы.

Вполне вероятно, что сытая жизнь в американской мечте и бытовые хлопоты так бы и поглотили будущего изобретателя, если бы не одна из его ранних идей. Еще в 1951 году, будучи выпускником ATIT, он предложил своему работодателю, крупной технической компании Loral Electronics, встраивать игры прямо в телевизоры. Точнее, в новый черно-белый телевизор, разработкой которого тогда занималась компания. По его мнению, это позволило бы выделить бренд среди конкурентов. Он даже придумал особое название для незанятых игровых каналов ТВ под номерами 3 и 4: LP Lets play. Тогда его предложение было отклонено, идея игрового телевизора показалась боссам компании абсурдом. Баеру посоветовали не фантазировать и сосредоточиться на основной работе. Никому не хотелось связываться с очередным ультра дорогим баловством, которое никто не купит. Говоря объективно, на то были причины. Давайте посмотрим, какие игры на электронных устройствах были известны на тот момент.

Nimatron

Это самая первая игровая машина, построенная на электронных реле. Предтеча игровых автоматов, наводнивших залы спустя несколько десятилетий, родился в 1940 году в Америке. Его создатель, Эдвард Кондон, продемонстрировал Ниматрон на Всемирной выставке в Нью-Йорке.

Фактически Ниматрон представлял собой огромный ящик с четырьмя столбцами лампочек, всего 28 штук. Игрок и искусственный интеллект по очереди гасили одну или несколько ламп. Победителем считался тот, кто погасит последнюю лампу. Примечательно, что знакомый всем дизайн аркадных кабинетов отчасти был вдохновлен именно Ниматроном.

Внешний вид игрового устройстваВнешний вид игрового устройства

Cathode-ray tube amusement device

Это устройство, предложенное в 1947 году Томасом Голдсмитом-младшим и Эстлом Реем Манном, даже не имело собственного маркетингового названия. Проект был вдохновлен военными радарами, на разработке и производстве которых молодые ученые были заняты во время Второй мировой войны.

Схема устройстваСхема устройства

Небольшое видео с демонстрацией принципа работы:

Кроме того, в конце 1940-х Аланом Тьюрингом и Девидом Чампернауном был предложен один из первых алгоритмов шахматной игры с компьютером. Однако компьютеров, обладавших достаточной мощностью для исполнения подобного алгоритма, на тот момент просто не существовало.

Знаменитые Tennis for Two (игра на осциллографе) и Pong были разработаны гораздо позже.

К компьютерным играм в современном понимании перечисленные выше разработки можно отнести лишь с очень большой натяжкой. В то время любая умная техника трудилась сугубо над военными, математическими и экономическими задачами. Нетрудно догадаться, что предложение Баера вызвало у корпоративных бондов смех и сомнения в адекватности молодого инженера.

В сентябре 1966-го, ожидая автобуса на работу, Баер вспомнил о своей давней идее. И с удивлением обнаружил, что она по-прежнему актуальна. Телевизоры стали дешевле и поселились едва ли не в каждом американском доме. Почему бы не создать новый продукт, способный расширить возможности обыкновенного ТВ-приемника?

Уже на следующее утро Баер начал работать со своим новым проектом. Прямо на рабочем месте он подготовил четырехстраничный документ, описывающий идеи и способы их технического воплощения. С бумагами на руках он отправился к своему начальству, чтобы выбить финансирование проекта. В одном из поздних интервью Баер вспоминал об этом так:

Сама ситуация выглядела абсурдно. Представьте: я работаю инженером в компании, разрабатывающей военную электронику. И ни с того ни с сего начинаю писать такой документ. Как подать эту идею? Она же никак не связана с моей работой! <> Я не мог назвать это проектом игрушки (toy), поэтому использовал выражение игровой процесс (gaming).

Первые наброски БаераПервые наброски Баера

Термин gaming был в ходу у военных и теоретически мог привязать идею Баера к области деятельности компании. Выглядит несколько натянуто, не правда ли? Именно поэтому Баер, немного подумав, выдвинул возможность быстрой коммерциализации нового устройства на первый план.

Неизвестно, что именно убедило Герберта Кэмпмана, директора по исследованиям и разработкам компании Sanders, выделить средства на проект. Так или иначе, Баер получил $2000 на работу и $500 на материалы для исследований. В пересчете на современный курс эта сумма выглядит немногим более презентабельно и составляет примерно $15000.

Спустя несколько дней Баер нарисовал приблизительную схему работы своего устройства:

В 1967 году Ральф Баер и его ассистент Боб Тремблей создали первый прототип игрового устройства TVG #1, или TV Game Unit #1.

Особая приставка могла проецировать на телевизионный экран контролируемую пользователем точку. Разумеется, назвать это игрой было затруднительно, но начало было положено. Баер и его команда поняли, каким образом можно взаимодействовать с изображением на телеэкране извне. Можно было приступать к разработке куда более сложных и интересных прототипов. Руководство Sanders под впечатлением от увиденного выдало распоряжение как можно скорее оформить устройство в коммерчески жизнеспособный продукт.

Особенно Кэмпману понравилась задумка со световым пистолетом. Он увеличил финансирование проекта и продемонстрировал прототипы высшему руководству Sanders.

Прототип первого в мире светового пистолета, разработанный Баером и его командойПрототип первого в мире светового пистолета, разработанный Баером и его командой1976 год: знаменитый Синьор Робинзон играет в нечто похожее на Shooting Gallery для Magnavox Odyssey1976 год: знаменитый Синьор Робинзон играет в нечто похожее на Shooting Gallery для Magnavox Odyssey

Спустя несколько лет Баеру и его команде, наконец, удалось создать первое в мире многопользовательское и многофункциональное игровое устройство коричневую коробочку, Brown box. Переключая режимы работы специальными кнопками-перемычками, можно было сыграть в почти 30 различных игр. А рабочий дизайн прототипа, вероятно, был продиктован идеей замаскировать его под предмет интерьера. Или же его просто собрали из того, что было под рукой. В коммерческой реализации устройства мебельный корпус был заменен на футуристичный пластиковый.

Brown box и его компаньоны: левый контроллер, блок питания и правый контроллер соответственно.Brown box и его компаньоны: левый контроллер, блок питания и правый контроллер соответственно.

Sanders Associates всячески поддерживала проект Баера, однако выпускать новое устройство самостоятельно не решилась. Требовалось найти внешнюю компанию, которая возьмет на себя производство и маркетинг продукта. Не будем в очередной раз описывать мытарства Баера, просто скажем, что поиски затянулись почти на три года. Мало кто мог себе позволить такой рискованный эксперимент: приставка все еще требовала доработки и могла запросто провалиться в продаже.

В 1972 году права на выпуск устройства были переданы компании Magnavox (ныне это североамериканское подразделение Philips), и оно вышло на рынок под именем Magnavox Odyssey. В комплекте с приставкой продавались игрушечные деньги, фишки, кости, игральные карты и листки для ведения счета. Игры были вынесены из приставки и рассортированы по отдельно продаваемым картриджам. Все эти нововведения существенно увеличивали стоимость устройства и аксессуаров для конечного пользователя. Сам изобретатель считал бумажные добавки к Magnavox Odyssey лишними и скучными.

Коммерческая версия приставки и несколько игровых картриджейКоммерческая версия приставки и несколько игровых картриджей

Графические возможности первой версии приставки были крайне малы. Устройство могло выводить на экран три квадрата два игрока и мячик и вертикальную перегородку между половинами поля. Эти ограничения компенсировались цветными накладками на экран, создающими антураж и задающими правила игры.

Вариант досуга для прогрессивной молодой пары 1970-х, предложенный MagnavoxВариант досуга для прогрессивной молодой пары 1970-х, предложенный MagnavoxНакладки на экран Soccer Накладки на экран Soccer

Пожалуй, картриджи для Magnavox Odyssey достойны отдельного разговора. Самая интересная их особенность полное отсутствие умных компонентов. Картриджи содержали лишь набор перемычек, изменяющих поведение консоли и, следовательно, сам геймплей. Изначально приставке никакие картриджи не требовались, достаточно было просто перенастроить консоль для нужной игры. Но такой щедрый подход в корне не устраивал Magnavox. Итоговая игровая коллекция содержала 27 игр преимущественно спортивной направленноти, распределенных на 12 картриджей.

Ральф Баер держит в руках контроллеры коричневой коробочкиРальф Баер держит в руках контроллеры коричневой коробочки

Так или иначе, продукт имел оглушительный успех. По некоторым данным, всего было продано около 350 тысяч приставок. Консоль не только положила начало всем играм на экране, но и сама неоднократно эволюционировала и обзавелась подражателями. В последующих ревизиях Magnavoxа появились расширенные графические возможности и цвет.

Magnavox Odyssey 2, 1978Magnavox Odyssey 2, 1978

В течение полутора десятилетий Magnavox усиленно лоббировали свои права на рынке видеоигр. Иски от неё получили Activision, Coleco, Mattel и другие крупные компании. Примечательно, что ни одного дела юристы Magnavox не проиграли.

Спустя 13 лет, в 1985 году, к судебным распрям решила подключиться и Nintendo предполагалось лишить патент Баера на первую видеоигру законной силы и передать его создателю Tennis for Two Уильяму Хиджинбасэму. Однако дело кончилось ничем: Tennis for Two не использовала видеосигнал и, соответственно, видеоигрой считаться никак не могла.

Что было дальше

После успеха Magnavox Odyssey Баер продолжил работу в Sanders Associates. В частности, он руководил процессом разработки улучшенных дисплеев, а также стал одним из первых ученых, создавших интерактивные видеотренажеры для военных нужд.

Параллельно с основной работой Баер осуществлял консультативную поддержку юристов Magnavox. В результате компаниям удалось получить с нарушителей патентов порядка $100 млн.

В 1976-77 гг. Баер сотрудничал с Coleco и разработал для них целую линейку видеоигр. Позднее совместно с Warner Communications участвовал в создании интерактивных видеоигр для кабельного ТВ. Баер покинул Sanders Associates в 1990 году.

Основную работу Баеру удавалось эффективно совмещать с различными побочными проектами. Он консультировал производителей игрушек и прочих развлекательных товаров. Именно Ральфу Баеру мы обязаны появлением говорящих праздничных открыток, интерактивного плюшевого мишки и прочих болтливых устройств для детей и взрослых.

Уже на закате своей карьеры Баер самостоятельно восстановил по чертежам набор прототипов Magnavox Odyssey и передал реплики в экспозицию Museum of the Moving Image. Прочие разработки, включая оригинальные устройства 1960-х, экспонируются в Смитсоновском музее.

Подведем итоги

Мы живем в удивительное время, когда индустрия виртуальных развлечений активно стимулирует рост серьезных технологий. Еще полвека назад всё было совершенно наоборот: видеоигры только-только выходили из застенков военных ведомств, где их разрабатывали одиночки-энтузиасты.

Всего через 10-15 лет после появления Magnavox Odyssey рынок пополнился такими титанами как ZX Spectrum, Famicom и Commodore 64. И все эти устройства в чем-то походили на своего предка.

Тем не менее, Ральф Баер был разочарован тем, во что трансформировалось его детище:

Игры дегенерировали во что-то однопользовательское, в то время как я хотел сделать их развлечением для всей семьи

Ральф Баер в своей домашней мастерской. 2012Ральф Баер в своей домашней мастерской. 2012

Баеру принадлежит в общей сложности более 150 различных патентов и огромное количество наград в технологической сфере. До последних лет своей жизни он не терял страсти к изобретательству. По его собственным словам, работа была одним из его важнейших жизненных мотиваторов:

Я одинок. Все мои друзья, даже жена их нет. Я всех пережил. И каждый день мне нужен новый вызов, мне нужно создавать.

Детище Баера обзавелось клонами и подражателями даже на территории Советского союза: приставки Палестра-02, Турнир и другие можно было приобрести в магазине электроники. Или при наличии опыта работы с паяльником изготовить самостоятельно по инструкции из журнала.

Дальнейшая история видеоигр вполне прозрачна и известна каждому ребенку восьмидесятых и девяностых. Но вот, что интересно: вопрос зачем играть на телевизоре все еще кажется нам странным. Но уже совсем по другой причине.

Подробнее..

Перевод System360 проект, едва не погубивший IBM

16.11.2020 20:18:08 | Автор: admin

Если когда-то будет составлен шорт-лист самых выдающихся изобретений XIX-XX веков, в него, без сомнения, войдут первая электролампочка, Ford Model T и IBM System/360. Эта серия мэйнфреймов навсегда изменила компьютерную индустрию и произвела революцию в работе заводов, компаний и государственных учреждений.

Тем интереснее узнать, что перед выходом мейнфрейма на рынок (7 апреля 1964 года) S/360 казался создателям едва ли не самой драматичной ошибкой за всю историю предпринимательства. Чтобы создать программную и аппаратную начинку компьютера, сотрудникам IBM пришлось выложиться по полной. Колоссальные финансовые издержки, переработки и пивоты грозили разорить компанию. Позднее Кейт Павитт, эксперт по научной политике, сравнит эту ситуацию с межплеменной войной: молодая, быстрорастущая компания была вынуждена работать с новыми, практически не изученными технологиями, вызывавшими недопонимание и раздор внутри отделов.

Тогда IBM повезло. Она уже была достаточно велика, обеспечена финансово и полна талантами. То, что грозило крахом, обернулось победой. Но давайте не будем забегать вперед.

К концу 1950-х годов пользователи компьютеров столкнулись с одной очень сложной проблемой. Практически неразрешимой. Организации приобретали огромное количество мейнфреймов. Автоматизировали классические процессы с перфокартами и обрабатывали большие потоки данных. Популярность одного только IBM 1401 живое свидетельство того, как быстро вычисления на компьютере пришли на смену крестьянскому арифмометру. С 1959 по 1971 IBM удалось продать порядка 12 000 таких систем.

А теперь переходим к фабуле проблемы. Эти машины оказались настолько полезны и универсальны, что на местах из них выжимали все соки. Но рано или поздно производительности и возможностей 1401 переставало хватать, и тогда у вас было три пути:

  • перейти на более навороченный IBM, например, IBM 7000;

  • купить подходящую машину у другой компании;

  • выделить площади и расширить парк 1401-х.

Ни один из этих вариантов не выглядит приемлемо. Переход на новую систему привел бы к необходимости полностью переписать программное обеспечение ни о какой портабельности или кроссплатформенности в те годы речи не было. Стоимость этого процесса в некоторых случаях могла полностью перекрыть потенциальную выгоду от перехода на более крупную машину. Кроме того, пришлось бы переобучить сотрудников, работающих с ЭВМ, или нанять новых.

Увеличение парка слабых машин тоже плохой вариант. Новая ЭВМ требует увеличения штата как операторов, так и обслуживающего персонала. Рынку требовались системы, которые по мере роста потребностей можно было бы расширить или улучшить, сохранив при этом совместимость со старыми ПО и периферией. В 1950-х и начале 1960-х такой машины не было.

Клиентские проблемы тогда казались IBM цветочками. Противоречия раздирали компанию изнутри. С одной стороны, требовалось создавать более мощные и продвинутые компьютеры. С другой, инженеры, разработавшие 1401, всячески противились инновациям. Популярность машины вскружила им головы. Как вспоминал один из тогдашних сотрудников IBM: Страсти росли. Иногда казалось, что мы соперничаем не с собственными коллегами, а с внешним конкурентом, злым и бескомпромиссным.

Вражда привела к тому, что 7000-е компьютеры из Покипси (Poughkeepsie) были на 100% несовместимы с кодом, написанным для 1400-х. Заказчики, напротив, писали гневные письма в компанию и требовали совместимости. Высшему руководству IBM приходилось мириться со все растущими тратами на поддержку сразу нескольких несовместимых линеек мейнфреймов.

Единственный разумный выход из сложившейся ситуации отмести весь этот зверинец и создать единую систему. Это одним махом снизило бы стоимость исследований и сделало бы продукты IBM гораздо более привлекательными в глазах корпоративных заказчиков. В те годы многие клиенты отказывались от 1400-х в пользу машин конкурентов, так как не имело значения, под какой новый компьютер переписывать ПО.

Красота и мощь совместимости раскрылись осенью 1960 года, когда IBM представила рынку машину 1410, пришедшую на смену 1401. И программное обеспечение, и периферийные устройства от 1401 подходили к 1410.

И покупатели, и промоутеры IBM по достоинству оценили новинку. А тем временем в Покипси были близки к завершению работы над комплектом из четырех компьютеров, известных как 8000-е. Они должны были заменить прошлое поколение 7000-х.

За разработку новых продуктов в компании отвечал вице-президент по производству и развитию Томас Винсент Лирсон. Он прекрасно понимал, что внутренние распри в IBM требуется прекратить как можно скорее. Вот, что позднее писал об этом генеральный директор IBM Томас Дж. Уотсон-младший: Лирсон решил проблему, применив методику абразивного взаимодействия. Суть в том, чтобы поменять людей из противоборствующих лагерей местами. Так, главный инженер из маленького подразделения был переброшен на руководство флагманским проектом.

Томас Винсент ЛирсонТомас Винсент Лирсон

Лирсон заменил руководителя из Покипси, ответственного за проект 8000, на Боба О. Эванса, который работал менеджером по проектированию 1401 и 1410. Эванс выступал за совместимость всех будущих продуктов. Спустя три месяца на новой должности Эванс заявил о том, что разработка 8000-х машин это тупик, вместо них компании следует сосредоточиться на создании единой линейки совместимых компьютеров. В качестве базы для всех новых систем он предложил новую экспериментальную технологию Solid Logic Technology (SLT). Это могло бы дать IBM массу конкурентных преимуществ.

Фредерик П. Брукс-младший, ранее возглавлявший команду разработчиков 8000, противился переменам. Эванс и Брукс стояли по разные стороны баррикад. Оба инженера имели многолетний опыт работы в сфере проектирования и разработки продуктов, пользовались большим уважением со стороны коллег и высшего руководства. Спустя какое-то время для оценки их перспективных предложений был приглашен другой специалист IBM, Джерриер А. Хаддад. Идею Эванса поддержали, и в мае 1961 года разработки 8000-х систем полностью прекратились.

Боб Эванс сразу же попросил Брукса подготовить план создания нового семейства совместимых между собой компьютеров. Лед был сломлен, и вместо непримиримой борьбы инженеры начали работать вместе.

Возглавить новую рабочую группу по системному программированию, проектированию и развитию Лирсон поручил Джону В. Хаанстре, президенту подразделения General Products, производившего модели 1400. Подразделение получило название SPREAD, а Боб Эванс стал её вице-председателем. Позднее к работе был привлечен и Брукс. Уже к декабрю 1961 года группа представила первые технические рекомендации.

Боб Эванс, Фредерик Брукс и Джерриер ХаддадБоб Эванс, Фредерик Брукс и Джерриер Хаддад

Отчет содержал описание пяти совместимых между собой компьютеров, названных общим словом процессор (в совокупном значении компьютер, память и порты подключения периферии). ПО и внешние устройства, предназначенные для одного процессора, должны были работать со всеми остальными машинами семейства. Предусматривалось использование стандартных аппаратных и программных интерфейсов например, для подключения дисковых и ленточных накопителей. Эти рекомендации заложили основу для разработки System/360.

Поскольку новые процессоры включали массу новых технических решений, обеспечить их совместимость с актуальными продуктами IBM не представлялось возможным. Это была серьезная проблема. Всеми силами компания пыталась объяснить клиентам, что для перехода на новую архитектуру им придется еще один раз переписать свое ПО, а затем встать на путь обновления только аппаратных компонентов.

Лишь в последний момент, летом 1963 года инженерам из Покипси и Эндикотта удалось решить эту проблему. IBM повезло. Оказалось, что путем добавления специального микрокода в контрольные хранилища компьютеров можно моделировать работу прошлых поколений IBM. Таким образом, ПО, написанное для 1401, могло работать сразу на двух моделях новой линейки и даже быстрее, чем на оригинальных машинах.

Из мемуаров Томаса Уотсона-младшего, генерального директора IBM:

Изначально мы столкнулись сразу с двумя рискованными моментами. Даже одного из них было достаточно, чтобы не спать ночами... Во-первых, стояла задача координировать работы по проектированию аппаратного и программного обеспечения для новой линейки. У нас были команды инженеров по всей Америке и Европе, они одновременно работали над шестью новыми процессорами и десятками новых периферийных устройств ... но в конце концов все это оборудование пришлось бы собрать воедино. Во-вторых, программное обеспечение. Чтобы поддержать System/360, сотни программистов написали миллионы строк программного кода. Беспрецедентно сложный проект. Еще никогда наши инженеры не испытывали столь сильного давления.

Еще один пласт проблем был связан с производством электронных компонентов для новых систем. Электронная промышленность только-только освоила изготовление интегральных схем, а новые компьютеры должны были быть наполнены ими под завязку. Чтобы ни от кого не зависеть, IBM пришлось организовать собственное производство ИС. Очень дорогой и очень рискованный шаг.

В конце концов, комитет корпоративного управления, куда входили Уотсон и совет директоров, скрепя сердце, одобрил предложения группы SPREAD. IBM предстояла самая безумная технологическая гонка в истории.

Скрывать происходящее уже не получалось. Понемногу слухи просачивались в прессу. Корпорации уже предвкушали новые, мощные и совместимые машины, а конкуренты GE, Honeywell, Sperry Univac и прочие гадали, что же получится у IBM.

Между тем, в самой компании зрело недовольство прогрессом разработки. Инженеры, сотрудники производств и сотрудники отдела продаж работали по 100 и более часов в неделю. Им приходилось фактически жить в офисе. Однажды Уотсон решил лично проверить, как идут дела, но получил нагоняй от какого-то инженера. Мол, иди отсюда и не мешай работать. Председатель правления IBM был вынужден ретироваться.

7 апреля 1964 года, ровно в полдень, IBM презентовала новую линейку компьютеров. Более 100 000 клиентов, репортеров и технических экспертов собрались на конференциях в 165 городах США. Это была самая важная презентация в истории компании.

В тот день IBM представила целых 150 наименований новых продуктов: 6 компьютеров, 44 периферийных устройства, включая ленточные накопители, дисководы, принтеры и блоки управления, а также огромное количество программного обеспечения для совместной работы. Один только каталог толщиной был в целый дюйм. Всевозможные руководства, содержащие описания машин, компонентов и программного обеспечения, если их сложить друг на друга, заняли бы более 15 метров.

Ключевой особенностью System/360, конечно же, была совместимость. В начале жизненного цикла компания могла установить младший компьютер из линейки 360, а затем обновить его без надобности переписывать программное обеспечение или заменять сопутствующие устройства. Кроме того, специалистам не требовалось полностью переобучаться для работы на старших моделях. Само название 360 было намеком на 360 градусов максимальный охват новой линейки.

Среди 44 периферийных устройств S/360 был дисковый накопитель 2311Среди 44 периферийных устройств S/360 был дисковый накопитель 2311

За первый месяц IBM удалось продать по предзаказу 100 000 новых машин. Для сравнения, в том же году в Великобритании, Западной Европе, США и Японии было установлено чуть более 20 000 любых компьютеров. Первые поставки младших машин обещались в третьем квартале 1965 года, а старших в начале 1966-го. Временной лаг позволил клиентам точно определиться с приобретаемой моделью, спланировать бюджет, обучить персонал и скорректировать программное обеспечение.

С 7 апреля в IBM начались по-настоящему сложные времена. На разработку System/360 компания потратила 5 миллиардов долларов (порядка 40 миллиардов долларов по современному курсу), что в то время было больше её годового бюджета. Было нанято примерно 70 000 новых сотрудников. И каждый из них понимал: если компьютер провалится, IBM придет конец.

Позже Уотсон писал: Не все оборудование, представленное [7 апреля], было настоящим. Что-то и вовсе было выстрогано из дерева. Обмана не было, мы честно рассказали, что это всего лишь макеты. Но это все равно было слишком опасно. Думаю, так нельзя вести бизнес Слишком многое мы поставили на кон, еще до конца не зная, будет ли затея успешной.

Руководство проектированием и производством мейнфреймов Уотсон поручил своему брату Артуру. Лирсона перевели в управление продажами его хватка нужна была, чтобы натренировать торговых представителей. Сама мысль о том, что клиенты могут в последний момент передумать и перейти на не-IBM машины, пугала Уотсона.

Но количество заказов постоянно росло. В 1965 году поступило предложение вдвое увеличить производственные мощности. Чтобы вы поняли всю серьезность момента один из руководителей заявил, будто расширение невозможно, и его тут же уволили. Да, качество продукции снизилось. К концу 1965 года до четверти электронных схем были отбракованы отделом проверки качества.

После вынужденного простоя и решения проблем на линии производство возобновилось с новой силой. За 1966 год было выпущено 90 млн модулей SLT почти втрое больше, чем в прошлом году. IBM открыла новый завод в Ист-Фишкилле, к югу от Покипси. Там за один год произвели больше полупроводниковых устройств, чем все другие заводы во всем мире вместе взятые. Позднее были открыты производственные линии в Берлингтоне, штат Вирджиния, и в Корбей-Эсон, Франция.

Из-за спешки в производстве дефекты обнаруживались приблизительно в четверти всех модулей SLTИз-за спешки в производстве дефекты обнаруживались приблизительно в четверти всех модулей SLT

Расширение производственных мощностей за пределами США создало проблемы в координации деятельности и изготовлении компьютеров. Артур Уотсон ранее уже управлял небольшими заводами IBM за пределами США, но не имел опыта в решении инженерных проблем, не говоря уже о глобальных проблемах в разработке и производстве. Это была задача не его масштаба. А Лирсон и команда продажников просили о дополнительных улучшениях в линейке продуктов вдобавок ко всем остальным проблемам. В октябре 1964 года IBM пришлось объявить о значительных задержках поставок.

Том отстранил Артура от работы и передал его обязанности Лирсону, который, в свою очередь, пригласил четырех инженеров-менеджеров для решения проблем с заводами. Четыре всадника Лирсона всего за пять месяцев усердной работы смогли вернуть прежние сроки поставок. В январе 1966 года Лирсон стал президентом IBM.

Генри Кули, Клеренс Фриззелл, Джон Гибсон и Джон ХаанстраГенри Кули, Клеренс Фриззелл, Джон Гибсон и Джон Хаанстра

Артура перевели на роль заместителя председателя, но уже в 1970 году он предпочел выйти на пенсию. В своих мемуарах Томас Уотсон-младший признался, что с 1964 по 1966 год пребывал в состоянии паники и глубоко сожалеет о том, как обращался с Артуром. Я не чувствовал ничего, кроме стыда и разочарования из-за моего отношения к нему ... Да, мы устроили революцию в компьютерной индустрии, и объективно S/360 это величайший триумф в моей деловой карьере. Но всякий раз, когда я вспоминаю об этом, я думаю о брате, который так из-за меня пострадал.

Проблемы с программным обеспечением также замедлили поставки S/360. Еще в 1963 году среди разработчиков царил хаос. Они, поначалу безуспешно, пытались заставить операционную систему OS/360 выполнять более одного задания одновременно. Проблемы возникали и с прикладным ПО.

Фред Брукс вызвался помочь компании, и IBM подключила к проекту операционной системы еще порядка 1000 человек, что нанесло огромный удар по бюджету. Но увеличение числа разработчиков почти не помогло. Этот опыт лег в основу книги Брукса Мифический человекомесяц (Addison-Wesley, 1975). До сих пор это одна из самых читаемых книг по вычислениям. Годы ушли на то, чтобы разработать, протестировать и отладить новую ОС, а задержка по поставкам сократилась всего до одного месяца.

Поставка S/360 в ЯпониюПоставка S/360 в Японию

В 1965 году IBM каким-то чудом удалось отгрузить клиентам первые несколько сотен компьютеров S/360. Да, их качество в некоторых аспектах уступало заявленному. Запчастей не хватало, периферия глючила и выходила из строя. В ПО обнаруживались критические ошибки, и почти каждый клиент так или иначе сталкивался с проблемами. Но начало было положено. Отдел продаж всячески умасливал заказчиков, а в недрах IBM тысячи человек трудились над тем, чтобы исправить ошибки в уже поставленных компьютерах и не допустить их в новых партиях.

Филиалы IBM нанимали сотни новых системных инженеров. В основном это были выпускники технических колледжей, умевшие отлаживать программное обеспечение. Разработчики героически решали программные проблемы S/360, в то время как полевые инженеры, устанавливающие оборудование, исправляли аппаратные баги.

И, несмотря на множество проблем, клиенты продолжали заказывать S/360 быстрее, чем в IBM успевали их собирать. К концу 1966 года заказчики получили девять различных моделей S/360, всего 7700 штук.

Конкуренты IBM тоже не дремали. Burroughs, GE, Honeywell, NCR и Sperry Rand, представили собственные системы, совместимые друг с другом, но не с IBM. Еще одна, меньшая когорта производителей, выпускала IBM-совместимые компьютеры по лицензии RCA.

Пять лет спустя стоимость всех установленных компьютеров IBM в мире выросла до 24 миллиардов долларов, а у конкурентов до 9 миллиардов. Другими словами, IBM S/360 моментально увеличил популярность компьютеров до немыслимых высот. Годовой рост отрасли во второй половине 1960-х выражался двузначными числами по сравнению с прошлыми годами, поскольку многие тысячи организаций перешли на использование компьютеров. Спрос на вычисления вырос из-за технологических инноваций, разработанных IBM, а также потому что пользователи накопили достаточно опыта, чтобы осознать ценность компьютера.

НАСА закупило несколько машин S/360, в том числя для Центра космических полетов ГоддардаНАСА закупило несколько машин S/360, в том числя для Центра космических полетов Годдарда

IBM также выросла более чем вдвое с 127 000 сотрудников по всему миру в 1962-ом до 265 000 к концу 1971 года. Выручка увеличилась с 3,2 млрд в 1964 году до 8,2 млрд долларов в 1971-ом.

S/360 без преувеличения создал новую компьютерную субкультуру. Тысячи программистов умели пользоваться только ПО от IBM. Еще несколько тысяч человек, занимавшихся обработкой данных, работали только с оборудованием S/360: это были машины для перфорации, принтеры, ленточные накопители, дисководы и отраслевое программное обеспечение. К началу 1970-х компьютерное пространство в значительной степени принадлежало IBM по обе стороны Атлантики, а также на развивающихся рынках Латинской Америки и Японии.

Спустя годы, когда у представителей IBM спросили, решится ли компания на что-то подобное снова, кто-то из руководства ответил: Черт возьми, да больше никогда!. Уотсон придерживался такого же мнения. Комментируя ситуацию в 1966 году, он заявил: При всех наших размерах мы больше никогда не решимся на проект такого же масштаба. Помня об уроке S/360, Уотсон ввел новое корпоративное правило: никогда не объявлять о новой технологии, которая потребует от компании выделения более 25% производственных мощностей.

История разработки S/360 это история целого поколения сотрудников IBM. Карьеры взлетали и рушились в одночасье, личная жизнь и семьи приносились в жертву великой идее. И никто, ни один человек в компании не мог знать, чем обернется вся эта затея. Насколько сильно S/360 перевернет компьютерный мир.

Зато теперь об этом знаем все мы.

Подробнее..

Перевод 7 интересных хаков с Black Hat DEF CON 2020

25.08.2020 20:14:31 | Автор: admin
Под катом приглядимся повнимательнее к некоторым наиболее примечательным находкам в области безопасности из числа представленных в этом году на хакерской конференции.

Ежегодный летний слет хакеров в этом году вместо привычного Лас-Вегаса прошел исключительно в киберпространстве. Виной тому пандемия коронавируса.

Докладчики говорили и о традиционных для конференции вопросах, и о достаточно примечательных и необычных угрозах безопасности. Всё, что несет в себе компьютерную начинку, может быть взломано. В наше время в эту категорию попадают автомобили, банкоматы, медицинские устройства, системы управления трафиком, механизмы голосования, и многое другое.



Импланты как угроза национальной безопасности


Специалист в области безопасности Алан Майклс на конференции открыл новый смысл понятия внутренняя угроза. Его доклад был посвящен потенциальным рискам, связанным с имплантацией медицинских устройств.

Кадры в системе нацбезопасности США неуклонно стареют и коснеют. А рынок медицинских устройств, напротив, с каждым годом становится все насыщеннее. Соответственно, риск эпидемии взломов подобных железок становится более реальным.

Слуховые аппараты, импланты, инсулиновые помпы и кардиостимуляторы понемногу проникают в Интернет вещей. Что помешает удаленному злоумышленнику использовать такое устройство в корыстных целях?



Различные регламенты США по-разному трактуют использование этих устройств. С одной стороны, люди с ограниченными возможностями не должны быть дискриминированы из-за необходимости пользоваться умными медицинскими устройствами. С другой во многие особо охраняемые объекты вообще запрещено проносить что-то умнее простого карандаша.

Технологии быстро опережают политику, если посмотреть на [диапазон] устройств, которые должны быть разрешены на охраняемом объекте говорит Майклс, директор лаборатории электронных систем в Технологическом центре Хьюма.

По оценкам Virginia Tech, 100 000 сотрудников службы национальной безопасности, прошедших проверку, имеют имплантированное медицинское устройство. Компания разработала ряд технических способов снизить риски, а также набор политик для управления этими рисками.
Необходимо предвосхищать технологии в пятилетней перспективе, а не вечно отставать от них на те же пять лет заключил Майклс.

Следующая остановка космос


Джеймс Павур, студент DPhil Оксфордского университета, выступил с нашумевшим докладом Whispers Among the Stars: A Practical Look at Perpetrating (and Preventing) Satellite Eavesdropping Attacks.

Напомним, Павур уже появлялся на Black Hat 2019 с докладом о том, как GDPR может быть использован для получения конфиденциальной информации пользователей. В этом году он призвал слушателей обратить внимание на горние выси. Волна хакерского энтузиазма относительно взлома спутников, появившаяся в середине-конце 2000-х годов, поднимается снова.

Исследование Павура, начавшееся в качестве весьма скромного проекта, спустя два года разрослось до серьезного пула экспериментов в области использования широкополосной спутниковой связи.

После перехвата и анализа сигналов с 18 спутников на геостационарной орбите объединенная британско-швейцарская команда обнаружила, что конфиденциальная информация по-прежнему отправляется в виде обычного текста. Таким образом, злоумышленники могут без труда получать любые данные.



Мы видели конфиденциальный трафик как минимум девяти членов Fortune Global 500, трафик пассажиров, летящих на самолетах шести крупнейших мировых авиалиний, конфиденциальные данные морских компаний и даже трафик государственных учреждений рассказывает Павур.

Lamphone: ваша лампочка работает микрофоном


Мировые спецслужбы одновременно вдохновлены и обеспокоены появлением сравнительно нового типа атак. Их можно проводить пассивно, без вмешательства в электронные схемы объекта слежки.

Бен Наси рассказал, как ему и команде исследователей из Университета Бен-Гуриона удалось превратить обыкновенную лампу в настоящий микрофон. Для осуществления атаки хватило телескопа и электрооптического датчика.

Атака Lamphone (сочетание слов лампочка и микрофон) позволила им уловить мельчайшие вибрации поверхности лампочки E27 в офисном помещении. Исследователи же расположились на мосту, в 25 метрах от жертвы. Полученный аудиосигнал был очищен при помощи специально разработанного алгоритма и улучшен посредством фильтрации и эквалайзера.

Приложение для определения песен по звуку Shazam смогло распознать треки Coldplay и The Beatles, а Cloud Speech API от Google точно расшифровал речь президента США Дональда Трампа. Все аудиозаписи были добыты с помощью Lamphone.

Тем не менее, в текущей реализации атака эффективна, только если речь звучит достаточно громко. В будущем можно будет доработать её, используя линзы большего диаметра или применив технологии глубокого обучения для механизма обработки звука, предполагает Наси.

Исследователь не сомневается, что уже к 2026 году ему удастся поделиться с аудиторией гораздо более эффективными методами преобразования света в звук при обычной громкости. Смелый прогноз основан на его наблюдении за исследованиями по прослушке через гироскоп смартфона. В шестилетней перспективе они дали весьма интересные результаты.

Социальная инженерия нового поколения


Вдохновленный эпизодом Be Right Back из Черного зеркала, исследователь Тамагна Басу создал бота, который может достаточно точно имитировать создателя во время беседы в чате. По его словам, такого бота вполне можно использовать для подмены личности и атаки через социальные сети.

Во время доклада Басу устроил небольшую живую демонстрацию бота, обученного на выборке собственных бесед автора. Чат-бот все еще находится на стадии прототипа, однако уже может использовать в качестве канала получения информации текст, видео и аудио. Его программа основана на открытых технологиях машинного обучения.



Вопрос в том, смогу ли я сделать эту технологию более интерактивной? говорит Басу. Могу я сделать его еще более живым?

Этот проект является ответвлением другого проекта, в задачи которого входит выявление мошенничества средствами ИИ.

Раскрутим катушку Теслы


DEF CON хорошо известен своей Car Hacking Village. Несмотря на онлайн формат, презентация 2020 года прошла на высшем уровне.

Патрик Кили из Rapid7 рассказал о том, как он пытался перепроектировать систему управления аккумуляторами Tesla, чтобы получить больше энергии.

Кили смог провести реверс-инжиниринг процесса обновления двух двигателей, изучив сообщения шины CAN, процедуры UDS шины CAN и различные файлы прошивки, которые можно извлечь из любой рутированной модели Tesla S или X.

Он также расшифровал и декомпилировал исходный код Python, используемый для диагностики, чтобы определить, что процесс апгрейда включает удаление аккумуляторной батареи и замену предохранителя и высоковольтных контакторов на устройства, которые могут работать с более высокой силой тока.

Всё это дало Кили понимание процесса, но, когда он попытался воспроизвести его на реальном доноре P85D, автомобиль окирпичился. Пришлось платить за буксировку до места ремонта.
Отчасти благодаря этой неудаче Кили смог разработать обходной вариант взлома и все-таки хакнул свою машину.



Человеческий трафик


Голландские специалисты в области безопасности Уэсли Нилен и Рик Ван Дуйн объединились, чтобы изучить систему безопасности подключенных к интернету умных светофоров в Нидерландах.

Во время беседы на DEF CON исследователи рассказали о том, как они нашли способ имитации непрерывного потока велосипедистов, который мгновенно переключает светофор для велосипедистов на зеленый или же просто зажигает его чуть быстрее.

Взлом стал возможен из-за уязвимостей в двух Android-приложений, которые используются более чем в 10 муниципалитетах Нидерландов. Его можно выполнить удаленно, что может привести к тому, что многие велодорожки одновременно получат зеленый свет, а автомобилистам придется стоять на красном.

Дело в полном отсутствии механизма аутентификации для велосипедистов. Исследователи заявили, что машины экстренных служб, которые могут запрашивать смену освещения в свою пользу, аутентифицируются иначе. А в случае с велосипедами никаких вмешательств в системы безопасности не потребовалось.



Невозможно [включить] все световые сигналы одновременно, чтобы машины таранили друг друга, говорит Ван Дуйн. Но того, что есть, вполне достаточно, чтобы взбесить кучу людей. Это само по себе уже весело шутит докладчик.

Игра началась


В своем выступлении на DEF CON Джек Бейкер поделился результатами нескольких месяцев работы по поиску ошибок в сетевых протоколах многопользовательских игр, включая игры на Unreal Engine и Unity 3D.

Бейкер продемонстрировал взлом с метками времени, позволяющий аватарам игроков двигаться со сверхчеловеческой скоростью, а также баг с перехватом сеанса, который позволял злоумышленникам заставлять других игроков убивать или даже воскрешать своих соперников.
Набор найденных уязвимостей (Бейкер выложил весь код на GitHub) выходит далеко за рамки примитивной DDoS-атаки.

Я надеюсь, сегодня вы узнали много нового. С этими знаниями вы можете прямо сейчас пойти и выхватить бан в вашей любимой онлайн-игре подводит итог Бейкер.



Короткое послесловие


Технологии взлома не стоят на месте. Благодаря белым хакерам системы безопасности успевают идти с ними в ногу но далеко не всегда. Современный мир наполнен уязвимостями даже лампа накаливания может превратиться в микрофон, а крыса в кучера, а карета в тыкву, так что пусть эта статья станет для вас мотиватором как минимум сменить устаревшие пароли от социальных аккаунтов. И предложить маме/супруге/любимой бабушке сделать то же самое.
Подробнее..

IaaS 152-ФЗ итак, вам нужна безопасность

15.09.2020 18:11:52 | Автор: admin

Сколько бы ни разбирали мифы и легенды, которыми окружено соответствие 152-ФЗ, что-то всегда остается за кадром. Сегодня мы хотим обсудить не всегда очевидные нюансы, с которыми могут столкнуться как крупные компании, так и совсем небольшие предприятия:

  • тонкости классификации ПДн по категориям когда небольшой интернет-магазин собирает данные, относящиеся к специальной категории, даже не зная об этом;

  • где можно хранить бэкапы собранных ПДн и производить над ними операции;

  • чем отличается аттестат и заключение о соответствии, какие вообще документы запрашивать у провайдера и все в таком духе.

Напоследок мы поделимся с вами собственным опытом прохождения аттестации. Поехали!

Экспертом в сегодняшней статье выступит Алексей Афанасьев, специалист по вопросам ИБ облачных провайдеров ИТ-ГРАД и #CloudМТS (входят в группу МТС).

Тонкости классификации

Мы часто сталкиваемся желанием клиента быстро, без аудита ИС определить требуемый уровень защищенности для ИСПДн. Некоторые материалы в интернете на эту тему создают ложное впечатление, что это простая задача и допустить ошибку достаточно сложно.

Для определения УЗ необходимо понимать, какие данные будут собираться и обрабатываться ИС клиента. Иногда однозначно определить требования к защите и категорию ПДн, которыми оперирует бизнес, бывает непросто. Одни и те же типы персональных данных могут быть совершенно по-разному оценены и классифицированы. Поэтому в ряде случае мнение бизнеса может расходиться с мнением аудитора или даже проверяющего. Рассмотрим несколько примеров.

Автопарк. Казалось бы, достаточно традиционный вид бизнеса. Многие автопарки работают десятилетиями, и их владельцы нанимают ИП, физлиц. Как правило, данные сотрудников подпадают под требования УЗ-4. Однако для работы с водителями необходимо не только собирать анкетные данные, но и производить медицинский контроль на территории автопарка перед выходом на смену, и собираемая в процессе информация сразу попадает в категорию медицинских данных а это персональные данные специальной категории. Кроме того, автопарк может запрашивать справки, которые далее будут храниться в деле водителя. Скан такой справки в электронном виде данные о состоянии здоровья, персональные данные специальной категории. Значит, УЗ-4 уже не обойтись, требуется минимум УЗ-3.

Интернет-магазин. Казалось бы, собираемые имена, emailы и телефоны укладываются в общедоступную категорию. Однако, если ваши клиенты указывают гастрономические предпочтения, например, халяль или кошер, такая информация может быть расценена как данные о религиозной принадлежности и убеждениях. Поэтому при проверке или проведении других контрольных мероприятий проверяющий может отнести собираемые вами данные к специальной категории ПДн. Вот если бы интернет-магазин собирал информацию о том, предпочитает ли его покупатель мясо или рыбу, данные можно было бы отнести к категории иных ПДн. Кстати, а что делать с вегетарианцами? Ведь это тоже можно отнести к философским убеждениям, которые тоже относятся к спецкатегории. Но, с другой стороны, это может быть просто позицией человека, который исключил мясо из своего рациона. Увы, никакой таблички, которая однозначно определяла категорию ПДн в таких тонких ситуациях, нет.

Рекламное агентство с помощью какого-либо западного облачного сервиса обрабатывает общедоступные данные своих клиентов ФИО, адреса электронной почты и телефоны. Эти анкетные данные, конечно, относятся к ПДн. Возникает вопрос: легально проводить такую обработку? Можно ли вообще перемещать такие данные без обезличивания за пределы РФ, например, хранить бэкапы в каких-нибудь зарубежных облаках? Конечно, можно. Агентство имеет право хранить эти данные и не в России, однако первоначальный сбор, согласно нашему законодательству, необходимо выполнять на территории РФ. Если вы бэкапите такую информацию, рассчитываете на ее основе какую-то статистику, проводите исследования или выполняете с ними какие-то иные операции все это можно делать и на западных ресурсах. Ключевой момент с точки зрения законодательства где происходит сбор ПДн. Поэтому важно не путать первоначальный сбор и обработку.

Как следует из этих коротких примеров, не всегда работа с ПДн однозначна и проста. Требуется не просто знать, что вы с ними работаете, но и уметь их правильно классифицировать, понимать, как работает ИС, чтобы правильно определить требуемый уровень защищенности. В некоторых случаях может стоять вопрос, какой объем ПДн реально необходим организации для работы. Возможно ли отказаться от наиболее серьезных или просто лишних данных? Кроме того, регулятор рекомендует обезличивать ПДн там, где это возможно.

Как в примерах выше, иногда можно столкнуться с тем, что проверяющие органы интерпретируют собираемые ПДн несколько иначе, чем вы сами их оценили.

Конечно, можно взять в помощники аудитора или системного интегратора, но будет ли помощник ответственен за выбранные решения в случае проверки? Стоит отметить, что ответственность всегда лежит на владельце ИСПДн операторе персональных данных. Именно поэтому, когда компания проводит подобные работы, важно обратиться к серьезным игрокам на рынке таких услуг, например, к компаниям, проводящим аттестационные работы. Компании-аттестаторы имеют большой опыт в проведении подобных работ.

Варианты построения ИСПДн

Построение ИСПДн не только технический, но и во многом юридический вопрос. ИТ-директор или директор по безопасности должен обязательно проконсультироваться с юристом. Поскольку в компании далеко не всегда есть специалист с нужным вам профилем, стоит посмотреть в сторону аудиторов-консалтеров. Многие скользкие моменты могут отнюдь не очевидны.

Консультация позволит определить, с какими персональными данными вы имеете дело, какой уровень защищенности им требуется. Соответственно, вы получите представление об ИС, которую необходимо создать или дополнить средствами защиты и ОРД.

Часто выбор для компании стоит из двух вариантов:

  1. Построить соответствующую ИС на своих программно-аппаратных решениях, возможно, в своей серверной.

  2. Обратиться к облачному провайдеру и выбрать эластичное решение, уже аттестованную такую виртуальную серверную.

Большинство ИС, обрабатывающих ПДн, использует традиционный подход, который, с точки зрения бизнеса, сложно назвать легким и удачным. При выборе этого варианта необходимо понимать, что технический проект будет включать описание оборудования, включая программно-аппаратные решения и платформы. А значит, вам придется столкнуться со следующими трудностями и ограничениями:

  • низкая эластичность;

  • долгий срок реализации проекта: требуется выбрать, закупить, установить, настроить и описать систему;

  • масса бумажной работы, как пример разработка полного пакета документации на всю ИСПДн.

Кроме того, бизнес, как правило, разбирается только в верхнем уровне своей ИС в используемых бизнес-приложениях. Иными словами, ИТ-персонал квалифицирован в своей узкой области. Отсутствует понимание того, как работают все нижние уровни: программно-аппаратные средства защиты, системы хранения, резервное копирование и, конечно, как с соблюдением всех требований настроить средства защиты, построить железную часть конфигурации. Важно понимать: это огромный пласт знаний, которые лежат за пределами бизнеса клиента. Именно тут и может пригодиться опыт облачного провайдера, предоставляющего аттестованную виртуальную серверную.

В свою очередь, облачные провайдеры обладают рядом преимуществ, которые, без преувеличения, способные закрыть 99% потребностей бизнеса в области защиты персональных данных:

  • капитальные затраты преобразуются в операционные;

  • провайдер со своей стороны гарантирует обеспечение необходимого уровня безопасности и доступности на базе проверенного типового решения;

  • нет необходимости содержать штат специалистов, которые будут обеспечивать работу ИСПДн на уровне железа;

  • провайдеры предлагают гораздо более гибкие и эластичные решения;

  • специалисты провайдера имеют все необходимые сертификаты;

  • compliance не ниже, чем при построении собственной архитектуры, с учетом требований и рекомендаций регуляторов.

Старый миф о том, что размещать персональные данные в облаках нельзя, до сих пор необычайно популярен. Правдив он только отчасти: ПДн действительно нельзя размещать в первом попавшемся облаке. Требуется соблюдение некоторых технических мер, применение определенных сертифицированных решений. Если провайдер соответствует всем требованиям законодательства, риски, связанные с утечкой ПДн, сводятся к минимуму. У многих провайдеров есть отдельная инфраструктура для обработки ПДн в соответствии с 152-ФЗ. Однако к выбору поставщика тоже нужно подходить со знанием определенных критериев, их мы обязательно коснемся ниже.

Клиенты нередко приходят к нам с некоторыми опасениями по поводу размещения ПДн в облаке провайдера. Что ж, давайте сразу их обсудим.

  • Данные могут быть похищены при передаче или миграции

Опасаться этого не стоит провайдер предлагает клиенту создание защищенного канала передачи данных, построенного на сертифицированных решениях, усиленные меры аутентификации для контрагентов и сотрудников. Остается выбрать подходящие способы защиты и имплементировать их в рамках работы с клиентом.

  • Приедет маски-шоу и унесет/опечатает/обесточит сервер

Вполне можно понять заказчиков, которые опасаются, что их бизнес-процессы будут нарушены вследствие недостаточного контроля над инфраструктурой. Как правило, об этом думают те клиенты, чье железо ранее располагалось в небольших серверных, а не специализированных ЦОД. В реальности ЦОДы оснащены современными средствами как физической, так и информационной защиты. Любые операции в таком дата-центре практически нереально произвести без достаточных оснований и бумаг, а подобные активности требуют соблюдения целого ряда процедур. Вдобавок выдергивание вашего сервера из ЦОД может затронуть других клиентов провайдера, и это уже точно никому не нужно. К тому же, никто не сможет указать пальцем именно на ваш виртуальный сервер, поэтому, если кто-то и захочет его украсть или устроить маски-шоу, сначала ему придется столкнуться с массой бюрократических проволочек. За это время вы, скорее всего, успеете несколько раз мигрировать на другую площадку.

  • Хакеры взломают облако и украдут данные

Интернет и печатная пресса пестрят заголовками о том, как очередное облако пало жертвой киберпреступников, а миллионы записей с ПДн утекли в сеть. В подавляющем большинстве случаев уязвимости обнаруживались совсем не на стороне провайдера, а в ИС жертв: слабые или вообще пароли по умолчанию, дыры в движках сайтов и БД, банальная беспечность бизнеса при выборе средств защиты и организации процедур доступа к данным. Все аттестованные решения проверяются на наличие уязвимостей. Мы тоже регулярно проводим контрольные пентесты и аудиты безопасности как самостоятельно, так и средствами внешних организаций. Для провайдера это вопрос репутации и бизнеса в целом.

  • Провайдер/сотрудники провайдера украдут ПДн в корыстных целях

Это достаточно щепетильный момент. Ряд компаний из мира ИБ пугают своих клиентов и настаивают, что внутренние сотрудники опаснее хакеров извне. Возможно, в ряде случаев это так, но бизнес нельзя построить без доверия. Время от времени мелькают новости о том, что собственные сотрудники организаций сливают данные клиентов злоумышленникам, а внутренняя безопасность подчас организована намного хуже, чем внешняя. Здесь важно понимать, что любой крупный провайдер крайне не заинтересован в негативных кейсах. Действия сотрудников провайдера хорошо регламентированы, разделены роли и зоны ответственности. Все бизнес-процессы построены так, что случаи утечки данных крайне маловероятны и всегда заметны внутренним службам, поэтому клиентам проблем с этой стороны опасаться не стоит.

  • Вы мало платите, так как оплачиваете услуги данными своего бизнеса.

Еще один миф: клиент, арендующий защищенную инфраструктуру по комфортной цене, на самом деле платит за нее своими данными так нередко думают специалисты, которые не прочь прочитать перед сном пару теорий заговора. Во-первых, возможность проведения каких-то операций с вашими данными помимо тех, что указаны в поручении, по сути равна нулю. Во-вторых, адекватный провайдер дорожит отношениями с вами и своей репутацией кроме вас у него еще множество клиентов. Более вероятен обратный сценарий, при котором провайдер будет рьяно защищать данные своих клиентов, на которых держится в том числе и его бизнес.

Выбираем облачного провайдера для ИСПДн

На сегодняшний день рынок предлагает немало решений для компаний, являющихся операторами ПДн. Приведем ниже общий список рекомендаций по выбору подходящего.

  • Провайдер должен быть готов заключить официальный договор с описанием обязанностей сторон, SLA и зон ответственности в ключе обработки ПДн. Фактически, между вами и провайдером, помимо договора на сервис, должно быть подписано поручение на обработку ПДн. В любом случае стоит внимательно их изучить. Важно понимать разграничение зон ответственности между вами и провайдером.

  • Обратите внимание, что сегмент должен соответствовать требованиям, а значит, иметь аттестат с указанием уровня защищенности не ниже, чем требуется вашей ИС. Бывает, что провайдеры публикуют только первую страницу аттестата, из которой мало что понятно, или ссылаются на аудит или прохождение процедур соответствия, не публикуя сам аттестат (а был ли мальчик?). Стоит его запросить это публичный документ, в котором указывается, кем была проведена аттестация, срок действия, расположение облака и т.п.

  • Провайдер должен предоставлять информацию о том, где находятся его площадки (объекты защиты), чтобы вы могли контролировать размещение ваших данных. Напомним, что первоначальный сбор ПДн должен выполняться на территории РФ, соответственно в договоре/аттестате желательно видеть адреса ЦОД.

  • Провайдер должен использовать сертифицированные СЗИ и СКЗИ. Конечно, большинство провайдеров не афишируют используемые технические средства защиты и архитектуру решений. Но вы как клиент не сможете не знать об этом. Так, например, для удаленного подключения к системе управления (порталу управления) необходимо использовать средства защиты. Провайдер не сможет обойти это требование и предоставит вам (или потребует от вас использовать) сертифицированные решения. Возьмите в тест ресурсы и вы сразу поймете, как и что устроено.

  • Крайне желательно, чтобы облачный провайдер оказывал дополнительные услуги в сфере ИБ. Это могут быть различные сервисы: защита от DDoS-атак и WAF, антивирусный сервис или песочница и т.п. Все это позволит вам получать защиту как сервис, не отвлекаться на построение систем защиты, а заниматься бизнес-приложениями.

  • Провайдер должен быть лицензиатом ФСТЭК и ФСБ. Как правило, такая информация размещается прямо на сайте. Обязательно запросите эти документы и проверьте, правильно ли указаны адреса предоставления услуг, название компании провайдера и т.п.

Давайте подытожим. Аренда инфраструктуры позволит отказаться от CAPEX и оставить в своей зоне ответственности только свои бизнес-приложения и сами данные, а тяжелое бремя аттестации железа и программно-аппаратных средств передать провайдеру.

Как мы проходили аттестацию

Совсем недавно мы успешно прошел переаттестацию инфраструктуры Защищенного облака ФЗ-152 на соответствие требованиям для работы с персональным данными. Работы проводил Национальный аттестационный центр.

На текущий момент Защищенное облако ФЗ-152 аттестовано для размещения информационных систем, участвующих в обработке, хранении или передаче персональных данных (ИСПДн) согласно требованиям уровня УЗ-3.

Процедура аттестации предполагает проверку соответствия инфраструктуры облачного провайдера на соответствие уровню защиты. Сам провайдер предоставляет сервис IaaS и не является оператором персональных данных. Процесс предполагает оценку как организационных (документация, приказы и т.п.), так и технических мер (настройка средств защиты и пр.).

Тривиальным его назвать нельзя. Несмотря на то, что ГОСТ по программам и методикам проведения аттестационных мероприятий появился еще в 2013 году, жестких программ для облачных объектов до сих пор не существует. Аттестационные центры разрабатывают эти программы, основываясь на собственной экспертизе. С появлением новых технологий программы усложняются и модернизируются, соответственно, аттестатор должен иметь опыт работы с облачными решениями и понимать специфику.

В нашем случае объект защиты состоит из двух локаций.

  • Непосредственно в ЦОД расположены облачные ресурсы (сервера, СХД, сетевая инфраструктура, средства защиты и пр.). Безусловно, такой виртуальный ЦОД подключен к сетям общего пользования, соответственно, должны выполняться определенные требования по межсетевому экранированию, например, использование сертифицированных межсетевых экранов.

  • Вторая часть объекта средства управления облаком. Это рабочие станции (АРМ администратора), с которых осуществляется управление защищенным сегментом.

Локации связываются через VPN-канал, построенный на СКЗИ.

Поскольку технологии виртуализации создают предпосылки для появления угроз, мы используем и дополнительные сертифицированные средства защиты.

Структурная схема глазами аттестатораСтруктурная схема глазами аттестатора

Если клиенту требуется аттестация его ИСПДн, после аренды IaaS ему останется только провести оценку информационной системы выше уровня виртуального ЦОД. Эта процедура подразумевает проверку инфраструктуры и используемого на нем ПО. Так как по всем инфраструктурным вопросам вы можете ссылаться на аттестат провайдера, вам останется только провести работы с ПО.

Разделение на уровне абстракцииРазделение на уровне абстракции

В заключение приведем небольшой чек-лист для компаний, которые уже работают с ПДн или только планируют. Итак, как обрабатывать и не обжечься.

  1. Для аудита и разработки моделей угроз и нарушителя пригласите опытного консалтера из числа аттестационных лабораторий, которые помогут разработать необходимые документы и доведут вас уже до этапа технических решений.

  2. На этапе выбора облачного провайдера обращайте внимание на наличие аттестата. Хорошо, если компания публично разместила его прямо на сайте. Провайдер должен быть лицензиатом ФСТЭК и ФСБ, а предлагаемый им сервис аттестован.

  3. Убедитесь, что у вас будет заключен официальный договор и подписано поручение на обработку ПДн. На основании этого вы сможете провести как проверку на соответствие, так аттестацию ИСПДн Если эти работы на этапе технического проекта и создания проектно-технической документации вам кажутся обременительными, стоит обратиться к сторонним консалтинговым компаниям из числа аттестационных лабораторий.

Если для вас актуальны вопросы обработки ПДн, 18 сентября, в эту пятницу, будем рады видеть вас на вебинаре Особенности построения аттестованных облаков.

Подробнее..

Знакомство с Tanzu Mission Control

31.08.2020 18:16:08 | Автор: admin
Сегодня мы хотим поговорить о VMware Tanzu, новой линейке продуктов и услуг, которая была анонсирована во время прошлогодней конференции VMWorld. На повестке дня один из самых интересных инструментов: Tanzu Mission Control.
Осторожно: под катом чрезвычайно много изображений.



Что такое Mission Control


Как заявляет в своем блоге сама компания, основная задача VMware Tanzu Mission Control привнести порядок в кластерный хаос. Mission Control представляет из себя управляемую через API платформу, которая позволит администраторам применять политики к кластерам или группам кластеров и устанавливать правила безопасности. Основанные на модели SaaS инструменты безопасно интегрируются в кластеры Kubernetes через агента и поддерживают массу стандартных операций с кластером, включая операции управления жизненным циклом (развертывание, масштабирование, удаление и пр.).

В основе идеологии линейки Tanzu лежит максимальное использование open-source технологий. Для управления жизненным циклом кластеров Tanzu Kubernetes Grid используется Cluster API, Velero для бэкапов и восстановления, Sonobuoy для контроля соответствия конфигурации кластеров Kubernetes и Contour в качестве ингресс-контроллера.

Общий список функций Tanzu Mission Control выглядит так:
  • централизованное управление всеми вашими кластерами Kubernetes;
  • управление идентификацией и доступом (IAM);
  • диагностика и мониторинг состояния кластеров;
  • управление конфигурацией и настройками безопасности;
  • планирование регулярных проверок состояния кластера;
  • создание резервных копий и восстановление;
  • управление квотами;
  • визуализированное представление утилизации ресурсов.




Почему это важно


Tanzu Mission Control поможет бизнесу решить задачу управления большим парком кластеров Kubernetes, расположенных локально, в облаке и у нескольких сторонних провайдеров. Рано или поздно любая компания, чья деятельность завязана на IT, оказывается вынуждена поддерживать множество разнородных кластеров, расположенных у разных провайдеров. Каждый кластер превращается в снежный ком, которому нужна грамотная организация, соответствующая инфраструктура, политики, защита, системы мониторинга и многое другое.

В наши дни любой бизнес стремится сократить издержки и автоматизировать рутинные процессы. А сложный IT-ландшафт явно не способствует экономии и концентрации на приоритетных задачах. Tanzu Mission Control дает организациям возможность работать с множеством кластеров Kubernetes, развернутых у множества провайдеров, гармонизировав при этом операционную модель.

Архитектура решения




Tanzu Mission Control это мультитенантная платформа, предоставляющая пользователям доступ к набору гибко настраиваемых политик, которые можно применять к кластерам и группам кластеров Kubernetes. Каждый пользователь привязан к Организации, именно она является корнем ресурсов групп кластеров и рабочих пространств (Workspaces).



Что умеет Tanzu Mission Control


Выше мы уже кратко перечислили список функций решения. Давайте посмотрим, как это реализовано в интерфейсе.

Единое представление всех кластеров Kubernetes предприятия:



Создание нового кластера:





Кластеру сразу можно назначить группу, и он унаследует заданные ей политики.

Подключение кластера:



Уже существующие кластеры можно просто подключить с помощью специального агента.

Группировка кластеров:



В Cluster groups можно группировать кластеры для наследования назначаемых политик сразу на уровне групп, без ручного вмешательства.

Workspaces:



Дает возможность гибко настраивать доступы к приложению, которое находится в рамках нескольких пространств имен, кластеров и облачных инфраструктур.

Рассмотрим подробнее принципы работы Tanzu Mission Control в лабораторных работах.

Лабораторная работа #1


Разумеется, детально представить себе работу Mission Control и новых решений Tanzu без практики достаточно сложно. Для того, чтобы вы могли изучить основные возможности линейки, VMware предоставляют доступ к нескольким лабораторным стендам. На этих стендах можно выполнить лабораторные работы, используя пошаговые инструкции. Помимо собственно Tanzu Mission Control для тестирования и изучения доступны и другие решения. С полным списком лабораторных работ можно ознакомиться на этой странице.

Для практического ознакомления с различными решениями (включая небольшую игру по vSAN) отводится разное время. Не волнуйтесь, это весьма условные цифры. Например, лабу по Tanzu Mission Control при прохождении из дома можно решать до 9 с половиной часов. Кроме того, даже если таймер выйдет, можно будет вернуться и пройти всё заново.

Прохождение лабораторной работы #1
Для доступа к лабораторным работам понадобится аккаунт VMware. После авторизации откроется всплывающее окно с основной канвой работы. В правой части экрана будет помещена подробная инструкция.
После прочтения небольшой вводной части о Tanzu вам будет предложено пройти практику в интерактивной симуляции Mission Control.
Откроется новое всплывающее окно windows-машины, и вам будет предложено выполнить несколько базовых операций:
  • создать кластер
  • настроить его базовые параметры
  • обновить страницу и убедиться в том, что всё настроено корректно
  • задать политики и произвести проверку кластера
  • создать рабочее пространство
  • создать пространство имен
  • снова поработать с политиками, каждый шаг подробно разъясняется в руководстве
  • демо-апгрейд кластера




Разумеется, интерактивная симуляция не дает достаточной свободы для самостоятельного изучения: вы двигаетесь по заранее проложенным разработчиками рельсам.

Лабораторная работа #2


Здесь мы уже имеем дело с кое-чем посерьезнее. Эта лабораторная работа не настолько привязана к рельсам, как предыдущая и требует более внимательного изучения. Приводить её здесь целиком мы не станем: ради экономии вашего времени разберем только второй модуль, первый посвящен теоретическому аспекту работы Tanzu Mission Control. При желании вы можете пройти ее самостоятельно полностью. Этот модуль предлагает нам окунуться в управление жизненным циклом кластеров через Tanzu Mission Control.

Примечание: лабораторные работы Tanzu Mission Control регулярно актуализируются и уточняются. Если при прохождении вами лабораторной работы какие-то экраны или шаги будут отличаться от приведенных ниже, следуйте указаниям в правой части экрана. Мы же пройдемся по актуальной на момент написания статьи версии ЛР и рассмотрим ее ключевые элементы.

Прохождение лабораторной работы #2
После процесса авторизации в VMware Cloud Services, запускаем Tanzu Mission Control.



Первый шаг, предлагаемый лабораторией, развертывание кластера Kubernetes. Сначала нам необходимо получить доступ к ВМ с Ubuntu с помощью PuTTY. Запускаем утилиту и выбираем сеанс с Ubuntu.



Поочередно выполняем три команды:
  • создание кластера: kind create cluster --config 3node.yaml --name=hol
  • загрузка KUBECONFIG-файла: export KUBECONFIG="$(kind get kubeconfig-path --name="hol")"
  • вывод нод: kubectl get nodes




Теперь созданный нами кластер нужно добавить в Tanzu Mission Control. Из PuTTY возвращаемся в Chrome, переходим в Clusters и нажимаем ATTACH CLUSTER.
Из выпадающего меню выбираем группу default, вписываем предлагаемое лабой имя и нажимаем REGISTER.



Копируем полученную команду и идем в PuTTY.



Выполняем полученную команду.



Для отслеживания прогресса выполняем еще одну команду: watch kubectl get pods -n vmware-system-tmc. Дожидаемся, пока у всех контейнеров будет статус Running или Completed.



Возвращаемся в Tanzu Mission Control и нажимаем VERIFY CONNECTION. Если все прошло успешно, индикаторы всех проверок должны быть зелеными.



Теперь создадим новую группу кластеров и развернем там новый кластер. Идем в Cluster groups и нажимаем NEW CLUSTER GROUP. Вписываем имя и нажимаем CREATE.



Новая группа сразу должна появиться в списке.



Развернем новый кластер: идем в Clusters, нажимаем NEW CLUSTER и выбираем ассоциированную с лабораторной работой опцию.



Добавим имя кластера, выберем назначаемую ему группу в нашем случае hands-on-labs и регион деплоя.



При создании кластера доступны и другие опции, но при прохождении лабораторной смысла их менять нет. Выбираем нужную вам конфигурацию, нажимаем Next.



Некоторые параметры нужно отредактировать, для этого нажимаем Edit.



Увеличим количество рабочих нод до двух, сохраним параметры и нажмем CREATE.
В процессе вы увидите такой прогрессбар.



После успешного деплоя перед вами будет такая картина. Все чеки должны быть зелеными.



Теперь нам надо скачать файл KUBECONFIG, чтобы управлять кластером с помощью стандартных команд kubectl. Это можно сделать прямо через пользовательский интерфейс Tanzu Mission Control. Скачиваем файл и переходим к скачиванию Tanzu Mission Control CLI нажатием click here.



Выбираем нужную версию и скачиваем CLI.



Теперь нам необходимо получить API Token. Для этого переходим в My Account и генерируем новый токен.



Заполняем поля и нажимаем GENERATE.



Полученный токен копируем и нажимаем CONTINUE. Открываем Power Shell и вводим команду tmc-login, затем токен, который мы получили и скопировали на предыдущем шаге, а потом Login Context Name. Выбираем info логи из предложенных, регион и olympus-default в качестве ssh-ключа.



Получаем namespaces:kubectl --kubeconfig=C:\Users\Administrator\Downloads\kubeconfig-aws-cluster.yml get namespaces.

Вводим kubectl --kubeconfig=C:\Users\Administrator\Downloads\kubeconfig-aws-cluster.yml get nodes, чтобы убедиться, что все ноды в статусе Ready.



Теперь в этом кластере нам предстоит развернуть небольшое приложение. Сделаем два развертывания coffee and tea в виде сервисов coffee-svc и tea-svc, каждый из которых запускает разные образы nginxdemos/hello and nginxdemos/hello:plain-text. Делается это следующим образом.

Через PowerShell зайдем в загрузки и найдем файл cafe-services.yaml.



Из-за некоторых изменений в API нам придется его обновить.

Pod Security Policies включены по умолчанию. Для запуска приложений с привилегиями необходимо привязать учетную запись.

Создаем привязку: kubectl --kubeconfig=kubeconfig-aws-cluster.yml create clusterrolebinding privileged-cluster-role-binding --clusterrole=vmware-system-tmc-psp-privileged --group=system:authenticated
Деплоим приложение: kubectl --kubeconfig=kubeconfig-aws-cluster.yml apply -f cafe-services.yaml
Проверяем: kubectl --kubeconfig=kubeconfig-aws-cluster.yml get pods



Модуль 2 закончен, вы прекрасны и восхитительны! Пройти остальные модули, включающие управление политиками и проверки на соответствие советуем самостоятельно.

Если вы хотите пройти эту лабораторную работу целиком, найти ее можно в каталоге. А мы перейдем к заключительной части статьи. Поговорим о том, на что удалось посмотреть, сделаем первые аккуратные выводы и развернуто скажем, что такое Tanzu Mission Control применительно к реальным бизнес-процессам.

Мнения и выводы


Безусловно, говорить о практических вопросах работы с Tanzu пока рановато. Материалов для самостоятельного изучения не так уж и много, а развернуть тестовый стенд, чтобы потыкать новый продукт со всех сторон на сегодняшний день не представляется возможным. Тем не менее, даже по имеющимся данным можно сделать определенные выводы.

Польза Tanzu Mission Control


Система вышла действительно интересная. Сразу же хочется выделить несколько удобных и полезных плюшек:
  • Можно создавать кластеры через веб-панель и через консоль, что очень понравится разработчикам.
  • Управление RBAC через воркспейсы реализовано в интерфейсе пользователя. В лабе пока не работает, но в теории отличная вещь.
  • Централизованное управление привилегиями на основе шаблонов
  • Полный доступ к namespaceам.
  • Редактор YAML.
  • Создание сетевых политик.
  • Мониторинг здоровья кластера.
  • Возможность делать резервное копирование и восстановление через консоль.
  • Управление квотами и ресурсами с визуализацией фактической утилизации.
  • Автоматический запуск инспекции кластеров.

Опять же, многие компоненты на текущий момент находятся в стадии доработки, поэтому полноценно говорить о плюсах и минусах некоторых инструментов пока рано. Кстати, Tanzu MC, исходя из демонстрации, может на лету делать апгрейд кластера и в целом обеспечивать весь жизненный цикл кластера сразу у множества провайдеров.

Приведем несколько высокоуровневых примеров.

В чужой кластер со своим уставом
Допустим, у вас есть команда разработчиков, в которой четко распределены роли и обязанности. Каждый занят своим делом и не должен даже случайно помешать работе коллег. Или же в команде есть один или несколько менее опытных специалистов, которым вы не хотите давать лишние права и свободы. Предположим также, что у вас есть Kubernetes сразу от трех провайдеров. Соответственно, чтобы ограничить права и привести их к общему знаменателю, придется поочередно заходить в каждую панель управления и все прописывать вручную. Согласитесь, не самое продуктивное времяпрепровождение. И чем больше у вас ресурсов, тем муторнее процесс. Tanzu Mission Control позволит руководить разграничением ролей из одного окна. На наш взгляд, очень удобная функция: никто ничего не сломает, если вы случайно забудете где-то указать нужные права.

Кстати, наши коллеги из МТС в своем блоге сравнивали Kubernetes от вендора и open source. Если вы давно хотели узнать, в чем отличия и на что смотреть при выборе welcome.

Компактная работа с логами
Еще один пример из реальной жизни работа с логами. Предположим, в команде также имеется тестировщик. В один прекрасный день он приходит к разработчикам и возвещает: в приложении обнаружен баг, срочно фиксим. Закономерно, что первое, с чем захочет ознакомиться разработчик это логи. Посылать их файлами через электронную почту или Telegram моветон и прошлый век. Mission Control предлагает альтернативу: можно задать разработчику специальные права, чтобы они могли читать логи только в конкретном пространстве имен. В таком случае тестировщику достаточно сказать: в таком-то приложении, в таком-то поле, в таком-то namespace есть баги, и разработчик без труда откроет логи и сможет локализовать проблему. А за счет ограниченных прав не полезет сразу её чинить, если компетенция не позволяет.

В здоровом кластере здоровое приложение
Еще одна отличная возможность Tanzu MC отслеживание здоровья кластера. Судя по предварительным материалам, система позволяет просматривать некоторую статистику. На текущий момент сложно сказать, насколько именно детализированной будет эта информация: пока что все выглядит достаточно скромно и просто. Есть мониторинг загруженности CPU и RAM, показаны статусы всех компонентов. Но даже в таком спартанском виде это очень полезная и эффективная деталь.

Итоги


Разумеется, в лабораторном представлении Mission Control, в, казалось бы, стерильных условиях, наблюдаются некоторые шероховатости. Вы и сами наверняка их заметите, если решитесь пройти работу. Какие-то моменты сделаны недостаточно интуитивно даже администратору со стажем придется вчитаться в мануал, чтобы разобраться в интерфейсе и его возможностях.

Тем не менее, с учетом сложности продукта, его важности и роли, которую ему предстоит сыграть на рынке получилось круто. Чувствуется, что создатели старались наладить рабочий процесс пользователя. Сделать каждый элемент управления максимально функциональным и понятным.

Остается только опробовать Tanzu на тестовом стенде, чтобы реально понять все его плюсы, минусы и нововведения. Как только такая возможность нам представится, мы поделимся с читателями Хабра подробным отчетом о работе с продуктом.
Подробнее..

Знакомство с vRealize Automation

13.10.2020 12:18:27 | Автор: admin

Привет, Хабр! Сегодня мы поговорим о vRealize Automation. Статья в первую очередь ориентирована на пользователей, которые ранее не сталкивались с этим решением, поэтому под катом мы познакомим вас с его функциями и поделимся сценариями использования.

vRealize Automation позволяет заказчикам повысить адаптивность, производительность и эффективность работы за счет упрощения ИТ-среды, оптимизации ИТ-процессов и предоставления платформы автоматизации, готовой для реализации принципов DevOps.

Несмотря на то, что новая 8 версия vRealize Automation была официально выпущена еще осенью 2019 года, актуальной информации об этом решении и его обновленном функционале в рунете до сих пор мало. Исправим эту несправедливость.

Что такое vRealize Automation

Это программный продукт в рамках экосистемы VMware. Он позволяет автоматизировать некоторые аспекты управления вашей инфраструктурой и приложениями.

Фактически vRealize Automation это портал, с помощью которого администраторы, разработчики и бизнес-пользователи могут запрашивать ИТ-службы и управлять облачными и локальными ресурсами с соблюдением требуемых политик.

vRealize Automation доступен в виде облачного SaaS-сервиса, либо может быть установлен в частном облаке заказчика.

Самый распространенный сценарий для локальных проектов комплексная инсталляция на стеке VMware: vSphere, ESXi-хосты, vCenter Server, vRealize Operation и т.п.

К примеру, вашему бизнесу требуется гибко и быстро создавать виртуальные машины. Не всегда рационально прописывать адреса, коммутировать сети, устанавливать ОС и делать прочие рутинные вещи вручную. vRealize Automation позволяет создавать и публиковать схемы элементов для развертывания машин. Это могут быть как простые схемы, так и сложные, включающие стек пользовательских приложений. Готовые опубликованные схемы размещаются в каталоге служб.

Порталы vRealize Automation

После установки vRealize Automation главному администратору становится доступна консоль управления. В ней можно создать большое количество порталов cloud service для разных категорий пользователей. Например, один для администраторов. Второй для сетевых инженеров. Третий для менеджеров. Каждый портал может иметь собственные blueprints (схемы). Каждая группа пользователей может обращаться только к одобренным для нее сервисам.

Блюпринты описываются с помощью легко читаемых сценариев на YAML и поддерживают отслеживание версионности и процессов Git:

Подробнее о внутреннем устройстве и возможностях vRealize Automation вы можете прочитать в серии блогов здесь.

vRealize Automation 8: что нового

16 ключевых сервисов vRealize Automation 8 на одном скриншоте16 ключевых сервисов vRealize Automation 8 на одном скриншоте

16 ключевых сервисов vRealize Automation 8 на одном скриншоте

С подробными релизными комментариями вы можете ознакомиться на странице VMware, мы же приведем наиболее интересные особенности новой версии:

  • vRealize Automation 8 полностью переписан и построен на базе микросервисной архитектуры.

  • Для установки необходимо иметь в инфраструктуре VMware Identity Manager и LifeCycle Manager. Можно воспользоваться Easy Install, который поочередно установит и сконфигурирует компоненты.

  • vRealize Automation 8 не требует установки дополнительных IaaS-серверов на базе MS Windows Server, как это было в версиях 7.х.

  • vRealize Automation установлен на базе Photon OS 3.0. Все ключевые сервисы работают как K8S Pods. Контейнеры внутри podов работают на Docker.

  • PostgreSQL единственная поддерживаемая СУБД. Podы используют для хранения данных Persistent Volume. Под ключевые сервисы выделена отдельная база данных.

Пройдемся по компонентам vRealize Automation 8.

Cloud Assembly используется для деплоя ВМ, приложений и прочих сервисов в различные публичные облака и vCenter Servers. Работает на базе Infrastructure as Code, позволяет оптимизировать предоставление инфраструктуры в соответствии с принципами DevOps.

Также доступны различные out-of-the-box интеграции:

В этом сервисе пользователи создают шаблоны в формате YAML и в виде схемы компонентов.

Для использования Marketplace и предподготовленных сервисов можно привязаться с аккаунта My VMware.

Администраторы могут использовать vRealize Orchestrator Workflows для связки с дополнительными объектами инфраструктуры (например MS AD/DNS и пр.).

Можно сделать связку vRA с VMware Enterprise PKS для деплоя кластеров K8S.

В разделе Deployments мы видим уже установленные ресурсы.

Code Stream это решение для автоматизации выпуска и непрерывного предоставления ПО, которое обеспечивает стабильный и регулярный релиз приложений и программного кода. Доступно огромное количество интеграций Jenkins, Bamboo, Git, Docker, Jira и др.

Service Broker сервис, предоставляющий каталог для энтерпрайз-пользователей:

В Service Broker администраторы могут настроить политики аппрувов по определенным параметрам.

Сценарии использования vRealize Automation

Все в одном

Сейчас в мире существует много разных решений для виртуализации VMware, Hyper-V, KVM. Нередко бизнес прибегает к использованию глобальных облаков типа Azure, AWS и Google Cloud. Управлять этим зоопарком с каждым годом все сложнее и сложнее. Кому-то эта проблема может показаться надуманной: почему бы, мол, не пользоваться в рамках компании только одним решением? Дело в том, что для каких-то задач действительно может хватить недорогого KVM. А более серьезным проектам понадобится весь функционал VMware. Выбрать что-то одно бывает невозможно как минимум по экономическим причинам.

Вместе с увеличением количества используемых решений растет и объем задач. Например, у вас может появиться необходимость автоматизировать поставку ПО, управление конфигурацией и развертывание приложений. До появления vRealize Automation не было единого инструмента, который мог бы впитать в себя управление всеми этими платформами в режиме одного окна.

Каким бы стеком решений и площадок вы ни пользовались, есть возможность управлять ими через единый портал.Каким бы стеком решений и площадок вы ни пользовались, есть возможность управлять ими через единый портал.

Каким бы стеком решений и площадок вы ни пользовались, есть возможность управлять ими через единый портал.

Автоматизируем типовые процессы

В рамках vRealize Automation возможен подобный сценарий:

  • Администратору приложения требуется развернуть дополнительную ВМ. С vRealize Automation ему не придется делать что-то вручную или договариваться с соответствующими специалистами. Достаточно будет нажать на условную кнопку Хочу ВМ и побыстрее, и заявка отправится дальше.

  • Заявку получает системный администратор. Он изучает запрос, смотрит, есть ли достаточное количество свободных ресурсов, и аппрувит его.

  • Следующим в очереди стоит менеджер. Его задача оценить, готова ли компания выделить средства для реализации проекта. Если все в порядке, он тоже нажимает Approve.

Мы сознательно выбрали максимально простой процесс и сократили количество его звеньев, чтобы выделить главную мысль:

vRealize Automation, помимо ИТ-процессов, затрагивает плоскость бизнес-процессов. Каждый специалист закрывает свою часть задачи в режиме конвейера.

Приведенную в виде примера задачу можно решить с помощью других систем например, ServiceNow или Jira. Но vRealize Automation находится ближе к инфраструктуре и в нем возможны более сложные кейсы, чем развертывание виртуальной машины. Можно в режиме одной кнопки автоматически проверять наличие места в хранилище, при необходимости создавать новые луны. Технически даже возможно построить нестандартное решение и заскриптовать запросы к облачному провайдеру.

DevOps и CI/CD

Помимо сбора всех площадок и облаков в одном окне, vRealize Automation позволяет управлять всеми доступными средами в соответствиями с принципами DevOps. Разработчики сервисов могут разрабатывать и выпускать приложения без привязки к каждой конкретной платформе.

Как видно на схеме, над уровнем платформы находится Developer Ready Infrastructure, которая реализует функции интеграции и доставки, а также управления различными сценариями по развертыванию ИТ-систем вне зависимости от платформы, используемой на уровень ниже.

Consumption, или уровень потребителя услуг, представляет из себя среду взаимодействия пользователей/администраторов с конечными ИТ-системами:

  • Content Development позволяет выстроить взаимодействие с Dev-уровнем и управлять изменениями, версионностью и обращаться к репозиторию.

  • Service Catalog позволяет доставлять сервисы конечным потребителям: откатывать/публиковать новые и получать обратную связь.

  • Projects позволяет наладить внутренние ИТ-процессы принятия решений, когда каждое изменение или делегирование прав проходит процесс согласования, что актуально для компаний из энтерпрайза.

Немного практики

С теорией и сценариями использования покончено. Давайте посмотрим, как vRA позволяет решать типовые задачи.

Автоматизация процесса провижининга виртуальной машины

  1. Заказ виртуальной машины из портала vRA.

  2. Аппрув со стороны ответственного за инфраструктуру лица и/или руководителя.

  3. Выбор правильного кластера/хоста сети.

  4. Запрос IP-адреса в IPAM (i.e. Infoblox), получение сетевой конфигурации.

  5. Создание учетной записи в Active Directory/записи DNS.

  6. Деплой машины.

  7. Отправка e-mail оповещения заказчику по ее готовности.

Единый блюпринт для Linux-based ВМ

  1. Один объект в каталоге с возможностью выбора дата-центра, роли и среды (dev, test, prod).

  2. В зависимости от набора опций выше выбираются правильные vCenter, сети и СХД.

  3. Резервируются IP-адреса и регистрируются DNS. Если ВМ развертывается в среде prod, она добавляется в backup job.

  4. Деплой машины.

  5. Интеграция с разными Configuration Management системами (к примеру, Ansible -> запуск корректного playbook).

Внутренний портал администрирования в едином каталоге через различные API сторонних продуктов

  • Создание/удаление и управление учетными записями пользователей в AD по правилам наименования компании:

    • В случае создания учетной записи пользователя письмо с данными для входа направляется руководителю подразделения/отдела. На основании выбранного отдела и должности пользователю присваиваются необходимые права (RBAC).

    • Данные для входа в сервисную учетную запись отправляются непосредственно тому пользователю, который запрашивает ее создание.

  • Управление backup-сервисами.

  • Управление SDN firewall rules, security groups, ipsec tunnels, etc. применяются по подтверждению от ответственных лиц за сервис.

Итог

vRA чисто бизнесовый продукт, гибкий и легко масштабируемый. Он постоянно развивается, имеет довольно сильную поддержку и отражает современные веяния. Например, это один из первых продуктов которой перешел на микросервисную архитектуру на базе контейнеров.

С его помощью можно реализовать практически любые сценарии автоматизации в рамках гибридных облаков. По сути, в том или ином виде поддерживается все, что обладает API. Вдобавок это отличный инструмент для предоставления сервисов конечным пользователям параллельно с их доставкой и разработкой DevOps, которые опираются на ИТ-отдел, занимающийся вопросами безопасности и управления непосредственно платформой.

Еще один плюс vRealize Automation это решение от VMware. Оно подойдет большинству клиентов, поскольку они уже пользуются продуктами этой компании. Не придется ничего перекраивать.

Разумеется, мы не претендуем на детальное описание решения. В будущих статьях мы развернуто опишем некоторые специфические возможности vRealize Automation и дадим ответы на ваши вопросы, если они возникнут в комментариях.

Если решение и сценарии его использования заинтересовали, будем рады видеть вас на нашем вебинаре, посвященном автоматизации ИТ-процессов с помощью vRealize Automation.

Подробнее..

VMworld 2020 щеночки, кубики и Рене Зеллвегер

16.10.2020 20:06:22 | Автор: admin

Но, разумеется, это далеко не все, чем нам запомнилась самая масштабная ИТ-конференция года. Те, кто следит за нашими социальными сетями, наверняка знают о том, что в течение всего события мы освещали его ключевые моменты и брали интервью у экспертов VMware. Под катом короткий список самых примечательных анонсов VMworld 2020.

Год перемен

Вряд ли хоть один спикер обошел вниманием сложность и необычность уходящего года. Множество докладов было сосредоточено вокруг тем здравоохранения, включая разработку вакцины от COVID-19, безопасности, удаленной работы и обучения. Спикеры подчеркнули, что в насыщенном технологиями современном мире именно ИТ позволяет сохранять накопленный опыт и двигаться вперед.

Крис Вольф, вице-президент VMware, ввел новое значение термина выносливость применительно к бизнес-сообществу: теперь это не просто способность справляться с повышенными нагрузками, но и умение адаптироваться к меняющимся условиям, сохраняя свою целостность. Девиз VMworld 2020 Когда мы вместе, все становится возможным (Together, Anything is Possible).

Так, именно технологии сделали возможным проведение крупнейшего ИТ-мероприятия в режиме онлайн. Более 900 сессий, десятки анонсов, сотни спикеров и даже мини-спектакль с участием голливудской звезды. Разберемся по порядку.

Безопасность и сети

В этом году тема безопасности в сети стала одной из центральных для компании. Даже если не брать в расчет колоссальный прирост трафика в стриминговых сервисах, вызванный пандемией, количество данных, приложений и удаленных сотрудников в крупных организациях все равно превышает все ожидаемые показатели. Подробный разговор о безопасности в нашем подкасте.

VMware SASE Platform

Первый продукт, о котором мы сегодня расскажем, VMware SASE Platform. Задача решения обеспечить сотрудников компаний инструментами сетевой безопасности в любом месте, где бы они ни находились. VMware SASE Platform базируется на VMware SD-WAN массиве, состоящем из более чем 2700 облачных узлов в 130 точках входа.

В основе VMware SASE Platform лежат следующие компоненты и принципы:

  • Непосредственно VMware SD-WAN.

  • Cloud Access Service Broker (CASB), Secure Web Gateway (SWG) и удаленная изоляция браузера.

  • VMware NSX Stateful Layer 7 Firewall.

  • Концепция безопасности Zero Trust во главе угла стоит идентификация конечного пользователя и его устройств при каждом подключении.

  • Edge Network Intelligence машинное обучение используется для предиктивного анализа и обеспечения безопасности как конечных пользователей, так и IoT-устройств.

Наряду с VMware SASE Platform стоит поговорить и о других инновациях компании.

VMware Workspace Security Remote

Это интегрированное решение для обеспечения безопасности, администрирования и удаленной ИТ-поддержки конечных устройств. Включает антивирусную защиту, аудит и устранение неполадок, а также функционал Carbon Black Workload по обнаружению и реагированию на угрозы.

VMware NSX Advanced Threat Prevention

Брандмауэр для защиты east-west трафика в многооблачных средах на базе машинного обучения. Служит для распознавания угроз и сокращения числа ложных срабатываний.

Также было анонсировано несколько новых решений из сетевого портфеля VMware:

  • VMware Container Networking with Antrea продукт для управления сетевым взаимодействием контейнеров в виртуальной среде.

  • NSX-T 3.1 расширение возможностей маршрутизации на базе API, автоматизированное развертывание процессов с помощью Terraform Provider.

  • VMware vRealize Network Insight 6.0 проверка и контроль качества сети на базе модели ее работы.

VMware Carbon Black Cloud Workload

Решение было анонсировано в виде планируемой технологии еще в прошлом году. Его задача обеспечение безопасности виртуальных машин на vSphere.

Кроме того, в VMware vCenter теперь будут встроенные инструменты для визуализации рисков, подобные тем, что уже есть в Carbon Black Cloud.

Также в планах компании представление отдельного модуля Carbon Black Cloud для защиты рабочих нагрузок Kubernetes.

VMware Workspace Security VDI

VMware Workspace ONE Horizon и VMware Carbon Black Cloud интегрированы в единое решение. Решение использует поведенческий анализ для защиты от вымогателей и бесфайловых вредоносов. В VMware vSphere оно доступно через VMware Tools. Больше нет необходимости устанавливать и настраивать агенты безопасности отдельно.

Приоритеты в мультиоблачности

Мультиоблачность один из ключевых векторов VMware. Тем не менее, многим компаниям с трудом дается переход даже в одно облако. Возникают сложности с вопросами безопасности и связности различных разрозненных решений. Закономерно, что бизнес боится появления такого хаоса сразу в нескольких облачных средах. Стратегия VMware в ключе мультиоблака призвана помочь заказчикам решить проблемы унификации средств и процессов.

Azure VMware Solution

Компания уже оставила заметный след в таких крупных публичных облаках, как AWS, Azure, Google Cloud, IBM Cloud и Oracle Cloud.

Azure VMware Solution позволит бизнесу сэкономить за счет гибридного использования Azure, интеграции с Microsoft Office 365 и других нативных сервисов Azure.

VMware Cloud on AWS

Новые возможности появились и в VMware Cloud on AWS. Среди них:

  • VMware Cloud Disaster Recovery.

  • Поддержка VMware Tanzu.

  • VMware Transit Connect.

  • Улучшения в области автоматизации: расширение поддержки vRealize Operations, Cloud Automation, Orchestrator, Log Insight and Network Insight support.

  • Расширенные возможности HCX: vMotion с поддержкой репликации, локальная маршрутизация для мигрированных ВМ, а также группировка миграция.

Project Monterey

Без сомнения, это один из самых интересных проектов VMware из числа анонсированных на VMworld 2020. Фактически, Project Monterey логическое продолжение технологии Project Pacific для инфраструктуры VMware Cloud Foundation, только теперь с акцентом на железо.

Миссия проекта состоит в том, чтобы реорганизовать и переработать архитектуру VCF для интеграции новых аппаратных возможностей и компонентов ПО. Сообщается, что благодаря SmartNIC VCF сможет поддерживать исполнение программ и ОС без гипервизора, то есть на чистом железе. Выделим следующие основные моменты:

  • Увеличение пропускной способности и уменьшение задержек за счет переноса сложных сетевых функций на железный уровень.

  • Унифицированные операции для всех типов ПО, включая bare-metal ОС.

  • Возможность изоляции приложений без уменьшения их производительности благодаря применению модели Zero-trust security.

Если проект вас заинтересовал, рекомендуем прочитать (на английском) эту статью.

VMware vRealize AI

Еще в 2018 году сообществу был представлен Project Magna. На минувшей конференции основной функционал проекта стал доступен в качестве VMware vRealize AI. Решение использует обучение с подкреплением для самонастройки производительности приложений. Оптимизация кэша чтения и записи в средах vSAN с помощью vRealize AI позволила на 50% повысить производительность операций ввода-вывода, включающих чтение и запись.

Inside the Tanzu Portfolio

С серьезными новостями покончено, и мы переходим к развлекательному контенту. В рамках сессии Inside the Tanzu Portfolio была продемонстрирована короткая романтическая комедия, включавшая кадры с актрисой Рене Зеллвегер. Эксперты VMware решили, что игровой формат позволит продемонстрировать новые возможности Tanzu и немного развлечет зрителей, подключившихся к конференции онлайн. Разумеется, воспринимать эту трансляцию на 100% серьезно не стоит это не академический материал, а простое объяснение портфеля решений, составляющих Tanzu.

Говоря кратко, Tanzu представляет собой новый бренд, под капотом которого находится целый комплекс ПО для разработчиков, призванный облегчить их труд на всех этапах жизненного цикла приложения. В частности, продукты Tanzu решают ключевые вопросы построения приложений, менеджмента, обеспечения безопасности, отказоустойчивости и сосредоточены вокруг работы с контейнерами Kubernetes. Рекомендуем трансляцию к просмотру продуктологам и менеджерскому составу компаний.

Virtual Data Therapy PuppyFest

Компания Commvault, золотой партнер компании VMware, продемонстрировала полусерьезный ролик о защите данных под слоганом Dont let your data go to the dogs Не допустите, чтобы ваши данные пошли псу под хвост.

Примечательно, что после трансляции основного видеоматериала был открыт живой чат с представителями команды Puppy Love компании, которая занимается передачей спасенных собак в добрые руки. Практически любой зритель из США мог в ходе сессии не только задать интересующие технические вопросы, но и обзавестись четвероногим другом.

Что же в итоге?

VMworld 2020, без преувеличения, знаковое событие на технологической арене. Если бы оно не состоялось, это значило бы, что у нашего мира начались по-настоящему тяжелые дни. Но, как оптимистично заявляет Пэт Гелсингер, CEO VMware, игра продолжается. Новые трудности подстегивают нас на создание новых способов борьбы с ними. Жизнь идет своим чередом пандемия понемногу отступит, а багаж знаний и опыта, накопленный за месяцы изоляции, останется с нами и послужит надежным подспорьем для создания чего-то нового, крутого и интересного.

А что вам больше всего запомнилось из минувшей конференции? Поделитесь своим мнением в комментариях.


По традиции скажем: оставайтесь на связи и обязательно послушайте выпуски нашего подкаста IaaS без прикрас, посвященные VMworld 2020. На Яндекс Музыке, Anchor и YouTube доступны:

  • VMworld 2020: Генеральная сессия, мультиоблака и стратегия VMware

  • VMworld 2020: Стратегия безопасности, SD-WAN, SASE и будущее сетей

  • VMworld 2020: Kubernetes, Tanzu Portfolio и что нового в vSphere 7

Подробнее..

Перевод Истоки виртуализации

03.11.2020 20:15:07 | Автор: admin

Внимание, вопрос: кто стоял у истоков виртуализации? При всей любви к продуктам этой компании, ответ VMware будет неверен. Пионерами на этом рынке были General Electric, Bell Labs и IBM.

Сотворение виртуальной машины

Уже в начале шестидесятых портфолио IBM насчитывало десятки различных систем. Каждое новое поколение разительно отличалось от предыдущего. Покупатели рвали на себе волосы в тщетных попытках поспеть за всеми инновациями и требованиями нового железа. Кроме того, в те годы еще была актуальна парадигма один компьютер за один присест выполняет только одну задачу. Вам нужно больше? Будьте добры прибегнуть к пакетной обработке (batch processing), когда одно задание выполняется на ЭВМ вслед за другим без вмешательства оператора. Неудобно, правда? Но специалисты IBM не считали это проблемой. Большая часть пользователей их машин принадлежала к научному сообществу. Им вполне хватало.

Но разнообразие систем понемногу начало досаждать IBM. Компания приняла решение заместить свой технологический зоопарк новым мейнфреймом S/360, который ко всему прочему обладал бы обратной совместимостью. Предполагалось, что компьютер будет однопользовательским и сможет работать с пакетами задач.

К первому июля 1963 года эта концепция развалилась. MIT анонсировал Project MAC Mathematics and Computation, а не то, о чем вы могли бы подумать. Более поздняя расшифровка этого названия звучит как Multiple Access Computer. Финансировался проект щедрым грантом DARPA объемом в $2 млн средства были выделены в том числе на изучение особенностей и перспектив компьютеростроения в основном, в области разработки операционных систем, искусственного интеллекта и теории вычислений. А новый грант это новые задачи. И, соответственно, новый компьютер, который сможет с ними справиться. MIT требовалась не простая, а многопользовательская машина. Первое, о чем подумали инженеры почему бы не заказать готовый компьютер у GE или IBM?. Однако IBM на тот момент пребывала в уверенности, что спроса на машины с разделением времени практически нет. А модифицированную под все хотелки версию стокового IBM-компьютера в MIT покупать не хотели. GE, напротив, с удовольствием приняла предложение MIT и решилась взяться за разработку многопользовательской машины.

И тут оказалось, что спрос на такие машины на рынке есть. Притом весьма солидный даже в Bell Labs заинтересовались в их приобретении. Тревожный звоночек.

В ответ на предложения от MIT и Bell Labs в IBM была срочно разработана и выпущена CP-40. Это первая операционная система, которая реализовывала полную виртуализацию. CP-40 была предназначена специально для IBM S/360 model 40 и поддерживала до 14 виртуальных машин c 256 Кб виртуальной памяти одновременно.

Параллельно с CP-40 была разработана программа CMS. Она обеспечивала среду для запуска приложений и взаимодействия с пользователями. CMS была крохотной интерактивной ОС для одного пользователя. Вся магия виртуализации обеспечивалась именно CP. Суть в том, что CP запускалась на мейнфрейме и создавала N-ное количество виртуальных машин под управлением CMS. Первый релиз CP/CMS состоялся в 1968-ом году, а к 1972-му на рынок была выпущена ее стабильная версия.

Традиционно компьютеры с таймшерингом поровну делили между несколькими пользователями процессорное время, память и прочие ресурсы. Характерный пример ОС MultiCS, разработанная в MIT для Project MAC. Позднее она была передана в Bell Labs, где впоследствии эволюционировала в Unix.

Подход CP был существенно проще и удобнее для пользователя: каждый, кто садился за компьютер, получал свою собственную машину. Выгода заключалась в том, что виртуальные машины имели доступ сразу ко всем ресурсам мейнфрейма, а не запирались в урезанном выделенном сегменте. Кроме того, это было более безопасно и надежно: никто не мог залезть в чужую ОС или уронить сразу весь мейнфрейм.

Вслед за CP-40 была разработана ОС CP-67. Именно ее можно назвать первым промышленным гипервизором. Позднее CP-67 эволюционировала в VM/370 для мейнфрейма S/370.

Переносимость программного обеспечения

Чуть выше мы упомянули Unix. Несмотря на то, что эта ОС не умеет запускать гостевые операционные системы, она подойдет для иллюстрации другого свойства ПО.

Unix умеет в виртуализацию на уровне пользователя или рабочего пространства. Несколько человек делят между собой процессор, память, жесткий диск и прочие ресурсы, но каждый из них имеет собственный профиль, независимый от всех прочих.

В зависимости от конфигурации системы пользователь может установить собственный набор дополнительного ПО и управлять политиками безопасности. Но не только этим славна Unix де-факто, это первая операционная система, открывшая дорогу к виртуализации приложений.

Все ее предшественники писались на голом языке ассемблера, что намертво привязывало их к конкретному компьютерному железу. В то же время C, на котором была написана Unix, позволял портировать ее на любой компьютер с куда меньшими усилиями. Достаточно было переписать специфичные участки кода и перекомпилировать ОС для новой платформы. Переносимость сделала Unix самой популярной системой своего времени.

Виртуализация приложений

Любой искушенный пользователь Unix, владеющий компиляторами C, мог без труда запустить любую программу на любом компьютере. Удобно? Почти. Осталось найти способ переносить приложения между компьютерами, минуя процесс компиляции. То есть виртуализировать их.

В 1990 году Sun Microsystems запустила проект Stealth. Он был инициирован инженерами компании, которым не нравился подход Sun к использованию API C и C++. Они были уверены в том, что есть лучший способ писать и запускать приложения. Проект несколько раз переименовывали среди версий были даже экзотичные Oak и Web Runner. Как вы уже наверняка догадались, в 1995 году проект достиг релиза под окончательным именем Java.

Планировалось, что наибольшее применение Java найдет во всемирной паутине. Интернет это колоссальная сеть, состоящая из компьютеров, работающих под разными операционными системами. Платформа, которая позволит запускать одни и те же приложения на всех этих машинах без необходимости переписывать и перекомпилировать их, была обречена на успех. В 1996 году в свет вышел Java Development Kit (JDK).

Java был уникален в своем роде. Можно было запустить написанную на нем программу на любом компьютере с установленной бесплатной Java Run-Time Environment (JRE).

Говоря упрощенно, Java работает так: сначала написанная программа компилируется в байт-код Java. Это своеобразный язык-посредник, с которым умеет работать JRE. Непосредственно в момент запуска программы JRE компилирует программу из байт-кода для целевого железа. Программисту не надо заботиться о том, для какого железа и какой ОС он пишет код, а пользователю не приходится заниматься компиляцией.

JRE включает в себя массу компонентов, наиболее интересным из которых является Java Virtual Machine. Любое приложение запускается именно в ней. Можно представить себе JVM как очень маленькую ОС, созданную для того, чтобы запускать Java-приложения. Заботы о портировании JVM для всех мыслимых устройств Sun/Oracle берет на себя. Тем не менее, этот подход имеет известные ограничения.

Широкое распространение аппаратной виртуализации

Как было сказано выше, IBM первой применила концепцию виртуальных машин в коммерческой среде. Виртуальные машины, подобные тем, что запускались на мейнфреймах IBM, до сих пор используются, хотя большинство компаний отказались от мейнфреймов.

Еще в январе 1987 года Insignia Solutions продемонстрировала программный эмулятор под названием SoftPC. Он позволял запускать приложения DOS на рабочих станциях под управлением Unix. Это был невероятный цифровой подвиг. В то время ПК, способный запустить MS-DOS, стоил порядка $1500, а использование SoftPC обходилось всего в $500.

К 1989 году Insignia Solutions выпустила версию SoftPC для Mac. В этой версии была добавлена возможность запускать приложения Windows. К 1994 году Insignia Solutions начала продавать свое программное обеспечение с разными предустановленными операционными системами в том числе с SoftWindows и SoftOS/2.

Успех SoftPC вдохновил и других игроков. В 1997 году Apple создала программу под названием Virtual PC и начала распространять ее через компанию Connectix. Virtual PC, как и SoftPC, позволял пользователям запускать копию Windows на Mac, это позволило обойти проблему несовместимости программного обеспечения. А в 1998 году была основана всемирно известная компания VMware. Год спустя на рынок вышла первая версия VMware Workstation. Сначала она была доступна только в Windows, но позже добавилась поддержка других операционных систем.

VMware достойна упоминания хотя бы потому, что на данный момент это безусловный лидер рынка виртуализации. В 2001 году VMware выпустила два новых продукта для корпоративного сегмента: ESX Server и GSX Server. GSX Server позволял пользователям запускать виртуальные машины поверх существующей операционной системы, например Microsoft Windows. Это так называемый гипервизор 2-го типа. ESX Server, гипервизор 1-го типа, не требует наличия ОС-хоста.

Гипервизоры 1-го типа намного более эффективны, поскольку для их работы не требуется выделять ресурсы на запуск основной системы. Кроме того, они традиционно более гибки в настройке.

После выпуска ESX Server в 2001 году в корпоративном сегменте наметился экспоненциальный рост интереса к виртуализации. VMware добавила много дополнительных продуктов для улучшения функционала ESX Server.

Появились и другие поставщики ПО для виртуализации. В 2003 году Microsoft приобрела Connectix, и Virtual PC была переиздана. Сначала под брендом Microsoft Virtual PC 2004, затем Microsoft Virtual Server 2005.

В 2007 на рынке виртуализации появился еще один игрок Citrix Inc. Компания приобрела XenSource, платформу виртуализации с открытым исходным кодом, созданную в 2003 году, и вскоре после этого переименовала продукт в XenServer.

Публикация приложений

Во времена UNIX доступ к опубликованным приложениям можно было получить через Telnet, а затем SSH.

Windows и OS/2 не давали удаленного доступа к приложениям без использования сторонних инструментов. А существовавшее специализированное ПО было доступно только одному пользователю за раз.

Кому-то в IBM пришла в голову идея создать многопользовательский интерфейс для OS/2, однако боссам компании идея не пришлась по вкусу. В 1989 году Эд Якобуччи ушел из IBM и основал собственную компанию под названием Citrus. Вскоре компания была переименована в Citrix, комбинацию Citrus и Unix.

Citrix получила лицензию на исходный код OS/2 и приступила к созданию программного расширения для нее. Два года спустя OS/2 таки получила многопользовательский интерфейс MULTIUSER.

В 1991 году Microsoft объявила об окончании поддержки OS/2, и Citrix пришлось свернуть проект. Однако полученный опыт позволил переориентироваться на создание подобного ПО, но уже для Windows.

В 1993 году Citrix приобрела Netware Access Server у Novell. В 1995 году этот продукт начал продаваться под именем WinFrame. WinFrame представляла из себя Windows NT 3.5 с возможностями удаленного доступа. Сразу несколько пользователей могли одновременно подключиться к ней для удаленного запуска приложений.

Во время разработки WinFrame для Windows NT 4.0 Microsoft отказала Citrix в лицензии, и продукт по соглашению сторон был интегрирован в Windows NT 4.0 в качестве набора служб терминалов. Citrix согласилась не создавать конкурирующий продукт, но получила возможность расширить функциональные возможности служб терминалов.

Виртуальные рабочие столы

Виртуальные рабочие столы в их современном понимании это весьма молодая тема. В чем-то их концепция похожа на то, что IBM предложила в далеких 1960-х. Каждый пользователь получает собственную выделенную ОС и может делать в ней всё, что ему заблагорассудится, не подвергая опасности других пользователей в системе.

Переход от виртуальных рабочих столов на мэйнфреймах к виртуальным рабочим столам в том виде, в каком мы их знаем сегодня, на самом деле произошел только в 2007 году, когда VMware представила свой продукт для VDI. В принципе, сотрудники компаний и ранее могли пользоваться виртуальными рабочими столами в качестве основного ПК, но это было сопряжено с массой административных сложностей. А появление Virtual Machine Manager и аналогичных продуктов дало мощный старт целому направлению в области виртуализации.

В будущих статьях мы подробно рассмотрим самые интересные аспекты истории виртуализации поговорим и о железе, и о знаковых программных решениях.

Подробнее..

Перевод Ода Excel 34 года волшебства

17.06.2020 18:07:34 | Автор: admin
Примечание: статья была написана в 2019 году, а в этом Microsoft Excel отмечает уже 35-летний юбилей.

Чему инструмент, выдержавший проверку временем, может научить нас в эпоху софта, который пожирает мир? В статье я хочу показать вам, как фундаментальные принципы, стоящие в основе Excel, можно использовать в непотопляемых технологиях будущего.

2015: Я люблю тебя
2016: Я люблю тебя
2017: Я люблю тебя
2018: Я люблю тебя
2019: Я люблю тебя

По одной строчке за каждый год, что я влюблен в Microsoft Excel.
Возможно, вас это удивит, но я далеко не первый человек, который признается в чувствах к Excel. Есть даже те, кто пишет любовные послания Excel в самом Excel или явно признается в экселезависимости. Сегодня мне хотелось бы поговорить об инструменте, который прошел проверку временем.

Год в Excel


Как это часто бывает в отношениях, мы с Excel уже были знакомы какое-то время. Но гром грянул только в 2015 году. Я часто шучу, что это был год электронных таблиц настолько много времени я тогда провел за ними.

Я работал бизнес-аналитиком и проводил расчеты для списка Fortune 500. Очень хорошо помню, как в первый рабочий день кто-то сказал мне: обрати внимание, наши опытные сотрудники не притрагиваются к мыши, работая с таблицами. Привычка использовать сочетания ctrl+[клавиша] вошла в их мышечную память. Совсем скоро я стал одним из них.

Ранее мне казалось, что способность построить график тренда по нескольким точкам это чуть ли не вершина мастерства. И только потом я познал настоящую мощь Excel. С его помощью мы строили сложные модели для предсказания чего угодно от цен на нефть до уровня каннибализации в сфере недвижимости. И со всей сложностью и многогранностью нашей работы справлялась одна единственная программа.

Я проработал там 11 месяцев. Думаю, примерно 1500 часов из них я провел только за таблицами. Для сравнения всего за тот период я наработал чуть меньше 6000 часов и это с учетом времени на сон, еду и всякое прочее, не связанное с Excel. Да-да, можете быть уверены, эти подсчеты я тоже произвел с помощью таблицы. Хочу, чтобы вы понимали: я не жалею ни об одной минуте и просто хочу немного порефлексировать.

Сейчас, как только какая-то технология становится неотъемлемой частью нашей жизни, мы тут же бросаемся прославлять её создателей. Новым гаджетам и SaaS-компаниям пророчат, что они изменят ход истории. А венчурные капиталисты тем временем ищут, в кого бы еще вложить свои миллионы. Посмотрите сами: Маск, Цукерберг, Пейдж и Безос стали так же известны, как звезды шоу-бизнеса.

Но мне хотелось бы рассказать вам о Дэниеле Бриклине и Даге Кландере. И о программе, которая была изобретена более 30 лет назад, но до сих пор живет на сотнях миллионов персональных компьютеров. Десятилетия спустя я хочу поговорить об Excel.

Разговор о вездесущем


Excel это один из самых успешных продуктов в истории программного обеспечения. Энди Ли, Partner Software Development Engineer at Excel

Любите вы Excel или нет, глупо спорить с тем, что он уже много лет является жизненно важным инструментом для многих современных компаний. Что касается глубины проникновения на рынок, Microsoft заявляет, что Excel пользуется каждый пятый совершеннолетний человек на земле. Даже несмотря на успехи своих конкурентов (например, Google Sheets), на данный момент актуально около 1,2 миллиардов лицензий на Microsoft Office. И, чтобы вы до конца поняли ситуацию: в 2016 году MS Office заработал 13,8 млрд долларов, а GSuite 1,3 млрд.

Но забавнее всего мы сейчас говорим о ПО, которое было изобретено больше 30 лет назад. И несмотря на кучу обновлений и базу из 476 функций, оригинальная концепция Excel и даже некоторые кусочки оригинального кода дожили до современных релизов к этому мы еще вернемся.
Думаете, там не осталось кода 15-20-30-летней давности? Его там полно! Энди Ли, Partner Software Development Engineer at Excel

Казалось бы, старичку давно пора на покой, но вместо этого он процветает! Поиск по ключевому слову Excel в Udemy выдает около 10000 результатов. Для сравнения, по Javascript находится около 7000 (примечание: сейчас цифры немного изменились, но Excel все равно выигрывает с небольшим перевесом). К тому же один из самых популярных навыков в вакансиях требование знать Excel присутствует в каждой третьей. И если вспомнить суть электронных таблиц и относиться к ним как к самостоятельным программам, получится, что Excel это еще и самая популярная среда разработки в мире.
Microsoft Excel это самое привычное, гибкое и распространенное бизнес-приложение в мире. Это стало возможным благодаря его умению адаптироваться к любому бизнес-процессу. История Microsoft Excel.

Сумасшедшая обратная совместимость (30+ лет!), плавная кривая обучения и практически идеальная внедряемость сделали Excel безоговорочным лидером рынка. Многие компании не могут даже мечтать о таком превосходстве над конкурентами. А еще Excel можно пользоваться прямо из коробки: ни зависимостей, ни настройки. Он просто работает.
И несмотря на то, что со дня появления Excel Microsoft выпустила сотни других приложений, CEO Сатья Наделла считает его экстраординарным явлением:
Представьте себе мир без Excel. Лично я не могу этого сделать. Сатья Наделла


Изменяя ход истории


Вполне можно сказать, что Microsoft Excel внес тектонические изменения как в жизни людей, так и в работу многих компаний. Лично я всё делаю в таблицах. Слежу за своей жизнью, строю списки, планирую расходы и многое другое. Прелесть электронных таблиц состоит как раз в том, что им можно найти десятки различных применений.
Я не знаю, как именно люди работают с Excel потому что его можно использовать огромным количеством разных способов Терренс Хуан, Partner Development Manager at Excel



YouTube-канал Excel is Fun

По сути, Excel решает и всегда решал очень важную задачу. Он просто берет то, с чем раньше могли работать только избранные сложную аналитику и вычисления и делает это доступным и даже увлекательным для целого мира.
Excel действительно изменил работу многих компаний, упростив процесс построения графиков, принятия решений и выполнения сложных вычислений. Дерек Бёрни, Corp VP Data and BI, VP Data and Business Intelligence

И хотя Excel сам по себе не изобретал формат электронной таблицы об этом мы тоже поговорим чуть позже он стал локомотивом, который сделал динамические вычисления мейнстримом. Цукерберг не изобретал социальные сети, Маск не был первым, кто предложил устраивать частные полеты в космос. Их заслуга в том, что они взяли эти идеи и раздвинули их до неизведанных границ, точно так же как Excel смог принести в большой мир концепцию электронных таблиц.

Появление MS Excel определило эпоху он создал тысячи стартапов и стимулировал миллионы увольнений. Благодаря этой программе появлялись совершенно новые отрасли промышленности. Только посмотрите, какое количество новых должностей появилось в мире бизнес-аналитики даже та, на которой я проработал большую часть 2015-го. Этих профессий не существовало, пока Excel не подарил нам возможность обрабатывать и визуализировать данные играть в что будет, если.
На серверах корпораций и организаций хранится много различных данных. Необходимо иметь возможность просматривать эти данные, изменять их, анализировать разными способами, чтобы в конечном итоге получить пользу. Excel играет огромную роль в мире бизнес-аналитики, потому что это программа для людей. Они её по-настоящему понимают. Дерек Бёрни, Corp VP Data and BI, VP Data and Business Intelligence

Целые компании выстроены на могучих плечах Excel. А там, где Excel не является жизненно необходимым компонентом, он просто важен и нужен. Но невероятнее всего то, что в 2019 году находятся компании, чьим главным конкурентом является Excel.



Появляется куча новых технологий. Компании зарабатывают на них миллионы, однако люди все еще тянутся к Excel. По данным Gartner от 2015 года, более половины IT-компаний полностью или преимущественно пользуются электронными таблицами для аналитики. Это доказывает, что [по крайней мере, тогда] Excel де-факто конкурирует с целой индустрией анализа данных, но при этом не ограничивает своих пользователей только одной сферой применения. Можно строить списки задач, вести учет тренировок, записывать покупки Excel использовался своими собственными разработчиками для того, чтобы составить список гостей 30-летнего юбилея программы.
Таблицы используются для всего, от легковесных баз данных до личных расписаний. От сбора информации до её анализа. Даже для сложных бизнес-процессов. Это только основные примеры, далеко не полный список того, для чего используются электронные таблицы. Хьялмар Гисласон

Представим себе мир без Excel


Я как-то летел на самолете и разговорился с попутчиком. Внезапно он схватил меня за футболку: Так ты работаешь в Excel? Я без ума от Excel! Джон ДеВаан, [ex] Sr. VP Windows Development

Люди вроде меня не просто работают в Excel. Они его действительн любят. Когда я собирал материалы для этой статьи, мне не давал покоя один вопрос: а чем бы мы пользовались, если бы Excel взял и исчез?

Конечно, базовым его функциям можно найти замену. Но что делать с его эксклюзивными возможностями, альтернатив которым запросто может не найтись? Мне правда интересно, сколько компаний по всему миру будут вынуждены сделать паузу, если одним прекрасным утром Наделла проснется и решит зарезать Excel. Сколько компаний не смогут нормально работать?
Существуют финансовые компании, которые используют Excel для обработки огромных объемов данных. Они проводят в нем симуляции, чтобы предсказать события в мире. Они не просто используют Excel в качестве инструмента для написания формул. Они фактически строят собственные решения поверх Excel. И многие из этих надстроек работают уже 10-15 лет. Терренс Хуан, Partner Development Manager at Excel

Когда Хайтен Ша спросил у пользователей Twitter, без какого приложения или продукта они не смогут жить, старина Excel на голову опередил по количеству лайков стильный молодняк вроде Zoom, Slack, Notion, 1Pass и Webflow.



История Excel


34 года волшебства


История Excel мне нравится ничуть не меньше, чем сам продукт. Если вернуться на 34 года назад, окажется, что весь мир с тех пор сильно изменился. Но только не фундаментальные принципы этой программы.

Прежде чем вы начнете кидать в меня тапками, я хочу сказать: компания Microsoft НЕ изобретала электронные таблицы. А кто же тогда это сделал? Скажем за них спасибо Дэну Бриклину и Бобу Фрэнкстону.

Дэна часто называют отцом электронных таблиц. Именно он вместе с Бобом Фрэнкстоном в 1979 году разработал первое подобное приложение: VisiCalc Visible Calculator. Дэн первым привнес концепцию таблицы-сетки, которая до сих пор в неизменном виде присутствует во всех подобных приложениях. Если же забить в Google Кто сделал Excel?, вы увидите имя Дэна, хотя он ни дня не работал на Microsoft.
Я представлял себе волшебную школьную доску, на которой, если стереть одно число и вписать другое, все пересчитается само собой. Дэн Бриклин, TEDxBeaconStreet 2016




Изобретение электронных таблиц дало толчок всей индустрии персональных компьютеров. Стив Джобс однажды говорил, что именно VisiCalcу Apple II обязан своим успехом.
На самом деле, было два реальных взрыва, которые толкнули вперед всю индустрию. Первый произошел в 1977, и это были электронные таблицы Стив Джобс

Это стало началом WYSIWYG, хотя мы давно привыкли принимать это как должное. Работа Бриклина и Фрэнкстона была замечена другой компанией, Lotus Software, которая в дальнейшем была куплена IBM. Новый продукт, основанный на идее VisiCalc, получил название Lotus 1-2-3 и вышел на рынок в 1983-м.

В то же самое время Microsoft уже разрабатывали предшественника Excel, программу Multiplan (под кодовым названием Electronic Paper). Ей пришлось как следует побороться с Lotus 1-2-3 за место на рынке. Джон ДеВаан, один из разработчиков Excel 1.0, вспоминал, что в 1984 году рынок электронных таблиц был на 100% занят Lotus 1-2-3, работавшим под MS-DOS.

Пересчитывай или умри


Microsoft решила вложиться в разработку нового продукта под кодовым именем Odyssey. Зная современное положение Microsoft, сложно представить себе её в роли аутсайдера, чей проект имел все шансы на провал. Команда, разрабатывавшая Excel, состояла всего из четырех человек: Майк Косс, Джейб Блюменталь, Даг Кландер и Джон ДеВаан. Также в команду входили Стив Хазлериг, Эд Рингнесс, Чарльз Симони и Джон Хоппер. Чтобы еще лучше понять дух той эпохи, подумайте вот о чем: с момента создания Microsoft Mouse прошло всего два года.

Поскольку (какая ирония!) Lotus 1-2-3 переиграл Microsoft на их же собственном поле MS-DOS, скрепя сердце, Microsoft решила разрабатывать продукт для Mac. Там Lotusа еще не было, а сама платформа обладала необходимыми мощностями. Решение было не из легких. Когда оно было окончательно принято, из команды ушел Даг Кландер.
Представьте себе: единственный человек, который имеет полное представление об одном из компонентов продукта, просто уходит. Ради того, чтобы работать на ферме [...]. Джейб Блюменталь

Когда я ушел посреди разработки, возникли некоторые проблемы. Вместо того, чтобы записать всё на бумаге, я провел трехдневную презентацию по архитектуре Excel на всякий случай даже сделали видеозапись. Даг Кландер

К счастью для нас всех, вскоре Даг одумался и вернулся со скудных салатных полей обратно в офис, чтобы создать один из самых важных компонентов Excel 1.0. Даг часто говорит Excel как о своем дитя. По его подсчетам, он устроился в Microsoft где-то в промежутке между 45-м и 65-м сотрудником.
Я буквально жил в офисе, спал пару часов и сразу же возвращался за код. Помню, как сильно по ночам дуло из окна в офисе Даг Кландер

Возможно, одной из самых важных вещей в Excel 1.0 была возможность автоматического пересчета значений. Именно её и разработал Кландер. Неофициальным девизом команды после того, как Кландер внедрил свой умный пересчет стала фраза пересчитывай или умри. Вместо того, чтобы после каждого изменения заново считать весь лист, алгоритм Кландера затрагивал только нужные ячейки. В те времена это круто увеличило производительность, и продукт Microsoft на голову опередил конкурентов.
Первые компьютеры не могли считать так же быстро, как современные машины. Изменение значения в одной ячейке могло повесить компьютер из-за необходимости провести кучу связанных с этим расчетов. Даг Кландер

Excel 1.0 вышел 30 сентября 1985 года и с первого дня стал лидером рынка. В последующие годы Excel привнес в мир электронных таблиц еще много прорывных нововведений: возможность настраивать внешний вид таблицы, автозамену и интеллектуальное копирование ячеек.

Несмотря на то, что название Excel сейчас кажется нам идеальным, были и другие варианты: например, Master Plan и Mr. Spreadsheet. Можете себе представить оду Мистеру Табличкину?

Не забывайте: это были времена, когда Microsoft еще не вышла на IPO, и ко многим продуктам лично прикладывал руку Билл Гейтс. Я думаю, что Excel стал лидером во многом благодаря командному духу и идеалам, которых придерживались Билл и разработчики Excel. Например, Кландер говорит, что идею умного пересчета ему подал сам Билл. Гейтс возражает и утверждает, что Кландер сделал вовсе не то, что он имел в виду.
Билл Гейтс был великолепным технарем. Он понимал Variants и COM-объекты, и IDispatch, и чем Automation отличается от vtables, и почему это могло привести к двойному интерфейсу. Он беспокоился о функциях для работы с датами. Он не вмешивался в разработку, если доверял тем, кто пишет программу. Но провести его не было никакой возможности: он был программист. Настоящий, реальный программист. My First BillG Review

Получилась история о команде, которая сделала долгосрочную ставку и разработала целую систему, которая есть и будет лидером рынка еще много десятилетий.


Microsoft Excel 1.5 для Mac (1985)

Когда задумываешься о долгожительстве Excel, дух захватывает. У нас было ощущение, что мы делаем нечто очень нужное и полезное. Вероятно, поэтому Excel до сих пор живет и развивается. Джон ДеВаан, [ex] Sr. VP Windows Development

Конечно, много функций с тех пор добавилось. Но основа, сам принцип электронной таблицы, остался неизменным. И я все еще пользуюсь таблицами, которые я сделал 25-30 лет назад. Даг Кландер


Кто на новенького?


В эпоху, когда софт пожирает мир, мы должны спросить у себя: чему может научить нас история Excel? Я не могу выразить этой статьей ни силу своей любви к Excel, ни сколько денег Microsoft на нем зарабатывает. Но я смог показать, как сильно электронные таблицы влияют на доступ к информации.
На тот момент это действительно было очень важно: делать программы, понятные обычным пользователям, а не докторские диссертации с пользовательским интерфейсом. Джон ДеВаан, [ex] Sr. VP Windows Development

Концепция простого доступа [к чему либо, в т.ч., к информации] часто воспринимается пользователями как нечто обыкновенное. На самом деле ученые и программисты взращивали её десятилетиями. Да, Excel не был первопроходцем электронных таблиц. Но не нужно быть пионером, чтобы построить для всех мостик доступности, который снимет с пользователей ограничения. В идеале техническим путем, как Кландер, научивший даже маломощные компьютеры производить сложные вычисления.
Чтобы вы лучше понимали меня, приведу несколько современных примеров.
  • Компании вроде Webflow WordPress или Squarespace существенно упрощают создание сайтов.
  • Ghost, с помощью которого был создан этот сайт [блог автора статьи], позволяет в считанные минуты развернуть отличный блог.
  • Stripe дает продавцам-частникам возможность работать онлайн, точно так же, как Shopify позволяет любому человеку, даже в возрасте, легко начать бизнес в eCommerce.

Эти инструменты уже получили свою порцию славы в современном мире благодаря новым возможностям, которые они открывают. Без них только небольшая горстка избранных могла бы выйти на этот рынок. Теперь он доступен всему миру.

В разгар революции под девизом без кода Excel можно рассматривать в качестве отличного примера с похожей концепцией: построить мост доступности к чему-то ценному. Закономерно возникают вопросы. А что прямо сейчас находится в области, доступной только нескольким экспертам? Что может принести пользу более широкой аудитории? И что можно создать для этих людей? Это наша работа увидеть что-то ценное, но недоступное для большинства людей, и сделать его доступным. Живи долго и процветай, Excel!

Примечание: к оригинальной статье есть комментарий от читателя с несколько иной точкой зрения, и мы не могли его проигнорировать.
Билл Джелен: Спасибо за публикацию отличной статьи, но Excel не победил 30 сентября 1985. Он был процентов на 400 медленнее Lotus 1-2-3, и всё это вылилось в тяжелую борьбу (у обоих продуктов были крутые новые фичи), продолжавшуюся до 1995 года.
Подробнее..

Краткая история Chaosnet

06.07.2020 20:09:26 | Автор: admin
Мы решили совершить еще один вояж в прошлое сетевых технологий. На сей раз мы поговорим о Chaosnet, специфическом сетевом протоколе, который использовался в 1970-х годах в Lisp-машинах. Исходным материалом для статьи послужила заметка на TwoBitHistory, которую мы расширили и дополнили собственными находками и иллюстрациями.

Если с помощью dig отправить к DNS запрос о каком-то сайте, например, it-grad.ru, мы получим примерно такой ответ:

$ dig it-grad.ru



В строке Answer Section содержится информация о записи типа A.

Приглядимся к полю IN. Возможно, кто-то думает, будто IN это такой предлог: it-grad.ru IN (внутри) A и имеет IP-адрес 212.116.122.3. На самом же деле IN значит Internet. Это класс записи.

Возникает закономерный вопрос: а какие, собственно, еще варианты здесь могут быть? Как можно получить доступ к хосту, который находится не в Интернете? Может показаться, что IN это вообще единственное значение, которое имеет смысл в современном мире. К тому же, если пробить тот же it-grad.ru и явно указать, что вы хотите получить запись с классом, отличным от IN, DNS-сервер вернет ошибку. Давайте сделаем еще один запрос и посмотрим, к чему приведет явное указание класса. Например, HS (Hesoid). Сервер вернет статус SERVFAIL.

$ dig -c HS it-grad.ru



Классы, отличные от IN, практически не используются в современном мире. Но это вовсе не означает, что их нет: например, существуют HS или CH. HS зарезервирован для использования в информационной службе Hesoid, названной в честь древнегреческого поэта. А вот класс CH зарезервирован под нужды героя статьи, Chaosnet. На текущий момент он представляет разве что историческую, мемориальную ценность.


Остальные классы DNS

Сегодня мир принадлежит TCP/IP. Этот протокол (вместе с UDP) управляет подавляющим числом сетевых подключений. Но, как видите, кое-где еще остались следы другой, давно исчезнувшей системы, и это по-своему замечательно. Что такое Chaosnet? Каким он был и кем использовался? Почему он канул в Лету? Давайте разберемся.

Всё началось в MIT


Chaosnet был создан сотрудниками лаборатории по изучению искусственного интеллекта MIT в 1970-х. Он был сопутствующим продуктом проекта машины, которая могла бы работать на языке программирования Lisp более эффективно, чем компьютеры общего назначения.

Lisp это детище профессора MIT и лауреата премии Тьюринга 1971 года Джона Маккарти. Он является основоположником функционального программирования и автором термина (порицаемого в некоторых кругах) искусственный интеллект.


Джон Маккарти собственной персоной

Самой ранней версией Lisp принято считать интерпретатор 1958 года для IBM 704. Фактически, это один из старейших актуальных языков программирования наряду с Фортраном.

Первое публичное упоминание о Lisp (версия 1) датируется 1960-м годом. А к 1962-му была готова продвинутая и усовершенствованная версия 1.5. Lisp включал в себя массу инструментов и функций, которые присутствуют в подавляющем большинстве современных языков программирования.

Это был первый язык, в котором была реализована система сборки мусора и автоматическое управление памятью. Он получил огромную популярность и любовь среди программистов, работавших над ИИ. Вот только один из известных примеров: SHRDLU, программа Терри Винограда, которая позволяла обращаться к компьютеру на естественном языке и заставлять его решать простые логические задачи. Была написана на DEC PDP-6 с использованием языков Lisp и Micro Planner.


Пример, иллюстрирующий SHRDLU

Единственной проблемой Lisp была его скорость. Простейшие операции занимали вдвое больше времени, чем в других языках, поскольку переменные проходили двойную проверку: и в процессе выполнения, и на этапе компиляции. Сборщик мусора работал более секунды на тогдашнем IBM 7090, находившемся в распоряжении MIT. Проблема производительности стояла чрезвычайно остро: ИИ-программисты строили системы, взаимодействовавшие с пользователем в реальном времени.

В конце 1970-х было решено построить специальный компьютер для Lisp с учетом всех особенностей языка. У компьютера должно было быть больше памяти и компактный набор инструкций, подходящих для Lisp. Предполагалось, что для проверки типов будет использоваться самостоятельная электрическая цепь, и это многократно ускорит работу кода. Еще одна особенность Lisp-машин состояла в том, что ни о каком разделении процессорного времени и речи быть не могло: амбициозные программы задействовали все ресурсы компьютера без остатка. Каждому пользователю приписывался отдельный центральный процессор. Вот как сотрудники Lisp Machine Group описывали перспективы работы с таким компьютером:
Lisp Machine это персональный компьютер. Это значит, что процессор и основная память не разделяются между пользователями. Система состоит из пула процессоров, каждый из которых имеет собственную основную память и собственный диск. Когда пользователь входит в систему, ему назначается процессор, и он эксклюзивно использует его в течение сеанса. При выходе из системы процессор возвращается в пул и может быть использован следующим человеком. Таким образом, нет конкуренции за память, а страницы, на которые часто ссылается пользователь, остаются в ядре, и накладные расходы значительно уменьшаются.
Разумеется, понятие персональный компьютер в отношении Lisp-машин употребляется в несколько ином значении, чем мы привыкли теперь.


Лисп-машина


Промо-фотография терминала

Предполагалось, что пользователи будут работать не непосредственно с компьютером, а со специальными терминалами. Каждый пользователь получит выделенные мощности, а сам компьютер будет находиться в машинном зале, чтобы не докучать всему офису звуками вычислений. Процессоры будут иметь доступ к файловой системе и к периферийным устройствам, таким как принтеры, через высокоскоростную локальную сеть с полностью распределенным управлением. Так и появился Chaosnet. Его создатели Томас Найт (биография на русском языке) и Джек Холлоуэй.

Chaosnet одновременно являлся и железным стандартом, и программным протоколом. В части оборудования этот стандарт был похож на Ethernet, а программный протокол в конечном итоге и работал по Ethernet. Но в отличие от TCP/IP, предполагалось управление исключительно локальными сетями. Один из сотрудников MIT Artificial Intelligence Lab рассказывал, что при разработке Chaosnet основное внимание было уделено написанию протокола, который в пределах небольшой сети показывал бы лучшие результаты, чем его конкуренты.

Скорость была крайне важна, поскольку Chaosnet был промежуточным звеном между процессором Lisp и файловой системой. Сетевые задержки сказались бы на скорости выполнения базовых операций. Для обеспечения максимального быстродействия за основу была взята (а в дальнейшем доработана) Network Control Program, применявшаяся тогда в Arpanet. Chaosnet, как и современный TCP/IP, использовал пакетные подтверждения сообщений, что позволило сократить общее количество пересылаемых пакетов на 30-50%.

Chaosnet также мог обойтись без алгоритмов маршрутизации, поскольку большинство хостов в сети Lisp-машин были связаны одним коротким проводом (CATV, коаксиальный кабель). Дэвид Мун, участник Lisp Machine Group писал, что схема маршрутизации Chaosnet основана на предположении, что сеть достаточно проста и в ней существует всего несколько коротких путей. Сложные схемы здесь не нужны. В результате управляющая программа Chaosnet весила вдвое меньше, чем Network Control Program для Arpanet.

Протокол Chaosnet имел и другие особенности. Так, длина адреса составляла всего 16 бит, что вдвое меньше длины адреса IPv4. Вполне разумный подход, учитывая, что Chaosnet предназначался только для локальных сетей. Первые 8 бит указывали на подсеть, вторые на конкретный хост.

Также Chaosnet не использовал номера портов. Вместо этого процесс, который хотел подключиться к другому процессу на другом компьютере, осуществлял запрос, в котором указывалось контактное имя цели. Зачастую название конкретной службы. Например, один хост мог попытаться подключиться к другому хосту, используя контактное имя TELNET. Это весьма похоже на TCP: например, к порту 80 можно обратиться по имени HTTP.

DNS-класс CH, Chaosnet, был добавлен в DNS в 1986 году. Он заменил другой класс, CSNET (Computer Science Network). Теперь уже сложно выяснить, почему именно Chaosnet получил свое место в DNS. Существовали и другие семейства протоколов, которые почему-то не были в неё добавлены. Например, Пол Мокапетрис (Paul Mockapetris), один из главных архитекторов DNS, писал, что изначально предполагалось включить в систему доменных имен класс сетевого протокола Xerox. Но по неизвестным причинам этого не произошло. А Chaosnet, возможно, был добавлен только потому, что большая часть работы над Arpanet и Интернетом производилась в BBN Technologies. Сотрудники этой компании были тесно связаны с MIT и, вероятно, многое слышали о Chaosnet.

Поначалу Lisp-машины имели коммерческий успех и продавались Symbolics и Lisp Machines Inc. Но с течением времени надобность в них отпала. Их вытеснили микрокомпьютеры, которым по силам было работать с Lisp, но уже без специальных схем. Затем на сцену вышел TCP/IP, в котором были исправлены недоработки Arpanet, и Chaosnet потерял актуальность.

Призрак прошлого


К сожалению, информации о Chaosnet сейчас не так уж и много. RFC 675, который, по сути, является первой версией TCP/IP, был опубликован в 1974 году. Chaosnet же появился на год позже. TCP/IP в конце концов завоевал мир, а Chaosnet развития не получил. Есть вероятность, что какие-то практики Chaosnet оказали влияние на разработку TCP/IP, но никаких подтверждающих или опровергающих это фактов нет. Интересный факт: в первоначальной версии Манифеста GNU упоминается поддержка протокола Chaosnet.

Различные имплементации Chaosnet и интересные ссылки:


Единственным заметным следом Chaosnet в мировой паутине является класс CH DNS. Это не более, чем призрак альтернативного сетевого протокола в мире победившего TCP/IP. Забавный артефакт цифровой археологии. Но он является живым напоминание о том, что интернет не появился в одночасье, а TCP/IP не единственный способ соединять компьютеры между собой.

А еще это повод задуматься над тем, что интернет это далеко не самое крутое слово, которым можно было окрестить нашу глобальную коммуникационную систему.
Подробнее..

Перевод Компьютерная история Xerox Alto персональный компьютер

16.07.2020 20:13:21 | Автор: admin


Сегодня мы публикуем перевод статьи из журнала Byte от 1981. Она посвящена культовому компьютеру Xerox Alto.

Шел 1973 год. Компьютеры были громоздкими, маломощными и неповоротливыми. До изобретения ZX Spectrum оставалось 9 лет. Commodore Amiga 1000 появился в 1985-м. Всего, что составляет широкий пласт ретро-техники, еще толком не существовало. Тем не менее, в компании Xerox уже создали революционный компьютер. Он был технологичнее и меньше многих своих собратьев. Он так и остался прототипом, выпущенным в количестве нескольких тысяч экземпляров. Но все, кто хотя бы раз прикасался к нему и тогда, и сейчас, в один голос говорили: это удивительно интересное устройство.



Обложка журнала Byte, сентябрь 1981 года

О Xerox Alto уже написано немало интересных статей. Тем не менее, сегодняшний материал особенно интересен. Он написан журналистом журнала Byte в 1981 году, фактически, в годы актуальности Alto, и дает нам возможность увидеть его глазами современников.
Материал публикуется с некоторыми малозначительными сокращениями. В конце мы приведем ссылки на эмуляторы Alto и более качественные иллюстрации, нежели те, что были опубликованы в журнале.


В наше время редкий компьютерный энтузиаст или профессионал, глядя на современные машины, не задается вопросом: что же будет дальше?

Alto: персональный компьютер


В 1972 году Xerox Corporation решила выпустить персональный компьютер, предназначенный для научных исследований. В результате был создан Alto, над которым работали Эд Мак Крейт, Чак Такер, Батлер Лэмпсон, Боб Спроулл и Дейв Боггс. Перед ними стояла задача сделать компактное устройство, которое без проблем поместится в обычном офисе. При этом оно должно быть достаточно мощным, чтобы обеспечивать качественную и надежную работу операционной системы и графического дисплея. Целью разработчиков было снабдить каждого пользователя собственной вычислительной машиной, которая закрывала бы все его потребности, а также коммуникационным устройством для быстрого обмена информацией.

В 1978 году Xerox выдала 50 компьютеров Alto университетам Стенфорда и МТИ. Эти машины моментально вписались в рабочие процессы ученых и быстро стали стандартом для всех остальных ПК.

Сомнительно, что кто-то за пределами научного сообщества когда-либо сможет позволить себе покупку Alto. Эти компьютеры предназначены, скорее, не для широкого потребителя, а для внутренних исследований Xerox, поэтому массово продаваться они не будут. Но поговорить о них стоит хотя бы по той причине, что многие ПК завтрашнего дня будут разрабатываться с учетом знаний и опыта, накопленных в процессе создания и работы с Alto.



Фото 1: Два Xerox Alto. Каждый процессор Alto смонтирован в стойке прямо под двумя жесткими дисками на 3 Мб каждый. Обратите внимание, видео-дисплеи компьютера в отличие от стандартных телевизионных экранов вытянуты по вертикали, как бумажный лист.

Оборудование


Alto состоит из четырех основных частей: графический дисплей, клавиатура, графическая мышь и системный блок (box), вмещающий дисковый накопитель и процессор. Каждый Alto заключен в элегантный корпус из рельефного металла кремового цвета, что уже намекает на его цену в $32000. За исключением системного блока, стоящего на полу, компьютер помещается на рабочем столе.

Графический дисплей


Графический дисплей самый поразительный компонент Alto. Он похож на телевизионный экран, повернутый на 90 градусов. Дисплей растровый. Его физические габариты составляют 8 дюймов по горизонтали и 10 дюймов по вертикали. Черно-белый экран позволяет оперировать с 808 пикселями по вертикали и 606 пикселями по горизонтали. Конечное разрешение составляет приблизительно 80 точек на дюйм.

Изображение выводится методом побитового растрового сканирования. Это значит, что каждая точка дисплея соотносится с конкретным битом в памяти.

Что касается отображения текста, на экране помещается до 60 строк по 90 символов (из расчета, что каждый символ имеет размеры 7x9 пикселей, как и в большинстве видеотерминалов). Alto не имеет аппаратного знакогенератора. Набор символов может быть создан пользователем, а затем выведен на экран. Смешанные шрифты также разрешены, поэтому тексты различного размера и формы могут быть показаны на экране одновременно.



Фото 2: Программа для тестирования клавиатуры. Каждая кнопка на клавиатуре Alto имеет свой сигнальный провод, поэтому поддерживается одновременное нажатие сразу нескольких клавиш. На изображении выше нажатые кнопки отмечены черным. Небольшой квадратик над клавиатурой обозначает мышь. Как можно увидеть, одна ее кнопка нажата.

Поскольку пиксели экрана соотносятся только с одним битом памяти, градации цвета и интенсивности компьютер не поддерживает. Однако высокая плотность пикселей и различные комбинации из них позволяют сформировать текстуру, которая создает впечатление оттенка серого. Точно так же печатаются фотографии в газетах.

Клавиатура




Фото 3: Игра Пинбол. Флипперы управляются с помощью двух клавиш Shift. Порт Alto может быть соединен с динамиком для воспроизведения игровых звуков.

Если не углубляться в детали, клавиатура Alto в точности копирует обыкновенную печатную машинку за исключением нескольких специальных клавиш. Она весьма удобна в печати и может быть отсоединена в любой момент. Кроме того, каждая клавиша имеет собственный сигнальный провод, подходящий к интерфейсу клавиатуры. Это позволяет программам пользоваться всеми преимуществами так называемых аккордных команд, когда пользователь держит нажатыми одну или несколько клавиш. К примеру, аккорд Shift+Control+E Alto распознает с той же легкостью, что и A+B+C. Еще один плюс возможность определить длительность нажатия клавиши. К примеру, Пинбол определяет силу удара по тому, как долго пользователь удерживает кнопку. Разумеется, существует и другое программное обеспечение, которое позволяет пользоваться клавиатурой в более консервативной манере.

Графическая мышь




Фото 4: устройство ввода мышь. Оператор использует мышь для контроля расположения курсора на экране. Она определяет изменение своего собственного расположения, а оператор катает её по коврику из мягкого пластика.

Мышь это небольшая коробочка, на верхней грани которой расположены три кнопки. Она соединяется с клавиатурой Alto посредством тонкого и гибкого провода. Кнопки называются красной, желтой и зеленой, несмотря на то, что все они черного цвета. Мышь размещается в правой руке пользователя и катается по мягкому пластиковому коврику, который вращает шарики на её нижней части.

Изменение положения мыши отслеживается по состоянию одного из этих шариков, а затем отсылается компьютеру. Соответственно перемещается курсор на дисплее. Физическое положение мыши на столе не имеет значения, поскольку отслеживается только сам факт ее перемещения. Графический интерфейс мыши гораздо удобнее, нежели bit pad, джойстик или трекбол. Многие программы Alto могут управляться только мышью, без участия клавиатуры.

Системный блок


Процессор и дисковое хранилище Alto располагаются в небольшом шкафчике-стойке высотой до пояса. Каждый Alto снабжается дисковым накопителем объемом 3 Мб. Жесткие диски из-за их формы и габаритов часто сравнивают с коробками для пиццы.

Мозг Alto это 16-битный изготовленный на заказ процессор. Он состоит из множества TTL ICs (интегральные схемы транзисторно-транзисторной логики) среднего и малого размера. Процессор способен выполнять порядка 400 тысяч инструкций в секунду. Каждый Alto имеет адресное пространство объемом 64 тысячи 16-битных слов, включая экранную область. Использование технологии под названием выбор банка позволяет расширить её до 256 тысяч слов. Компьютеры с увеличенной памятью известны под названием wide-bodied Alto, широкоплечий.

Большая часть магии Alto происходит на уровне микрокодов. Alto способен одновременно выполнять до 16 задач, а планирование и операции ввода-вывода осуществляются в микрокодах. Тем не менее, пользователь может управлять только одной задачей. Она обладает самым низким приоритетом и обязана при необходимости отдавать ресурсы другим процессам, к примеру, программам, которые контролируют дисплей, диски, клавиатуру, мышь и Ethernet-соединение. Пользователь имеет прямой доступ к микрокодам и при необходимости может переписать их в соответствии с собственными нуждами.


Реклама Alto, 1979

Программное обеспечение


В Alto для многих задач, которые чаще всего выполняются аппаратно (например, знакогенерация), используются программы. В итоге получается весьма громоздкая, но одновременно гибкая архитектура.

Каждый Alto снабжен ROM (read-only memory), программного содержимого которого достаточно для того, чтобы загрузить Alto из локальной сети. Благодаря этому пользователь всегда имеет возможность безопасно загрузиться по Ethernet, если какая-то системная программа не работает. Любое ПО для Alto можно получить по сети.

Alto Operation System представляет из себя программу, которая обеспечивает базовый набор инструментов для управления компьютером. Она написана на BCPL, языке, который очень походит на C. Большинство программ запускаются напрямую из Alto OS. Поскольку адресное пространство Alto невелико, специальный метод под названием Junta позволяет BCPL-программам избавляться от ненужных разделов Alto OS во время выполнения. Если же эти фрагменты потребуются позже, их можно восстановить, выполнив Counterjunta.



Фото 5: демонстрация программы Executive на Alto.

Одна из BCPL-программ, выполняемых поверх операционной системы, называется Alto Executive. Она общается напрямую с пользователем и позволяет манипулировать файлами и запускать другие программы. Интересной особенностью Executive является возможность дополнения имени файла.

Если ввести только начало имени файла и escape-код, Executive может дописать его самостоятельно. Программисты могут называть файлы описательным образом (например, Gatewaylnformation.press), но не вводить длинное имя каждый раз при обращении к ним. Исполняющая программа распознает файл, как только получит достаточно символов для его однозначной идентификации. Введя вопросительный знак вместо escape-кода, вы получите от Executive все имена файлов, с которыми совпадает введенный текст.

У Alto очень гибкая и надежная файловая система. В отличие от многих файловых систем (например, у CP/M от Digital Research или TRSDOS от Radio Shack), которые ограничивают имена до 6-8 символов плюс расширение из 3-х символов, файловая система Alto допускает имена файлов длиной до 31 знака. Когда вы вводите имя файла, оно сохраняется в том же виде, в котором было напечатано, даже с учетом прописных и строчных букв. Поскольку имена файлов могут быть очень длинными, это позволяет программисту использовать прописные и строчные буквы для улучшения читабельности. Согласитесь, LongFileName.BigExtension намного приятнее глазу, чем LONGFILENAME.BIGEXTENSION. Когда пользователь запрашивает файл у компьютера, регистр игнорируется. Допустимо любое из двух имен в предыдущих примерах, а также longfilename.bigextension.

Файлы в Alto делятся по страницам. Каждая из них содержит небольшой заголовок, который описывает страницу, определяет, к какому файлу она принадлежит, а также указывает на места на диске, которые содержат следующую и предыдущую страницы того же файла. Это делает файловую систему практически неразрушимой. А программа под названием Scavenger может автоматически восстанавливать поврежденную файловую систему.



Фото 5b: NetExecutive (похожа на Executive, но позволяет получать данные по Ethernet)

Конечно же, Alto не существует в вакууме. Для работы с сетью Ethernet требуется программное обеспечение. Часть этого программного обеспечения появляется в форме NetExecutive (см. Фото 5b) и FTP (file-transfer program, программа для передачи файлов). NetExec это программа, очень похожая на Alto Executive, но софт она загружает по сети, а не с жесткого диска. Пользователю не нужно хранить редко используемые или большие программы локально. Их можно загружать через сеть (со скоростью около 800 000 бит в секунду) только при необходимости. FTP выполняет примерно ту же задачу, но куда более гибко.



Фото 5c: Mesa-программа, редактируемая в Bravo. Обратите внимание на то, что в листинге используются различные шрифты.

Несмотря на то, что большая часть ПО для Alto написана на BCPL, недавно появился новый инструмент для разработки: Mesa. Это подобный Паскалю язык программирования. С BCPL из-за ряда различий в микрокодах он не совместим. Вполне вероятно, Mesa станет основным языком программирования для преемников Alto.

BCPL и Mesa системные языки Alto, на них написаны основные утилиты и множество прикладных программ. Тем не менее, на Alto доступны и другие. Существенная часть научно-исследовательского ПО написана на SmallTalk. Это очень мощный и простой в изучении язык программирования. Кроме того, компьютер поддерживает LISP, популярный в сообществе исследователей искусственного интеллекта.

Использование экрана




Фотография 5d: представление директории в Neptune directory editor. Отмеченные имена файлов выбраны для проведения дальнейших операций (печать или удаление). Курсор выглядит как крестик в окружности.

Alto обладает превосходными графическими возможностями. Экран может быть поделен на окна. Многие программы для Alto управляются только посредством мыши и этих окон. К примеру, Neptune служит для работы с содержимым локального диска. Можно удалить файл, кликнув по нему мышью, а затем нажав экранную кнопку Delete. Как только курсор перемещается в новое окно, он может изменить форму: в одном окне он выглядит как стрелочка, а в другом уже как кисть.



Фотография 5e: Bravo может использовать различные шрифты (для Alto есть сотни шрифтов, от готических до эльфийских рун. Центральный абзац на дисплее отображается на греческом).

Поскольку Alto широко используется для исследований в области автоматизации делопроизводства, ему необходим хороший текстовый редактор. Bravo это текстовый редактор и форматер. В традиции экранно-ориентированных редакторов текущее состояние пользовательского файла всегда отображается на экране. Bravo управляется командами клавиатуры и с помощью мыши. Пользователь может открывать в окнах сразу несколько файлов. Текст добавляется и удаляется с помощью курсора мыши и клавиатурных команд. Bravo поддерживает множество различных шрифтов и позволяет пользователю легко переключаться между ними. Кроме того, Bravo запоминает изменения, внесенные в документ, и позволяет пользователю отменить их.

Помимо функций редактирования текста, пользователю могут понадобиться иллюстрации. Для этого есть специальная программа, Draw.

Draw это интерактивная программа для рисования. В ней есть множество разных инструментов для создания и редактирования изображений, собранных из линий, кривых и текста. Draw делит экран на несколько окон (см. Фото 6 ниже). В левой части экрана расположено меню команд и различные кисти. Сверху находится область уведомлений и ввода текстовых команд. Середина экрана рабочая зона. Кривые можно нарисовать либо вручную, либо отметив несколько точек и позволив Draw математически достроить линии. Как только фигура готова, можно поработать с ней кистями. Это похоже на работу художников и каллиграфов: у пользователя остается простор для самовыражения. С помощью мыши и клавиатуры можно продублировать объект, повернуть его, растянуть или сжать.



Фото 6а. Использование программы Draw: точки размещаются курсором, а кривые и линии дорисовываются программой.



Фото 6b. Использование программы Draw. Линии могут быть нарисованы различными кистями (курсор изменился на маленькую кисть).



Фото 6с: Использование программы Draw, пунктирные линии создаются с помощью курсора-ножниц.



Фото 6d. Использование программы Draw: можно математически манипулировать изображением. Новую фигуру можно создать путем переворачивания, наклона или растяжения копии оригинала.

Сеть


Каждому Alto назначается Ethernet-адрес, который однозначно идентифицирует его в сети. Стандартный адрес, например, 50#100, большинству людей ни о чем не говорит. Поэтому каждому Alto присваивается собственное, запоминающееся имя. Например, компьютеры Alto в Стэнфорде названы в честь рек и гор штата Калифорния. Alto в CMU названы в честь драгоценных камней, а Alto в самой Xerox в честь выдающихся людей. В результате получаются такие интересные имена, как Cypress, Turquoise или Machiavelli. Их гораздо легче запомнить, чем условный 50#100.

Сети Alto не состоят только из персональных компьютеров. К Ethernet-сети могут быть подключены и другие виды устройств, например, серверы.

Серверы это компьютеры Alto без пользователя, имеющие свою узкую задачу. Например, сервер может быть подключен к принтеру, и печать файла будет состоять из отправки соответствующих сообщений на сервер печати. Другим распространенным типом серверов является файловый сервер. Эти машины поддерживают очень большие диски и являются репозиториями для программ и файлов, которые слишком велики или слишком редко используются, чтобы их хранить на обычных машинах. Стэнфордский файловый сервер называется Lassen.

К сети можно подключить коаксиальным кабелем совершенно чистый Alto с пустыми с завода накопителями, и он обзаведется полным набором ПО в считанные минуты. Alto также может быть отключен, перемещен на другой порт и снова подключен. Это не повлияет ни на производительность сети, ни на сам компьютер.


Фото 7: многопользовательская программа Trek. Эта игра полностью управляется мышью. В нижней части экрана радар ближнего действия; выше более мощный радар, окна навигации и управления оружием.

Существует несколько программ, использующих возможности Ethernet. Самые интересные из них игры. Trek многопользовательская космическая игра, управляемая преимущественно мышью (см. Фото 7).

Mazewar еще одна многопользовательская игра, лабиринт (см. Фото 8). Уникальная особенность этих игр заключается в том, что несколько пользователей могут присоединяться к игре или выходить из нее по своему усмотрению, не влияя на других игроков. Поскольку все Alto могут одновременно прослушивать один и тот же пакет (блок информации в Ethernet), игровая программа работает не на одной координирующей машине, а сразу на всех машинах-участниках независимо.


Фото 8: Многопользовательская игра Mazewar. Любой Alto в сети может присоединиться к игре или выйти в любое время.

Взгляд в будущее


Alto можно пользоваться и автономно, но наиболее эффективная конфигурация это группа Alto, соединенных по Ethernet. Поскольку Ethernet является локальной сетью, было разработано специальное устройство, шлюз, который позволяет локальным сетям взаимодействовать с другими сетями Ethernet или пакетными сетями других типов. Сейчас многие компании заняты разработкой сетевых схем, которые позволили бы передавать пакеты по линиям кабельного телевидения. Эти кабели в настоящее время установлены во многих домах и учреждениях, поэтому легко представить себе город будущего с информационной сетью, аналогичной электрической сети. В сочетании с системой электронной почты (сегодня на Alto используется прототип Laurel) возможности ошеломляют.

Alto существует уже несколько лет. Однако исследования не стоят на месте, и старые технологии понемногу покрываются пылью. Новые продукты будут основываться на бесценном опыте, полученном при создании и эксплуатации Alto.

В ближайшее время стоит ожидать резкого повышения качества персональных компьютеров и появления новых способов соединять их между собой.
Но без сомнения: Alto один из первых персональных компьютеров, который удовлетворяет потребностям и программистов, и секретарей, и бизнесменов.



Послесловие


Всего было произведено несколько тысяч компьютеров Alto. Они использовались как внутри самой Xerox, так и в нескольких крупных университетах. До масс-маркета компьютер так и не добрался. Сейчас трудно переоценить степень новаторства Xerox: сетевые возможности, необычные программные решения, форм-фактор, похожий на современный. Может показаться, что в 1973 году кто-то открыл секрет машины времени и украл компьютер будущего.

Xerox Alto оставил немалый след в мировой компьютерной истории. Его интерфейсу подражали лидеры рынка. Его технологии и находки применялись во множестве более новых компьютерных устройств (в 1979 году Стив Джобс попал на экскурсию в Xerox PARC, после чего незамедлительно решил воплотить увиденное в Apple II).

Прикоснуться к Alto прямо сейчас можно на этом сайте, с помощью браузерного эмулятора. Приведем несколько собственных скриншотов из игр и программ Alto. Предупреждаем, эмулятор весьма неспешен.

Также существует стационарный эмулятор Alto, ContrAlto, написанный на C#. Его исходный код можно найти на GitHub.

В завершение статьи поделимся несколькими скриншотами.


Аналог Морского боя


Игра Turkey. Картинка перемешивается при нажатии любой клавиши на клавиатуре. Управляется мышью.


Менеджер директорий Neptune


Интерфейс программы Draw


Увы, ни один из наших дизайнеров с Alto Draw не справился. Но было очень интересно!


Демонстрационное видео Alto 1974 года на японском
Подробнее..

Категории

Последние комментарии

  • Имя: Макс
    24.08.2022 | 11:28
    Я разраб в IT компании, работаю на арбитражную команду. Мы работаем с приламы и сайтами, при работе замечаются постоянные баны и лаги. Пацаны посоветовали сервис по анализу исходного кода,https://app Подробнее..
  • Имя: 9055410337
    20.08.2022 | 17:41
    поможем пишите в телеграм Подробнее..
  • Имя: sabbat
    17.08.2022 | 20:42
    Охренеть.. это просто шикарная статья, феноменально круто. Большое спасибо за разбор! Надеюсь как-нибудь с тобой связаться для обсуждений чего-либо) Подробнее..
  • Имя: Мария
    09.08.2022 | 14:44
    Добрый день. Если обладаете такой информацией, то подскажите, пожалуйста, где можно найти много-много материала по Yggdrasil и его уязвимостях для написания диплома? Благодарю. Подробнее..
© 2006-2024, personeltest.ru