Русский
Русский
English
Статистика
Реклама

Arpanet

Перевод Как протоколы ARPANET повлияли на развитие TCPIP

25.03.2021 12:22:32 | Автор: admin

ARPANET навсегда изменил мир компьютеров, доказав, что компьютеры совершенно различных производителей можно соединять при помощи стандартизированных протоколов. В своём посте об исторической значимости ARPANET я упомянул некоторые из этих протоколов, но не описывал их. Поэтому мне захотелось изучить их подробнее. Кроме того, я хотел понять, какая часть структуры этих первых протоколов дожила до протоколов, которые мы используем сегодня.

Протоколы ARPANET, как и современные Интернет-протоколы, были упорядочены в слои. Протоколы верхних слоёв работали поверх протоколов нижних слоёв. Сегодня стек TCP/IP имеет пять слоёв (физический, канальный, сетевой, транспортный и прикладной), но у ARPANET было всего три слоя (или четыре, смотря как считать).

Ниже я расскажу, как работал каждый из этих слоёв, но для начала сделаем краткое отступление, чтобы рассказать, кто создавал ARPANET и чем конкретно занималась каждая из сторон. Это поможет вам понять, почему слои были разделены именно так.

Краткая историческая справка


ARPANET финансировался федеральным правительством США, и в частности Управлением перспективных исследовательских проектов (Advanced Research Projects Agency, ARPA), подчинённым Министерству обороны (отсюда и название ARPANET). Правительство США не создавало сеть самостоятельно; вместо этого оно отдало работу на аутсорс бостонской консалтинговой фирме Bolt, Beranek and Newman, более известной как BBN.

BBN, в свою очередь, взяла на себя бОльшую часть задач по реализации сети, но не весь проект целиком. BBN занималась проектированием и поддержкой машины, называемой Interface Message Processor (IMP). IMP представлял собой модернизированный микрокомпьютер Honeywell, каждый из таких компьютеров отправлялся в те учреждения по всей стране, которые должны были подключаться к ARPANET. IMP использовался в качестве шлюза в ARPANET для четырёх хостов в каждой из точек. BBN контролировала выполняемое на компьютерах IMP ПО, передающее пакеты от одного IMP к другому IMP, однако фирма не имела непосредственного контроля над машинами, подключавшимися к IMP и становившимися истинными хостами ARPANET.

Машины-хосты контролировались учёными-компьютерщиками, которые были конечными пользователями сети. Эти учёные в местах использования хостов по всей стране отвечали за написание программного обеспечения, которое бы позволило хостам общаться друг с другом. IMP предоставляли хостам возможность передавать сообщения друг другу, но это не было особо полезно, если бы хосты не согласовали используемый для сообщений формат. Для решения этой проблемы была собрана разношёрстная команда, в основном состоящая из аспирантов различных учебных заведений, где находились хосты. Эта команда самостоятельно организовала Network Working Group, занимавшуюся созданием спецификаций протоколов для использования компьютерами-хостами.

То есть если представить единичное успешное сетевое взаимодействие через ARPANET (допустим, отправку электронного письма), то за некоторые части её реализации, обеспечивающие успешное взаимодействие, отвечал один коллектив людей (BBN), а за другие части отвечал другой коллектив (Network Working Group и инженеры в каждой из точек размещения хостов). Такое организационное и логистическое стечение обстоятельств, вероятно, сыграло важную роль в выборе слоистой архитектуры протоколов ARPANET, что, в свою очередь, повлияло на реализацию TCP/IP в виде слоёв.

Итак, вернёмся к протоколам



Иерархия протокола ARPANET.

Слои протокола были упорядочены в иерархию. В самом низу находился уровень 0 (level 0). Это слой, который в каком-то смысле не считается, потому что в ARPANET его целиком контролировала фирма BBN, а значит, нужда в стандартном протоколе отсутствовала. Level 0 управлял тем, как данные передаются между IMP. У BBN были внутренние правила о том, как IMP должны это делать; для всех, кто не работал в BBN, подсеть IMP оставалась чёрным ящиком, просто передающим любые отправленные ему данные. То есть level 0 был слоем без настоящего протокола, не являлся публично открытым и общепринятым перечнем правил и его существование могло полностью игнорироваться программами, работающими на хостах ARPANET. Грубо говоря, он обрабатывал всё, что сегодня относится к физическому, канальному и сетевому слоям стека TCP/IP, и даже выполнял довольно большую часть функций транспортного слоя, но к этому мы вернёмся в конце поста.

Слой level 1 устанавливал интерфейс между хостами ARPANET и IMP, к которым они были подключены. Можно сказать, что это был API для чёрного ящика level 0, созданного BBN. В то время его также называли IMP-Host Protocol. Этот протокол нужно было написать и опубликовать, потому что при первоначальной подготовке ARPANET каждое учреждение с хостами должно было писать собственное ПО, обеспечивающее интерфейс с IMP. Они бы не знали, как это сделать, без помощи BBN.

Спецификация IMP-Host Protocol была записана BBN в длинном документе под названием BBN
Report 1822
. В процессе эволюции ARPANET было выпущено много новых версий документа; в посте я приблизительно опишу то, как работала изначальная версия IMP-Host Protocol. Согласно правилам BBN, хосты могли передавать компьютерам IMP сообщения длиной не более 8095 бит, и каждое сообщение содержало leader (заголовок), в котором указывался номер хоста-получателя, а также нечто под названием link number (номер канала). IMP считывал номер хоста-получателя и послушно переправлял сообщение в сеть. При получении сообщений от удалённого хоста принимающий IMP заменял номер хоста-получателя на номер хоста-отправителя, а потом передавал его на локальный хост. Между самими IMP передавались не сами сообщения IMP разбивали сообщения на мелкие пакеты для передачи по сети, однако эта особенность была сокрыта от хостов.

1969 Host-IMP Leader

Формат заголовка сообщений, передаваемых между хостом и IMP, каким он был в 1969 году. Схема из BBN Report 1763.

Номер канала, который мог быть любым числом от 0 до 255, выполнял две задачи. Он использовался протоколами более высокого уровня для установки нескольких каналов связи между любыми двумя хостами в сети, потому что в текущий момент времени с хостом-получателем вполне могло общаться несколько локальных пользователей. (Другими словами, номера каналов позволяли мультиплексировать связь между хостами.) Однако также он использовался в слое level 1 для управления объёмом трафика, который можно передавать между хостами, это было необходимо для того, чтобы быстрые компьютеры не перегружали сообщениями медленные. В изначальном проекте IMP-Host Protocol ограничивал каждый хост, позволяя одновременно передавать по одному каналу всего одно сообщение. После того, как хост передал сообщение по каналу удалённому хосту, ему нужно было ждать от удалённого IMP специальное сообщение под названием RFNM (Request for Next Message), прежде чем отправлять следующее сообщение по тому же каналу. Следующие версии этой системы, созданные для повышения пропускной способности, позволяли хосту одновременно передавать другому хосту по одному каналу до восьми сообщений.

Самое интересное начинается в слое level 2, потому что этот и последующий слои BBN и Министерство обороны отдали на откуп учёными и Network Working Group, позволив изобретать их самостоятельно. Слой level 2 представлял собой Host-Host Protocol, черновик которого изначально был выпущен в RFC 9, а первая его официальная спецификация появилась в RFC 54. Более удобочитаемое объяснение Host-Host Protocol представлено в ARPANET Protocol Handbook.

Host-Host Protocol управлял тем, как хосты создавали соединения друг с другом и управляли ими. Соединение это односторонняя линия передачи данных между сокетом записи одного хоста и сокетом считывания другого. Концепция сокетов (socket) была добавлена поверх имевшей ограничения системы каналов level 1 (не забывайте, что номер канала иметь только 256 значений), чтобы предоставить программам возможность адресации определённого процесса, работающего на удалённом хосте. Сокеты считывания имели нечётные номера; функция сокета (считывание или запись) назывались его гендером. В протоколе не было номеров портов, как в TCP. Соединения можно было открывать, манипулировать ими и закрывать их при помощи специально отформатированных контрольных сообщений Host-Host, передаваемых между хостами по каналу 0, зарезервированному для этой цели. После того, как был произведён обмен сообщениями по каналу 0 для установки соединения, дальнейшие сообщения с данными можно было передавать по каналу с другим номером, выбранным получателем.

Контрольные сообщения Host-Host идентифицировались трёхбуквенной мнемоникой. Соединение устанавливалось, когда два хоста обменивались сообщением STR (sender-to-receiver) и соответствующим сообщением RTS (receiver-to-sender) эти контрольные сообщения назывались сообщениями Request for Connection (запроса на подключение). Соединения можно было закрывать контрольным сообщением CLS (close). Существовали и другие контрольные сообщения, менявшие частоту передачи сообщений с данными от отправителя к получателю, что опять-таки нужно было для того, чтобы быстрые хосты не перегружали медленные. Управление потоками, реализованное в протоколе level 1, очевидно, было недостаточным для level 2; я подозреваю, что так получилось из-за того, что получение RFNM от удалённого IMP гарантировало только то, что удалённый IMP передал сообщение на хост-получатель, а не то, что хост полностью его обработал. Также существовали контрольные сообщения INR (interrupt-by-receiver) и INS (interrupt-by-sender), которые в основном использовались протоколами более высокого уровня.

Все высокоуровневые протоколы находились на level 3, то есть на прикладном слое ARPANET. Вероятно, самым важным из этих протоколов был Telnet, обеспечивавший виртуальное телетайпное подключение к другому хосту, но на этом уровне было и много других протоколов, например, FTP для передачи файлов и различные эксперименты с протоколами для отправки электронной почты.

Один протокол с этого уровня не походил на остальные, это Initial Connection Protocol (ICP). ICP считался протоколом level 3, но на самом деле был протоколом level 2.5, поскольку от него зависели другие протоколы level 3. ICP был необходим потому, что соединения, обеспечиваемые Host-Host Protocol на level 2, были только односторонними, однако большинству приложений для выполнения каких-то интересных задач требовалось двустороннее (т.е. полнодуплексное) соединение. ICP задавал двухэтапный процесс, при котором запущенный на одном хосте клиент подключался к долговременно работающим процессом-сервером на другом хосте. Первый этап заключался в установке одностороннего подключения от сервера к клиенту при помощи известного номера сокета процесса-сервера. После установки соединения сервер отправлял по нему клиенту новый номер сокета. Затем установленное соединение прекращалось и открывалось два новых соединения, одно для считывания, использующее переданный номер сокета, другое для записи, использующее тот же переданный номер плюс один. Этот небольшой танец был необходимой прелюдией для большинства действий, например, он был первым этапом установки соединения Telnet.

На этом наш подъём по иерархии протоколов ARPANET завершён. Вы могли ожидать, что рано или поздно я упомяну Network Control Protocol. Прежде чем я приступил к исследованиям для подготовки к этому посту, я считал, что ARPANET управлялся протоколом под названием NCP. Этой аббревиатурой иногда обозначали протоколы ARPANET в целом. Вероятно, именно поэтому у меня появилась такая мысль. Например, в RFC 801 говорится о переходе ARPANET с NCP на TCP, и это заставляет думать, что NCP это протокол ARPANET, эквивалентный TCP. Но Network Control Protocol для ARPANET никогда не существовало (хоть так и считает Encyclopedia Britannica), и я подозреваю, что люди ошибочно расшифровывали NCP как Network Control Protocol, но на самом деле это означало Network Control Program. Программа Network Control Program была программой уровня ядра, работающей на каждом хосте, отвечающем за управление сетевыми коммуникациями. Она была эквивалентом стека TCP/IP в современных операционных системах. Аббревиатура NCP, используемая в RFC 801, это псевдоним, а не протокол.

Сравнение с TCP/IP


Позже все протоколы ARPANET были вытеснены протоколами TCP/IP (за исключением Telnet и FTP, которые легко адаптировали для работы поверх TCP). Все протоколы ARPANET основывались на предположении о том, что сеть создавалась и управлялась одной организацией (BBN), а стек протоколов TCP/IP проектировался под Интер-нет, сеть сетей, где всё будет более гибким и ненадёжным. Это привело к появлению одних из наиболее очевидных отличий между современными протоколами и протоколами ARPANET, а именно к тому, как сегодня мы разделяем сетевой и транспортный слои. В ARPANET функции транспортного протокола частично выполняли IMP, а позже за них стали отвечать исключительно хосты в конечных точках сети.

Однако самым интересным в протоколах ARPANET мне кажется то, что большой объём функций транспортного слоя, присутствующий сегодня TCP, прошёл этап незрелой юности ARPANET. Я не специалист по сетям, поэтому мне пришлось достать свой учебник по сетям из колледжа (Куросе и Росс, на помощь!), и в нём нашлось достаточно неплохое краткое описание того, за что в целом отвечает транспортный слой. Протокол транспортного слоя минимально должен выполнять следующие задачи. Сегмент здесь, по сути, является термином, аналогичным сообщению в ARPANET:

  • Обеспечивать службу доставки между процессами, а не просто хостами (мультиплексирование и демультиплексирование транспортного слоя)
  • Обеспечивать проверку целостности каждого сегмента (то есть проверять, что при передаче не произошла порча данных)

Кроме того, транспортный слой, как и TCP, может обеспечивать надёжную передачу данных, то есть:

  • Сегменты доставляются по порядку
  • Потерянные сегменты отсутствуют
  • Сегменты не доставляются так быстро, что отбрасываются получателем (управление потоками)

Похоже, в ARPANET существовала некоторая запутанность в способе реализации мультиплексирования и демультиплексирования для обмена данными процессов BBN реализовала для этого номер канала на уровне IMP-Host, но оказалось, что всё равно поверх него требуются номера сокетов на уровне Host-Host. Поэтому номер канала использовался только для управления потоками на уровне IMP-Host, но BBN, похоже в дальнейшем отказалась от этой схемы в пользу управления потоками между уникальными парами хостов, то есть изначально номер канала был перегруженным элементом, а позже, по сути, стал рудиментарным. Сегодня TCP использует вместо них номера портов, выполняя управление потоками отдельно для каждого TCP-соединения. Мультиплексирование и демультиплексирование уровня процесс-процесс происходит целиком внутри TCP и не утекает на нижний слой, как это было в ARPANET.

К тому же, в свете того, как Куросе и Росс развивают идеи, лежащие в основе TCP, любопытно было увидеть, что ARPANET начинались с того, что авторы учебника назвали бы реализацией надёжной передачи данных на уровне IMP-Host при помощи строгого подхода остановиться и ждать. Принцип остановиться и ждать заключается в том, что после передачи сегмента узел отказывается передавать любые другие сегменты, пока не получит подтверждение получения последнего переданного сегмента. Это простое решение, но оно означает, что в любой момент времени по сети передаётся только один сегмент, из-за чего протокол оказывается очень медленным. Именно поэтому Куросе и Росс назвали подход остановиться и ждать просто переходным этапом на пути к полнофункциональному протоколу транспортного слоя. В ARPANET какое-то время использовался подход остановиться и ждать, поскольку на уровне IMP-Host перед отправкой дальнейших сообщений нужно было получить Request for Next Message в ответ на каждое исходящее сообщение. Но надо отдать должное BBN, поначалу она считала, что это будет необходимо для обеспечения управления потоками между хостами, поэтому замедление было намеренным. Как я говорил выше, требование RFNM позже было смягчено ради повышения скорости, а IMP начали прикреплять к сообщениям порядковые номера и отслеживать окна передаваемых сообщений примерно так же, как сегодня это делается в реализациях TCP.

Итак, пример ARPANET продемонстрировал, то обмен данными между неоднородными вычислительными системами возможен, если всем сторонам удастся договориться об общих правилах. Как говорилось ранее, это и есть самое важное наследие ARPANET. Но я ещё и надеюсь на то, что внимательное изучение этих правил показало вам, что принципы протоколов ARPANET ещё и сильно повлияли на протоколы, которые мы используем сегодня. Разумеется, разделение функций транспортного слоя между хостами и IMP было очень неуклюжим, а иногда и избыточным. И сегодня нам может показаться забавным, что хосты поначалу могли одновременно отправлять друг другу по любому из каналов только одно сообщение. Однако эксперименты с ARPANET стали уникальной возможностью получить эти уроки благодаря реализации настоящей сети и управления ею; похоже, эти уроки пошли впрок, когда пришло время совершенствования системы и превращения её в тот Интернет, который мы используем сегодня.
Подробнее..

Перевод История интернета, эра фрагментации, часть 4 анархисты

03.07.2020 10:08:54 | Автор: admin


<< До этого: Статисты

Примерно с 1975 по 1995 годы компьютеры становились доступнее гораздо быстрее, чем компьютерные сети. Сначала в США, а потом и в других богатых странах компьютеры стали обычным делом для обеспеченных домохозяйств, и появились почти во всех институтах. Однако если у пользователей этих компьютеров появлялось желание объединить свои машины для обмена электронной почтой, скачивания программ, поиска сообществ для обсуждения любимых хобби у них было не так уж много возможностей. Домашние пользователи могли соединяться с такими сервисами, как CompuServe. Однако до тех пор, пока в конце 1980-х сервисы не ввели фиксированную ежемесячную оплату, стоимость подключения оплачивалась за каждый час, и тарифы были доступны далеко не всем. Некоторые студенты университетов и преподавательский состав могли подсоединяться к сетям с коммутацией пакетов, но большинству это было недоступно. К 1981 году доступ к ARPANET был только у 280 компьютеров. CSNET и BITNET в итоге включат в себя сотни компьютеров, однако они начали работу только в начале 1980-х. А в то время в США было более 3000 институтов, где студенты получали высшее образование, и практически во всех них стояло по несколько компьютеров, от больших мейнфреймов до мелких рабочих станций.

Сообщества, домашние мастера и учёные, не получившие доступ к сети, обратились к одинаковым техническим решениям, позволявшим им связываться друг с другом. Они взломали старую добрую телефонную систему, сеть Белла, превратив её во что-то вроде телеграфа, передающего вместо голосов цифровые сообщения, а на их основе сообщения от компьютера к компьютеру по всей стране и всему миру.



Это были одни из самых ранних децентрализованных [peer-to-peer, p2p] компьютерных сетей. В отличие от CompuServe и других централизованных систем, к которым подсоединялись компьютеры, подсасывая у них информацию будто телята молоко, информация распространялась по децентрализованным сетям на манер кругов на воде. Она могла начаться где угодно, и куда угодно прийти. И всё равно в них зародились жаркие споры по поводу политики и власти. Когда в 1990-х внимание сообщества привлёк интернет, многие считали, что он уравняет социальные и экономические связи. Позволив всем связываться со всеми, посредники и бюрократы, доминировавшие в наших жизнях, будут отрезаны. Наступит новая эра прямой демократии и открытых рынков, где у всех будут равные голоса и равный доступ. Такие пророки, возможно, воздержались бы от подобных обещаний, изучив судьбу Usenet и Fidonet 1980-х. Техническая их структура была очень плоской, однако любая компьютерная сеть является лишь частью человеческого сообщества. А человеческие сообщества, как их ни размешивай и не раскатывай, всё равно остаются полны комочков.

Usenet


Летом 1979 жизнь Тома Траскота напоминала мечту любого юного любителя компьютеров. Он недавно получил диплом по информатике в университете Дьюка, интересовался шахматами, и проходил интернатуру в штаб-квартире Лабораторий Белла в Нью-Джерси. Именно там у него был шанс пообщаться с создателями Unix новейшего повального увлечения, захлестнувшего мир научных вычислений.

Истоки Unix, как и самого интернета, лежат в тени американской политики телекоммуникаций. Кен Томпсон и Деннис Ритчи из лабораторий Белла в конце 1960-х решили создать более гибкую и урезанную версию массивной системы Multics из MIT, в создании которой они участвовали как программисты. Новая ОС быстро стала хитом в лабораториях, завоевав популярность как скромными требованиями к железу (благодаря чему она запускалась даже на недорогих машинах) так и высокой гибкостью. Однако AT&T не могла заработать на этом успехе. По соглашению от 1956 года с министерством юстиции США, AT&T была обязана продавать лицензию на все технологии, не связанные с телефонией, по разумным ценам, и не заниматься никаким другим бизнесом, кроме обеспечения коммуникаций.

Поэтому AT&T начала продавать лицензию на Unix университетам для использования в научных целях на очень выгодных условиях. Первые лицензиаты, получившие доступ к исходному коду, начали создавать и продавать собственные варианты Unix, из которых стоит отметить Berkeley Software Distribution (BSD) Unix, созданную в флагманском кампусе Калифорнийского университета. Новая ОС быстро захлестнула академическое сообщество. В отличие от других популярных ОС типа DEC TENEX / TOPS-20, она могла работать на железе различных производителей, и многие из таких компьютеров были весьма недорогими. Беркли распространял программу по незначительной цене, в дополнение к скромной стоимости лицензии от AT&T. К сожалению, точных цифр я найти не смог.

Траскоту казалось, что он находится в источнике всех вещей. Он провёл лето в роли интерна у Кена Томпсона, и начинал каждый день с нескольких волейбольных матчей, затем по наступлению полдня работал, а ужин в виде пиццы делил со своими кумирами, после чего допоздна сидел, записывая код для Unix на языке С. По окончанию интернатуры он не захотел терять связь с этим миром, поэтому, как только он вернулся в университет Дьюка осенью, он придумал, как подсоединить компьютер PDP 11/70 из департамента информатики к кораблю-матке в Мюррей-Хилл при помощи программы, написанной его бывшим коллегой, Майком Леском. Программа называлась uucp Unix to Unix copy и была одной из набора uu-программ, входивших в недавно вышедшую ОС Unix версии 7. Программа позволяла одной Unix-системе связываться с другой по модему. Конкретно, uucp позволяла копировать файлы между двумя соединившимися по модему компьютерами, что позволяло Траскоту обмениваться емейлами с Томпсоном и Ритчи.


Том Траскот

Джим Эллис, ещё один аспирант из института Траскота, установил новую версию Unix 7 на компьютер университета Дьюка. Однако обновление принесло не только плюсы, но и минусы. Распространяемая группой пользователей Unix программа USENIX, предназначенная для рассылки новостей среди всех пользователей конкретной системы Unix, в новой версии перестала работать. Траскот и Эллис решили заменить её новой собственной программой, совместимой с 7-й системой, наделить её более интересными возможностями, и вернуть улучшенную версию в сообщество пользователей в обмен на престиж и почёт.

В то же самое время Траскот использовал uucp для связи с машиной под управлением Unix, стоявшей в университете Северной Каролины, в 15 км к юго-западу, в Чапел-Хилле, и общался с тамошним студентом Стивом Беловиным.

Неизвестно, как Траскот и Беловин познакомились, однако возможно, что они сблизились на почве шахмат. Оба они участвовали в ежегодном шахматном турнире Ассоциации компьютерных систем, хотя не в одно и то же время.

Ещё Беловин делал собственную программу для распространения новостей, в которой, что интересно, была концепция новостных групп, разбитым по темам, на которые можно было подписываться вместо одного канала, в который сваливались все новости. Беловин, Траскот и Эллис решили объединить усилия и написать сетевую систему новостей с новостными группами, которая использовала бы uucp для распространения новостей по разным компьютерам. Они хотели распространять новости, связанные с Unix, среди пользователей USENIX, поэтому и назвали свою систему Usenet.

Университет Дьюка должен был служить центральным информационно-аналитическим центром, и использовать автодозвон и uucp, чтобы соединяться со всеми узлами сети через равные промежутки времени, забирать обновления новостей и отдавать новости других членов сети. Беловин написал изначальный код, однако он работал на скриптах программной оболочки, поэтому был очень медленным. Тогда Стивен Дэниел, ещё один аспирант университета Дьюка, переписал программу на С. Версия Дэниела стала известной под названием A News. Эллис рекламировал эту программу в январе 1980 на конференции Usenix в Болдере, Колорадо, и раздал все восемьдесят её копий, принесённых с собой. К следующей конференции Usenix, проходившей летом, её организаторы уже включили A News в пакет программ, распространявшийся среди всех участников.

Создатели описывали эту систему, как ARPANET для бедных. Вы, возможно, не считаете университет Дьюка каким-то второсортным, однако в то время у него не было такого влияния в мире информатики, которое позволило бы ему подключиться к этой премиальной американской компьютерной сети. Но на доступ в Usenet разрешения не требовалось нужна была только система Unix, модем и возможность платить по счетам за телефон за регулярную передачу новостей. К началу 1980-х этим требованиям могли удовлетворить практически все институты, где давали высшее образование.

К Usenet присоединились и частные компании, что способствовало ускорению распространения сети. Digital Equipment Corporation (DEC) согласилась взять на себя роль посредника между университетом Дьюка и Калифорнийским университетом в Беркли, уменьшив стоимость счетов за междугородние звонки и передачу данных между побережьями. В результате Беркли на западном побережье стал вторым узлом Usenet, и соединял сеть с Калифорнийскими университетами в Сан-Франциско и Сан-Диего, а также с другими учреждениями, включая Sytek, одну из первых компаний, занимавшуюся бизнесом, связанным с LAN. В Беркли также располагался и узел ARPANET, что позволило наладить связь между Usenet и ARPANET (после того, как программу обмена новостей ещё раз переписали Марк Хортон и Мэтт Гликман, назвав её B News). Узлы ARPANET начали набирать контент из Usenet и наоборот, хотя правила ARPA, строго говоря, запрещали связываться с другими сетями. Сеть бысто росла, от пятнадцати узлов, обрабатывающих по десять постов в день в 1980, до 600 узлов и 120 постов в 1983, а потом 5000 узлов и 1000 постов в 1987.

Изначально её создатели рассматривали Usenet как способ связи для членов сообщества пользователей Unix и обсуждения разработки этой ОС. Для этого они создали две группы, net.general и net.v7bugs (в последней обсуждались проблемы с новейшей версией). Однако они оставили в системе возможности свободного расширения. Кто угодно мог создать новую группу в иерархии net, и пользователи быстро начали добавлять далёкие от техники темы, к примеру, net.jokes. Точно так же, как кто угодно мог отправлять что угодно, получатели могли игнорировать группы по своему выбору. К примеру, система могла подключиться к Usenet и запрашивать данные только по группе net.v7bugs, игнорируя остальной контент. В отличие от тщательно спланированной ARPANET, Usenet организовывалась самостоятельно, и росла на анархический манер без присмотра сверху.

Однако в этой искусственно демократической среде быстро нарисовался иерархический порядок. Определённый набор узлов с большим количеством связей и большим трафиком стали считать хребтом [backbone] системы. Этот процесс развивался естественным путём. Поскольку каждая передача данных с одного узла на другой добавляла задержку в коммуникациях, каждому новому узлу, подключавшемуся к сети, хотелось связаться с узлом, уже имеющим большое количество подключений, чтобы минимизировать количество скачков, требовавшихся для распространения его сообщений по сети. Среди узлов хребта встречались как образовательные, так и корпоративные организации, и обычно каждым местным компьютером руководил какой-нибудь своенравный человек, добровольно бравший на себя неблагодарное дело по администрированию всего, что проходит через компьютер. Таковы были Гари Мураками из подразделения лабораторий Белла в Индиан-Хилс в штате Иллинойс, или Джин Спэффорд из технологического института Джорджии.

Самое значительное проявление власти администраторов узлов из этого хребта случилось в 1987, когда они продавили реорганизацию пространства имён новостных групп, введя семь новых разделов первого уровня. Там были такие разделы, как comp для компьютерных тем, и rec для развлечений. Подразделы иерархически организовывались под большой семёркой к примеру, группа comp.lang.c для обсуждения языка С, и rec.games.board для обсуждения настольных игр. Группа бунтарей, посчитавшая это изменение переворотом, организованным Хребтовой кликой, создали собственное ответвление от иерархии, заглавной директорией которого была alt, и свой параллельный хребет. Туда входили темы, считавшиеся неприличными для большой семёрки к примеру, секс и лёгкие наркотики (alt.sex.pictures), а также всякие причудливые сообщества, которые чем-то не понравились админам (к примеру, alt.gourmand; админы предпочитали безобидную группу rec.food.recipes).

К тому времени ПО, поддерживающее Usenet, расширили за пределы распространения обычного текста, и ввели поддержку двоичных файлов (названных так потому, что они содержали произвольные двоичные цифры). Чаще всего среди файлов были пиратские компьютерные игры, порнографические картинки и фильмы, бутлегерские записи с концертов и другой незаконный материал. Группы в иерархии alt.binaries попали в список самых часто блокируемых на серверах Usenet из-за их сочетания высокой стоимости (картинки и видео отнимали гораздо больше трафика и места для хранения, чем текст) и спорного юридического статуса.

Но, несмотря на всю эту полемику, к концу 1980-х Usenet стал местом, где компьютерные знатоки могли найти между народные сообщества, состоявшие из единомышленников. За один только 1991 год Тим Бернерс-Ли объявил о создании всемирной сети WWW в группе alt.hypertext; Линус Торвальдс попросил оставлять в группе comp.os.minix отзывы о его новом небольшом проекте Linux; Питер Адкисон, благодаря рассказу о своей игровой компании, который он запостил в группу rec.games.design, познакомился с Ричардом Гарфилдом. Их совместная работа привела к созданию популярной карточной игры Magic: The Gathering.

FidoNet


Однако несмотря на то, что ARPANET для бедных постепенно расползался по всему земному шару, любители микрокомпьютеров, ресурсов у которых было гораздо меньше, чем у самого захудалого колледжа, в основном были отрезаны от электронных коммуникаций. ОС Unix, которая по стандартам академических учреждений была дешёвым и сердитым вариантом, была недоступной для владельцев компьютеров с 8-битными микропроцессорами, на которых работала ОС CP/M, мало на что способная, кроме как на обеспечение работы с накопителями. Однако вскоре они начали свой собственный простейший эксперимент по созданию очень дешёвой децентрализованной сети, и началось всё с создания досок объявлений bulletin boards.

Возможно, что из-за простоты идеи и огромного количества любителей компьютеров, существовавших в то время, электронную доску объявлений (BBS) могли изобрести несколько раз. Но по традиции, первенство признаётся за проектом Ворда Кристенсена и Рэнди Сьюесса из Чикаго, который они запустили во время затяжной метели 1978 года. Кристенсен и Сьюесс были любителями компьютеров, обоим было по 30 с чем-то лет, и оба ходили в местный компьютерный клуб. Они уже давно планировали создать в компьютерном клубе собственный сервер, куда члены клуба могли бы загружать новостные статьи при помощи ПО для передачи файлов по модему, которое Кристенсен написал для CP/M домашний эквивалент uucp. Но метель, задержавшая их дома на несколько дней, дала им необходимый стимул для того, чтобы начать над ним работу. Кристенсен в основном занимался ПО, а Сьюесс железом. В частности, Сьюесс разработал схему, автоматически перезагружавшую компьютер в режим с запущенной программы BBS каждый раз, когда он обнаруживал входящий звонок. Этот хак был необходим для того, чтобы система гарантированно находилась в подходящем состоянии для приёма этого звонка таково было шаткое состояние домашнего железа и ПО в те времена. Своё изобретение они назвали CBBS, компьютеризованной доской объявлений, однако позже большинство системных операторов (или сисопов) опускали для краткости С, и называли свой сервис просто BBS. В первое время BBS также называли RCP/M, то есть удалёнными CP/M (remote CP/M). Подробности своего детища они описали в популярном журнале для компьютерщиков Byte, и вскоре за ними последовала толпа имитаторов.

Удобрило цветущую сцену BBS новое устройство Hayes Modem. Деннис Хайес был ещё одним любителем компьютеров, и ему очень хотелось подключить к своей новой машине модем. Но существовавшие в продаже коммерческие экземпляры попадали всего в две категории: устройства, предназначенные для бизнес-покупателей, и, следовательно, слишком дорогие для домашних любителей, и модемы с акустической связью. Чтобы связаться с кем-либо по акустическому модему, сначала нужно было дозвониться кому-то по телефону или ответить на вызов, а потом положить на модем трубку так, чтобы он мог общаться с модемом на другом конце. Автоматизировать исходящий или входящий звонок таким образом не представлялось возможным. Поэтому в 1977 году Хайес разработал, сделал и начал продавать собственный модем с передачей данных со скоростью 300 бит в секунду, который можно было вставлять внутрь своего компьютера. В своей BBS Кристенсен и Сьюесс использовали одну из этих ранних моделей хайесовского модема. Однако первым прорывным продуктом Хайеса оказался Smartmodem 1981 года, поставлявшийся в отдельном корпусе, с собственным микропроцессором, и соединявшимся с компьютером по последовательному порту. Продавался он по $299, что было вполне доступно любителям, обычно тратившим на свои домашние компьютеры по несколько сотен долларов.


Hayes Smartmodem на 300 бод

Одним из них был Том Дженнингс, и именно он запустил проект, который стал чем-то вроде Usenet для BBS. Он работал программистом в компании Phoenix Software в Сан-Франциско, и в 1983 году решил написать собственную программу для BBS, только не для CP/M, а для самой новой и лучшей Ос для микрокомпьютеров Microsoft DOS. Назвал он её Fido [типичное имя для собаки], в честь компьютера, который он использовал на работе, названного так потому, что он состоял из жуткой мешанины разных комплектующих. Джон Мэдил, продавец из компании ComputerLand в Балтиморе, узнал о Fido и позвонил Дженнингсу через всю страну, чтобы попросить его помочь так изменить его программу, чтобы она запускалась на его компьютере DEC Rainbow 100. Эта парочка начала совместно работать над ПО, а затем к ним присоединился ещё один любитель Rainbow, Бен Бейкер из Сент-Луиса. Троица потратила значительное количество денег на междугородные звонки, пока они заходили на машины друг друга по ночам, чтобы поболтать в чатах.

В процессе всех этих переговоров на разных BBS в голове у Дженнингса начала зарождаться идея он мог создать целую сеть из BBS, которые обменивались бы сообщениями по ночам, когда стоимость междугородней связи была небольшой. Эта идея не была новой многие любители представляли себе такую передачу сообщений между BBS, ещё со времён появления статьи Кристенсена и Сьюесса в Byte. Однако они обычно предполагали, что для того, чтобы эта схема заработала, нужно сначала достичь очень высокой плотности BBS и построить сложные правила маршрутизации, чтобы все звонки оставались местными, то есть, недорогими, даже когда при передаче сообщений от одного побережья к другому. Однако Дженнингс провёл быстрые расчёты и понял, что при увеличившейся скорости модемов (любительские модемы работали уже на скорости 1200 бит/сек) и уменьшающихся междугородних тарифах такие хитрости были уже не нужны. Даже при значительном увеличении трафика сообщений можно было передавать тексты между системами, тратя всего по несколько баксов за ночь.


Том Дженнингс, кадр из документального фильма 2002 года

Тогда он добавил к Fido ещё одну программу. С часу до двух ночи Fido закрывалась и запускалась FidoNet. Она проверяла список исходящих сообщений в файле со списком узлов. У каждого исходящего сообщения был номер узла, а каждый элемент списка обозначал узел сети Fido BBS у которого рядом был указан телефонный номер. Если исходящие сообщения находились, FidoNet по очереди набирала телефоны соответствующих BBS из списка узлов и передавала их программе FidoNet, ожидавшей звонка с той стороны. Внезапно у Мэдилла, Дженнингса и Бейкера появилась возможность легко и просто совместно работать, хотя и ценой задержки реакции. Они не получали сообщений днём, передача сообщений шла по ночам.

До этого любители редко связывались с другими любителями, жившими в другой местности, поскольку в основном звонили на местные BBS бесплатно. Но если эта BBS была соединена с FidoNet, то пользователи внезапно получали возможность обмениваться электронными письмами с другими людьми по всей стране. Схема сразу оказалась невероятно популярной, и количество пользователей FidoNet начало быстро расти, и за год достигло 200. В связи с этим у Дженнингса всё хуже и хуже получалось обслуживать собственный узел. Поэтому во время первой встречи FidoCon, прошедшей в Сент-Луисе, Дженнингс и Бейкер встретились с Кеном Капланом, ещё одним фанатом DEC Rainbow, который вскоре взял на себя одну из важных ролей в руководстве FidoNet. Они придумали новую схему, делящую Северную Америку на подсети, каждая из которых состоит из местных узлов. В каждой из подсетей один административный узел брал на себя ответственность по управлению местным списком узлов, принимал входящий трафик для своей подсети, и передавал сообщения соответствующим местным узлам. Над слоем подсетей были зоны, покрывавшие весь континент. При этом система всё ещё поддерживала один глобальный список узлов, содержавший телефонные номера всех подключённых к FidoNet компьютеров в мире, поэтому теоретически любой узел мог напрямую позвонить на любой другой для доставки сообщений.

Новая архитектура позволила системе продолжать расти, и к 1986 году она увеличилась до 1000 узлов, а к 1989 до 5000. У каждого из этих узлов (который представлял собой BBS) было в среднем по 100 активных пользователей. Два самых популярных приложения были простейший обмен почтой, который Дженнингс встроил в FidoNet, и Echomail, созданный Джеффом Рашем, сисопом BBS из Далласа. Echomail был функциональным эквивалентом новостных групп Usenet, и позволял тысячам пользователей FidoNet вести публичные обсуждения на различные темы. Эхи, как называли отдельные группы, имели одиночные названия, в отличие от иерархичной системы Usenet, от AD&D до MILHISTORY и ZYMURGY (изготовление пива в домашних условиях).

Философские взгляды Дженнингса тяготели к анархии, и он хотел создать нейтральную платформу, которой управляли бы только технические стандарты:

Я сказал пользователям, что они могут делать всё, что хотят. Я уже восемь лет придерживаюсь такой точки зрения, и у меня не было проблем с поддержкой BBS. Проблемы есть только у людей с фашистскими наклонностями, стремящихся держать всё под контролем. Я считаю, что если чётко заявить, что за соблюдением правил следят звонящие мне даже говорить об этом неприятно если звонящие определяют контент, то они смогут дать отпор всяким козлам.

Однако как и в случае с Usenet, иерархическая структура FidoNet дала возможность некоторым сисопам получить больше власти, чем было у других, и поползли слухи о появлении могущественной клики (на этот раз базирующейся в Сент-Луисе), которая хочет забрать у людей управление сетью. Многие боялись, что Каплан или другие люди из его окружения попытаются коммерциализировать систему и начнут брать деньги за использование FidoNet. Особенно сильные подозрения возникали по поводу International FidoNet Association (IFNA), некоммерческой ассоциации, которую основал Каплан для того, чтобы оплатить часть стоимости обслуживания системы (особенно междугородные звонки). В 1989 году казалось, что эти подозрения реализовались, когда группа лидеров IFNA продавила референдум за то, чтобы сделать каждого сисопа FidoNet членом IFNA, и сделать ассоциацию официальной организацией, управляющей сетью, и отвечающей за все её правила и нормы. Идея провалилась, и IFNA исчезла. Конечно, отсутствие символической управляющей структуры не означало, что в сети нет реальной власти; администраторы региональных списков узлов вводили свои произвольные правила.

Тень интернета


С конца 1980-х и далее FidoNet и Usenet постепенно начала затмевать тень интернета. Ко второй половине следующего десятилетия они были полностью поглощены ею.

Usenet переплелась с веб-сайтами интернета благодаря созданию протокола NNTP сетевого протокола передачи новостей в начале 1986. Его задумала парочка студентов Калифорнийского университета (один из филиала в Сан-Диего, другой из Беркли). NNTP позволял узлам сети TCP/IP в интернете создавать новостные серверы, совместимые с Usenet. За несколько лет большая часть трафика Usenet уже шла через эти узлы, а не через uucp по старой доброй телефонной сети. Независимая сеть uucp постепенно зачахла, а Usenet стала очередным приложением, работающим поверх TCP/IP. Невероятная гибкость многослойной архитектуры интернета с лёгкостью позволяла ему поглощать сети, приспособленные для единственного приложения.

Хотя в начале 1990-х между FidoNet и интернетом существовало несколько шлюзов, позволявших сетям обмениваться сообщениями, FidoNet не была единственным приложением, поэтому её трафик не мигрировал в интернет так, как это произошло с Usenet. Вместо этого, когда люди вне академических кругов впервые начали изучать доступ в интернет во второй половине 1990-х, BBS постепенно либо поглощались интернетом, либо становились ненужными. Коммерческие BBS постепенно попали в первую категорию. Такие мини-копии CompuServes предлагали доступ к BBS за ежемесячную плату тысячам пользователей, и у них было несколько модемов для приёма нескольких входящих вызовов одновременно. С появлением коммерческого доступа в интернет эти предприятия подсоединили свои BBS к ближайшей части интернета и начали предлагать доступ к нему своим клиентам в рамках подписки. Чем больше сайтов и сервисов появлялось в расцветающей всемирной паутине, тем меньше пользователей подписывались на услуги конкретных BBS, и поэтому эти коммерческие BBS постепенно превратились в простых провайдеров интернета, ISP. Большая часть любительских BBS превратилась в города-призраки, поскольку пользователи, желавшие выйти в интернет, перешли к местным провайдерам, а также к филиалам более крупных организаций типа America Online.

Всё это прекрасно, но каким образом интернет занял такую доминирующую позицию? Как малоизвестная академическая система, годами распространявшаяся по элитным университетам, в то время как такие системы, как Minitel, CompuServe и Usenet привлекали миллионы пользователей, вдруг вырвалась на передний план и распространилась как сорняк, поглотив всё, что было до неё? Как интернет стал силой, завершившей эру фрагментации?

Что ещё почитать и посмотреть


  • Ronda Hauben and Michael Hauben, Netizens: On the History and Impact of Usenet and the Internet, (online 1994, print 1997)
  • Howard Rheingold, The Virtual Community (1993)
  • Peter H. Salus, Casting the Net (1995)
  • Jason Scott, BBS: The Documentary (2005)
Подробнее..

Перевод Восхождение интернета, ч.1 экспоненциальный рост

11.09.2020 12:04:11 | Автор: admin


<< До этого: Эра фрагментации, часть 4: анархисты

В 1990-м Джон Куотерман, консультант по сетевым технологиям и эксперт в области UNIX, опубликовал всеобъемлющий обзор состояния компьютерных сетей на тот момент. В небольшом разделе, посвящённом будущему вычислительных систем, он предсказал появление единой глобальной сети для электронной почты, конференций, передачи файлов, удалённого входа в систему так же, как сегодня существует всемирная телефонная сеть и всемирная почта. Однако особой роли интернету он не придал. Он предположил, что эта всемирная сеть скорее всего, будет управляться правительственными службами связи, кроме США, где ею будут управлять региональные подразделения Bell Operating Companies и операторы междугородней связи.

Целью данной статьи будет объяснить, как своим внезапным взрывным экспоненциальным ростом интернет настолько грубо опроверг совершенно естественные предположения.

Передача эстафеты


Первое критически важное событие, приведшее к появлению современного интернета, произошло в начале 1980-х, когда Агентство оборонных коммуникаций (Defense Communication Agency, DCA) [ныне DISA] решило разбить ARPANET на две части. DCA взяло на себя контроль над сетью в 1975 году. К тому времени было ясно, что для отдела технологий обработки информации (IPTO) ARPA организации, занимающейся исследованием теоретических идей не было никакого смысла участвовать в развитии сети, использовавшейся не для исследования коммуникаций, а для повседневного общения. ARPA неудачно попыталась спихнуть контроль над сетью частной компании AT&T. DCA, отвечающее за военные системы связи, казалась наилучшим вторым вариантом.

В первые несколько лет новой ситуации ARPANET процветала в режиме благостного игнорирования. Однако к началу 1980-х стареющая инфраструктура коммуникаций министерства обороны отчаянно нуждалась в обновлении. Проект предполагаемой замены, AUTODIN II, подрядчиком которого DCA выбрало компанию Western Union, судя по всему, проваливался. Тогда главы DCA назначили полковника Хайди Хайдена ответственным за выбор альтернативы. Он предложил использовать в качестве основы для новой сети передачи оборонных данных технологию коммутации пакетов, которая уже была в распоряжении DCA в виде ARPANET.

Однако с передачей военных данных по ARPANET существовала очевидная проблема сеть изобиловала длинноволосыми учёными, иные из которых активно выступали против компьютерной безопасности или секретности к примеру, Ричард Столлман со своими сотоварищами-хакерами из лаборатории искусственного интеллекта MIT. Хайден предложил разделить сеть на две части. Он решил оставить учёных-исследователей с финансированием от ARPA на ARPANET, а компьютеры, работающие на оборонных предприятиях, выделить в новую сеть под названием MILNET. У подобного митоза было два важных последствия. Во-первых, раздел военной и не военной частей сети стал первым шагом к передаче интернета под гражданское, а впоследствии и под частное управление. Во-вторых, это стало доказательством жизнеспособности плодотворной технологии интернета протоколов TCP/IP, впервые придуманных лет за пять до этого. DCA было нужно, чтобы все узлы ARPANET перешли со старых протоколов на поддержку TCP/IP к началу 1983-го. На тот момент немногие сети использовали TCP/IP, но после этот процесс объединил две сети прото-интернета, что позволило трафику сообщений при необходимости связывать исследовательские и военные предприятия. Чтобы гарантировать долгосрочность протокола TCP/IP в военных сетях, Хайден основал фонд объёмом в $20 млн для поддержки компьютерных производителей, которые будут писать ПО для реализации TCP/IP в своих системах.

Первый шаг в постепенной передаче интернета от военного к частному контролю также даёт нам неплохую возможность попрощаться с ARPA и IPTO. Его финансирование и влияние, шедшие под управлением Джозефа Карла Робнетта Ликлайдера, Айвена Сазерленда и Роберта Тейлора, напрямую и опосредованно привело к появлению всех ранних разработок в области интерактивных вычислений и компьютерных сетей. Однако создав стандарт TCP/IP в середине 1970-х, оно последний раз сыграло ключевую роль в истории компьютеров.

Следующим важным вычислительным проектом, организованным DARPA, станет конкурс автономных средств передвижения 2004-2005 годов. Самым знаменитым проектом до этого будет стратегическая компьютерная инициатива на основе ИИ 1980-х годов на миллиард долларов, которая породит несколько полезных военных приложений, но практически никак не повлияет на гражданское общество.

Решающим катализатором в потере влияния организации стала война во Вьетнаме. Большинство учёных-исследователей считали, что борются за правое дело и защищают демократию, когда исследования эпохи Холодной войны финансировали военные. Однако те, кто вырос в 1950-е и 1960-е года потеряли веру в военных и их цели после того, как последние увязли в болоте Вьетнамской войны. Среди первых был и сам Тейлор, ушедший из IPTO в 1969, унося свои идеи и связи в Xerox PARC. Контролируемый демократами Конгресс, обеспокоенный разрушительным влиянием военных денег на базовые научные исследования, принял поправки, согласно которым деньги на оборону необходимо было тратить исключительно на военные исследования. ARPA отразило это изменение в культуре финансирования в 1972 году, переименовавшись в DARPA управление перспективных исследовательских проектов Министерства обороны США.

Поэтому эстафета перешла к гражданскому национальному научному фонду (NSF). К 1980-му году с бюджетом в $20 млн, NSF отвечал за финансирование примерно половины федеральных компьютерных исследовательских программ в США. И большая часть этих средств вскоре будет направлена на новую национальную компьютерную сеть NSFNET.

NSFNET


В начале 1980-х Ларри Смарр, физик из Иллинойского университета, посетил Институт им. Макса Планка в Мюнхене, где работал суперкомпьютер Крей, к которому был разрешён доступ европейским исследователям. Раздосадованный отсутствием схожих ресурсов для учёных США, он предложил, чтобы NSF профинансировал создание нескольких суперкомпьютерных центров по всей стране. Организация ответила на притязания Смарра и других исследователей со схожими жалобами, создав в 1984 году отдел по передовым научным вычислениям, что привело к финансированию пяти подобных центров с пятилетним бюджетом в $42 млн. Они протянулись от Корнеллского университета на северо-востоке страны до Сан-Диего на юго-западе. Находившийся между ними университет штата Иллинойс, где работал Смарр, получил собственный центр, национальный центр суперкомпьютерных приложений, NCSA.

Однако возможности центров по улучшению доступа к вычислительным мощностям были ограничены. Использовать их компьютеры пользователям, не живущим поблизости от одного из пяти центров, было бы затруднительно, и потребовало бы финансирования научных командировок длиной в семестр или в лето. Поэтому NSF решил построить ещё и компьютерную сеть. История повторялась Тейлор продвигал создание ARPANET в конце 1960-х именно для того, чтобы дать исследовательскому сообществу доступ к мощным вычислительным ресурсам. NSF обеспечит опорный хребет, который объединит ключевые суперкомпьютерные центры, протянется по всему континенту, а потом подсоединит к себе региональные сетки, дающие доступ к этим центрам другим университетам и научным лабораториям. NSF воспользуется преимуществами интернет-протоколов, которые продвигал Хайден, передав ответственность за создание местных сетей локальным научным сообществам.

Изначально NSF передал задачи по созданию и поддержке сети NCSA из Иллинойского университета как источнику первоначального предложения создания национальной суперкомпьютерной программы. В свою очередь NCSA взял в аренду те же самые линии связи на 56 кбит/с, что ARPANET использовала с 1969 года, и запустила сеть в 1986 году. Однако эти линии быстро забились трафиком (подробности этого процесса можно найти в работе Дэвида Миллса "Опорная сеть NSFNET"). И снова повторилась история ARPANET быстро стало очевидно, что основной задачей сети должен быть не доступ учёных к компьютерным мощностям, а обмен сообщениями между людьми, имевшими к ней доступ. Можно простить авторов ARPANET за то, что они не знали, что подобное может произойти но как могла повториться та же ошибка почти через двадцать лет? Одно из возможных объяснений состоит в том, что гораздо легче оправдать семизначный грант на использование вычислительных мощностей, стоимость которых составляет восьмизначные суммы, чем оправдать трату таких сумм на вроде бы такие несерьёзные цели, как возможность обмениваться электронными письмами. Нельзя сказать, что NSF сознательно вводил кого-то в заблуждение. Но как антропный принцип утверждает, что физические константы Вселенной такие, какие они есть, потому, что иначе нас бы просто не было, и мы не могли бы их наблюдать, так и мне не пришлось бы писать о компьютерной сети с государственным финансированием, если бы не было подобных, несколько фиктивных оправданий её существованию.

Убедив себя в том, что сама по себе сеть обладает, по меньшей мере, такой же ценностью, как и суперкомпьютеры, оправдывающие её существование, NSF обратился к сторонней помощи, чтобы обновить костяк сети, проведя линии с пропускной способностью T1 (1,5 Мбит/с). Стандарт Т1 был основан компанией AT&T в 1960-х, и должен был обслуживать до 24 телефонных звонков, каждый из которых кодировался в цифровой поток 64 кбит/с.

Контракт выиграла Merit Network, Inc. в партнёрстве с MCI и IBM, и за первые пять лет получила от NSF грант на $58 млн для строительства и поддержки сети. MCI обеспечивала инфраструктуру связи, IBM вычислительные мощности и ПО для роутеров. Некоммерческая компания Merit, управлявшая компьютерной сетью, связывавшей между собой кампусы Мичиганского университета, принесла с собой опыт поддержки научной компьютерной сети, и придала всему партнёрству университетский дух, благодаря чему его легче воспринимали NSF и учёные, использовавшие NSFNET. Тем не менее, передача обслуживания от NCSA к Merit была очевидным первым шагом на пути к приватизации.

Изначально MERIT расшифровывалась как Michigan Educational Research Information Triad [мичиганская образовательная триада исследования информации]. Штат Мичиган добавил $5 млн от себя, чтобы помочь домашней сети на Т1 разрастись.



Через магистраль Merit шёл трафик более десяти региональных сетей, от нью-йоркской исследовательской и образовательной сети NYSERNet, связанной в Итаке с Корнеллским университетом, до калифорнийской федеративной исследовательской и образовательной сети CERFNet, подключённой в Сан-Диего. Каждая из этих региональных сетей связывалась с бесчисленным количеством местных кампусных сеток, поскольку в лабораториях колледжей и офисах преподавателей работали сотни машин под управлением Unix. Такая федеральная сеть сетей стала затравочным кристаллом современного интернета. ARPANET связывала между собой только исследователей в области информатики с хорошим финансированием, работавших в элитных научных заведениях. А к 1990-му году почти любой студент университета или преподаватель уже мог выходить в онлайн. Перекидывая пакеты от узла к узлу через местный Ethernet, потом дальше в региональную сеть, потом через большие расстояния со скоростью света по магистрали NSFNET они могли обмениваться емейлами или чинно беседовать в Usenet с коллегами с других концов страны.

После того, как через NSFNET стало доступно гораздо больше научных организаций, чем через ARPANET, в 1990-м году DCA списало устаревшую сеть, и полностью устранила министерство обороны от развития гражданских сетей.

Взлёт


За весь этот период количество компьютеров, подключённых к NSFNET и связанным с ней сетями а всё это мы теперь уже можем называть интернетом росло каждый год примерно в два раза. 28 000 в декабре 1987, 56,000 в октябре 1988, 159 000 в октябре 1989, и так далее. Такая тенденция продолжалась вплоть до середины 1990-х, а потом рост немного замедлился. Как, интересно, учитывая эту тенденцию, Куотерман мог не заметить, что интернету суждено править миром? Если недавняя эпидемия нас чему и научила, так это тому, что человеку очень сложно представить себе экспоненциальный рост, поскольку он не соответствует ничему, с чем мы сталкиваемся в повседневной жизни.

Конечно же, название и концепция интернета появилась ещё до NSFNET. Интернет протокол придумали в 1974, и ещё до NSFNET существовали сети, общавшиеся по IP. Мы уже упоминали ARPANET и MILNET. Однако мне не удалось найти никаких упоминаний интернета единой, простирающейся на весь мир сети сетей до появления трёхъярусной NSFNET.

Количество сеток внутри интернета росло с похожей скоростью от 170 в июле 1988 года до 3500 осенью 1991. Поскольку научное сообщество не знает границ, многие из них находились за рубежом, начиная со связей с Францией и Канадой, налаженных в 1988-м. К 1995 году в интернет можно было выйти почти из 100 стран, от Алжира до Вьетнама. И хотя количество машин и сетей подсчитать гораздо легче, чем количество реальных пользователей, по разумным оценкам к концу 1994 их было 10-20 млн. В отсутствии подробных данных о том, кто, зачем и в какое время использовал интернет, довольно трудно аргументировано подтвердить то или иное историческое е объяснение такого невероятного роста. Небольшая коллекция историй и анекдотов вряд ли может объяснить, как с января 1991 по январь 1992 года к интернету подключилось 350 000 компьютеров, а за следующий год 600 000, а за следующий ещё 1,1 млн.

Однако я отважусь ступить на эту шаткую с эпистемической точки зрения территорию, и заявить, что отвечающие за взрывной рост интернета три наложившихся друг на друга волны пользователей, у каждого из которых были свои причины для подключения, были вызваны неумолимой логикой закона Меткалфа, который говорит, что ценность (а, следовательно, и сила притяжения) сети увеличивается как квадрат количества её участников.

Сначала пришли учёные. NSF намеренно распространяла вычисления по как можно большему количеству университетов. После этого каждый учёный хотел присоединиться к проекту, потому, что все остальные были уже там. Если до вас могли не дойти емейлы, если вы могли не увидеть и не поучаствовать в самых последних обсуждениях на Usenet, вы рисковали пропустить анонс важной конференции, шанс найти наставника, не заметить передовое исследование до его публикации, и так далее. Ощущая принуждение к присоединению к научным беседам в онлайне, университеты быстро подключались к региональным сеткам, которые могли подсоединить их к магистрали NSFNET. К примеру, NEARNET, покрывавшая шесть штатов региона Новая Англия, к началу 1990-х приобрела более 200 участников.

Одновременно доступ начал просачиваться от преподавателей и аспирантов в гораздо более многочисленное сообщество студентов. К 1993 году примерно 70% первокурсников Гарварда завели себе электронные адреса. К тому времени интернет в Гарварде физически дошёл до всех уголков и связанных с ним институтов. Университет пошёл на значительные расходы для того, чтобы провести Ethernet не просто в каждое здание учебного заведения, но и во все студенческие общежития. Наверняка оставалось совсем немного времени до того момента, когда кто-нибудь из студентов первым ввалился в свою комнату после бурной ночи, упал в кресло и с трудом настучал электронное сообщение, об отправке которого пожалел на следующее утро будь то признание в любви или яростная отповедь врагу.

На следующей волне, около 1990 года, начали прибывать коммерческие пользователи. В тот год был зарегистрирован 1151 домен .com. Первыми из коммерческих участников стали исследовательские департаменты технологических компаний (Bell Labs, Xerox, IBM и т.д.). Они, по сути, использовали сеть в научных целях. Бизнес-общение их руководителей шло по другим сетям. Однако к 1994 году существовало уже более 60 000 имён в домене .com, и зарабатывание денег на интернете началось по-настоящему.

К концу 1980-х компьютеры начали становиться частью повседневной рабочей и домашней жизни граждан США, и важность цифрового присутствия для любого серьёзного бизнеса стала очевидной. Емейл предлагал способ простого и чрезвычайно быстрого обмена сообщениями с коллегами, клиентами и поставщиками. Списки рассылки и Usenet предлагали как новые способы быть в курсе событий в профессиональном сообществе, так и новые формы очень дешёвой рекламы для широкого спектра пользователей. Через интернет можно было получить доступ к огромному разнообразию бесплатных баз данных юридическим, медицинским, финансовым и политическим. Устраивавшиеся на работу вчерашние студенты, жившие в подключённых общежитиях, полюбили интернет так же, как и их работодатели. Он предлагал доступ к куда как большему набору пользователей, чем любой из отдельных коммерческих сервисов (и снова закон Меткалфа). После оплаты месячного доступа к интернету, практически всё остальное вы могли получить бесплатно, в отличие от значительной стоимости оплаты за использованные часы или за отправленные сообщения, которую просили CompuServe и прочие подобные сервисы. Среди ранних участников рынка интернета были компании, рассылавшие программы по почте например, The Corner Store из Литчфилда, Коннектикут, рекламировавшаяся в группах Usenet, и The Online Bookstore, магазин электронных книг, основанный бывшим редактором издательства Little, Brown and Company, и более чем на десять лет опередивший Kindle.

И потом пришла третья волна роста, принесшая обычных потребителей, начавших в больших количествах выходить в интернет в середине 1990-х. К этому времени закон Меткалфа уже работал на высшей передаче. Всё чаще быть в онлайне означало быть в интернете. Потребители не могли позволить себе протянуть домой выделенные линии класса Т1, поэтому почти всегда выходили в интернет посредством диалап-модема. Мы уже сталкивались с частью этой истории, когда коммерческие BBS постепенно превращались в провайдеров интернета. Это изменение пошло на пользу как пользователям (чей цифровой бассейн внезапно вырос до океана), так и самим BBS, перешедших на гораздо более простой бизнес посредника между телефонной системой и выездом на магистраль интернета пропускной способностью в Т1, без необходимости поддерживать собственные услуги.

Более крупные онлайн-сервисы развивались по той же схеме. К 1993 году все сервисы национального масштаба в США Prodigy, CompuServe, GEnie и молодая компания America Online (AOL) предлагали пользователям, которых в сумме насчитывалось 3,5 млн, возможность отправлять емейл на интернет-адреса. И только отстающий Delphi (с 100 000 подписчиков) предлагал полноценный выход в интернет. Однако в последовавшие несколько лет ценность доступа к интернету, продолжавшему расти с экспоненциальной скоростью, быстро перевесила доступ к собственным форумам, играм, магазинам и другому контенту самих коммерческих сервисов. 1996-й стал переломным годом к октябрю 73% пользователей, выходивших в онлайн, пользовались WWW, по сравнению с 21% за год до этого. Был придумал новый термин портал, описывающий рудиментарные остатки от услуг, предоставлявшихся AOL, Prodigy и остальными компаниями, которым люди платили деньги только за то, чтобы получить доступ в интернет.

Секретный ингредиент


Итак, мы примерно познакомились с тем, как интернет рос такими взрывными темпами, но недостаточно разобрались в том, почему так происходило. Почему он стал так доминировать при наличии такого разнообразия множества других сервисов, пытавшихся вырасти в предшествовавшую эру фрагментации?

Конечно, правительственные субсидии сыграли свою роль. Кроме финансирования магистральных линий связи, когда NSF решил всерьёз вложиться в развитие сети независимо от своей программы развития суперкомпьютеров, он не мелочился. Концептуальные лидеры программы NSFNET, Стив Вулф и Джейн Кавинес, решили строить не просто сеть суперкомпьютеров, но новую информационную инфраструктуру для американских колледжей и университетов. Поэтому они учредили программу Connections [связи], бравшую на себя часть расходов на подключение университетов к сети в обмен на то, что те обеспечат как можно большему количеству людей доступ к сети на своих кампусах. Это ускорило распространение интернета как прямо, так и косвенно. Косвенно поскольку многие из региональных сеток породили коммерческие предприятия, использовавшие ту же самую инфраструктуру, построенную на субсидии, чтобы продавать коммерческим организациям доступ в интернет.

Но и у Minitel были субсидии. Однако более всего интернет отличался своей многослойной децентрализованной структурой и свойственной ему гибкостью. IP позволял сетям с совершенно различными физическими свойствами работать с одной и той же системой адресов, а TCP обеспечивал доставку пакетов до получателя. И всё. Простота основной схемы работы сети позволяла надстраивать над ней практически любые приложения. Что важно, любой пользователь мог внести вклад в виде новой функциональности, если у него получалось убедить других пользоваться его программой. К примеру, передача файлов по протоколу FTP была одним из наиболее популярных способов использования интернета в ранние годы, однако найти сервера, предлагавшие интересующие вас файлы, кроме как через сарафанное радио было невозможно. Поэтому предприимчивые пользователи создавали различные протоколы для каталогизации и ведения списков FTP-серверов например, Gopher, Archie и Veronica.

Теоретически, у сетевой модели OSI была такая же гибкость, а также официальное благословление международных организаций и телекоммуникационных гигантов на роль стандарта межсетевой связи. Однако на практике поле осталось за TCP/IP, а его решающим преимуществом стал код, работающий сначала на тысячах, а потом миллионах машин.

Передача управления уровнем приложений на самые окраины сети привела ещё к одним важным последствиям. Это значило, что большие организации, привыкшие к управлению собственной сферой деятельности, могли чувствовать себя комфортно. Организации могли настраивать собственные емейл-серверы и отправлять и получать емейлы без того, чтобы всё их содержимое хранилось на чьём-то чужом компьютере. Они могли регистрировать собственные доменные имена, поднимать собственные веб-сайты с доступом для всех, выходящих в интернет, но оставлять их полностью под своим контролем.

Естественно, наиболее ярким примером многослойной структуры и децентрализации стал всемирный веб. Два десятилетия системы от компьютеров с разделением времени 1960-х до сервисов подобных CompuServe и Minitel вращались около небольшого набора основных услуг обмена информацией емейла, форумов и чатов. Веб стал чем-то принципиально новым. Ранние годы веба, когда он полностью состоял из уникальных страниц, сделанных вручную, ничем не напоминают его сегодняшнее состояние. Однако прыжки от ссылке к ссылки уже тогда обладали странной притягательностью, и давали предприятиям возможность обеспечивать чрезвычайно дёшевую рекламу и службу поддержки пользователей. Никто из архитекторов интернета не планировал появление веба. Он стал плодом творчества Тима Бернерса-Ли, британского инженера европейского центра ядерных исследований (ЦЕРН), создавшего его в 1990-м году с целью удобного распространения информации между исследователями лаборатории. Однако же он с лёгкостью жил на базе TCP/IP и использовал систему доменных имён, созданную для других целей, для повсеместно распространившихся URL. Любой человек с доступом к интернету мог сделать сайт, и к середине 90-х казалось, что все так и сделали мэрии городов, местные газеты, малые предприятия и любители всех мастей.

Приватизация


В данном рассказе о росте интернета я опустил несколько важных событий, и, возможно, у вас осталось несколько вопросов. К примеру, как именно предприятия и потребители получили доступ в интернет, который изначально был сконцентрирован вокруг NSFNET сети, финансировавшейся правительством США, и вроде бы предназначавшейся для обслуживания сообщества учёных-исследователей? Чтобы ответить на этот вопрос, в следующей статье мы вернёмся к некоторым важным событиям, о которых я пока умолчал; событиям, которые постепенно, но неотвратимо превратили государственный научный интернет в частный и коммерческий.

Что ещё почитать


  • Janet Abatte, Inventing the Internet (1999)
  • Karen D. Fraser NSFNET: A Partnership for High-Speed Networking, Final Report (1996)
  • John S. Quarterman, The Matrix (1990)
  • Peter H. Salus, Casting the Net (1995)
Подробнее..

Перевод Восхождение интернета, ч.2 появление частных и публичных компаний

02.11.2020 14:14:45 | Автор: admin


До этого: Восхождение интернета, ч.1: экспоненциальный рост

Летом 1986 года сенатор Эл Гор (Альберт Арнольд Гормладший) из Теннеси ввёл поправку к закону Конгресса, позволяющую выделить бюджет для Национального научного фонда США (NSF). Он призвал федеральное правительство изучить возможности коммуникационных сетей для связи суперкомпьютеров в университетах и федеральных исследовательских центрах. Для объяснения цели законопроекта Гор привёл поразительную аналогию:

Одна из многообещающих технологий разработка оптоволоконных систем для передачи голоса и данных. В итоге у нас будет система, состоящая из множества оптоволоконных систем, разбросанных по всей стране. Американские шоссе перевозят по стране людей и материалы. Федеральные шоссе соединяются с дорогами штата, которые, в свою очередь, соединяются с дорогами округов и городов. Для передачи данных и идей нам понадобится телекоммуникационное шоссе, соединяющее пользователей с обоих побережий, со всех штатов, из всех городов. Исследование, заказанное этой поправкой, определит проблемы и возможности, которые встанут перед нашей страной при создании такого шоссе.

В последовавшие годы Гор с союзниками будут призывать к созданию информационного супершоссе, или, формально говоря, национальной информационной инфраструктуры (НИИ). Как и хотел Гор, его аналогия с системой федеральных шоссе позволяет представить себе что-то вроде центрального коммутатора, связывающего вместе местные и региональные сети, позволяя всем американцам общаться друг с другом. С другой стороны, аналогия немного сбивает с толку Гор не предлагал создавать сеть данных, которую оплачивало бы и поддерживало правительство. Он представлял себе, что информационное супершоссе не будет похоже на своего бетонно-асфальтного тёзку. Оно появится благодаря усилиям рыночных сил и в рамках определённых правил. Правила будут гарантировать свободу предпринимательства, свободный и открытый доступ к любому провайдеру услуг (позже эту концепцию назовут сетевым нейтралитетом). Также они должны обеспечить субсидии или другие механизмы, открывающие доступ даже представителям наименее удачливых слоёв общества, чтобы не дать появиться разрыву между информационно богатыми и информационно бедными людьми.

В последовавшее десятилетие Конгресс, реагируя на увеличение важности компьютерных сетей для американских исследователей, образования, и в целом всего общества, не спеша разрабатывал правила для такой сети. Однако этот медленный процесс не поспевал за быстрым ростом NSFNET, за которым следила прилагавшаяся к сети бюрократия из исполнительных директоров. Несмотря на склеротическую репутацию бюрократии, изначально её создали ради способности мгновенно и без раздумий реагировать на происходящее в отличие от законодательной власти. Поэтому с 1988 по 1993 года NSF разрабатывал правила, по которым интернет впоследствии станет частным, а потом и публичным. Каждый год фонду приходилось иметь дело со всё новыми требованиями и ожиданиями, возникающими у пользователей NSFNET и связанных сетей. В результате фонд принимал решения на ходу, и они быстро обогнали планы Конгресса по управлению разработкой информационного супершоссе. И по большей части все решения зависели от единственного человека Стивена Вольфа.

Приемлемое использование


Вольф получил степень доктора наук по электротехнике в Принстоне в 1961 году (примерно в то же время, когда там работал Боб Кан [Роберт Эллиот Кан изобретатель протокола TCP; совместно с Винтоном Серфом изобретатель протокола IP]). Начало его работы могло вылиться в комфортабельную академическую карьеру. Начал он с должности пост-дока в Имперском Колледже, после чего он несколько лет преподавал в университете Джонса Хопкинса. Но потом он вдруг сменил направление, и устроился в баллистическую исследовательскую лабораторию в Абердине, Мэриленд. Все 1970-е и начало 1980-х он провёл там, занимаясь исследованием коммуникаций и компьютерных систем для армии США. Он познакомил офисы лаборатории с Unix, и подключил Абердин к ARPANET. К сожалению, его биографических данных до прихода в NSF очень мало мне даже не удалось найти его дату и место рождения.

В 1986 году NSF нанял его для работы с опорной магистралью для суперкомпьютеров. Он идеально подходил на эту должность, учитывая опыт подключения военных суперкомпьютеров к ARPANET. Он стал главным архитектором эволюции NSFNET с самого начала и до ухода из фонда в 1994-м, когда он ушёл в частный сектор и стал менеджером в Cisco Systems. Изначальной задачей сети, которой Вольфа нанимали управлять, состояла в том, чтобы связать исследователей со всех США с суперкомпьютерными центрами, финансируемыми NSF. Однако, как мы видели в прошлый раз, как только Вольф и другие сетевые управленцы понимали, какой спрос порождали появляющиеся магистрали, они быстро разрабатывали другой вариант NSFNET: коммуникационная сеть для всех исследователей и научных деятелей США.

Однако Вольф не хотел, чтобы правительство постоянно занималось обеспечением сетевых услуг. С его точки зрения, NSF нужно было просто начать процесс, создав изначальный спрос, который сможет породить рынок коммерческих сетевых услуг. После этого, считал Вольф, правительству уже не стоит соревноваться с коммерческими предприятиями. Поэтому он предполагал убрать из уравнения NSF, приватизировав сеть, и передав управление магистралью частным компаниям, не финансируемым из бюджета с тем, чтобы рынок взял всё в свои руки.

Такая идея соответствовала тогдашнему духу времени. На Западе и почти во всех политических режимах правительственные лидеры 1980-х рекламировали приватизацию и отмену регулирования как наилучшие способы подстегнуть экономический рост и инновации после стагнации 1970-х. Один пример из множества: примерно одновременно с началом развития NSFNET федеральная комиссия по связи США сняла ряд ограничений для широковещательных корпораций, существовавших несколько десятилетий. В 1985 году она убрала ограничение на владение печатными и широковещательными СМИ в одной местности. Через два года была аннулирована доктрина непредвзятости, требовавшая от СМИ представлять разные токи зрения на дебаты, связанные с политикой государства.

Благодаря должности в NSF, у Вольфа было несколько рычагов, помогавших ему достичь цели. Первый заключался в интерпретации и принуждению к политике приемлемого использования сети (acceptable use policy, AUP). В соответствии с миссией NSF, политика использования магистрали NSFNET до июня 1990 года предполагала, что сеть будет использоваться для научных исследований и других академических целей. Ограничение было серьёзное, не дававшее возможности коммерчески использовать сеть. Однако Вольф относился к интерпретации этого правила очень гибко. Разве не служат в целях научных исследований регулярные почтовые рассылки со списками новой продукции корпораций, продающих ПО для обработки данных? Или, например, разрешение подсоединить к магистрали почтовую службу MCI по просьбе Винтона Серфа, перешедшего из правительства в MCI, чтобы управлять развитием MCI Mail. Вольф связывал этот шаг с поддержкой исследований тем, что новое соединение позволяло исследователям общаться с более широким кругом людей, что может потребоваться им для работы. Позже подобная рационализация оправдывала подключения и других коммерческих систем электронной почты вроде CompuServe. Притянуто за уши? Возможно. Однако Вольф считал, что пустив немного коммерческого трафика по той же инфраструктуре, что использовалась для общественного трафика NSF, он привлечёт частные инвестиции, которые затем будут постоянно обеспечивать поддержку научных исследований и образования.

Стратегию Вольфа по открытию дверей NSFNET для коммерческих организаций, насколько это было возможно, поддержал в 1992 конгрессмен Рик Баучер. Он помогал следить за работой NSF, будучи председателем подкомиссии по науке. Также он продавил поправку для NSF, которая позволяла использовать NSFNET так, чтобы повышать общие возможности сетей по поддержке исследований и образования. Это было оправдание подхода Вольфа к коммерческому трафику постфактум, и оно позволяло заниматься практически всем пока это порождало прибыль, которая стимулировала приток инвестиций в NSFNET и подсоединённые к ней сети.

Сети двойного назначения


Также Вольф, заботясь об коммерческом развитии сетей, поддерживал аренду мощностей региональных сеток для коммерческого трафика. Магистраль NSF объединяла различные некоммерческие региональные сетки, от NYSERNet в Нью-Йорке до Sesquinet в Техасе и BARRNet в Северной Калифорнии. NSF не спонсировал эти сетки напрямую, однако поддерживал косвенно посредством денег для лабораторий и университетов, благодаря которым они снижали стоимость подключения к местным сетям. Некототорые региональные сетки стали использовать эту же инфраструктуру, поддерживаемую из бюджета, чтобы создавать коммерческие организации. Они стали продавать доступ к сети по тем же самым проводам, что использовались в научных и исследовательских целях на деньги фонда. И Вольф поддерживал их в этих начинаниях, считая это ещё одним способом ускорить переход национальной исследовательской и образовательной инфраструктуры под частное управление.

Это вполне укладывалось в политический дух 1980-х, поощрявший предпринимателей зарабатывать на бюджетной щедрости в надежде, что общество косвенно получит преимущества от экономического роста. Можно усмотреть здесь параллели с двойным использованием региональных сетей по закону Бэйя-Дойла 1980 года, по которому патенты, полученные во время оплаченных из бюджета исследований, отходили выполнявшим заказы организациям, а не государству.

Самым ярким примером двойного использования сетей была PSINet коммерческая компания, основанная в 1988 году как Performance Systems International. Её создали основатель NYSERNet Уильям Шрёдер и её вице-президент Мартин Шофстол. Шофстол, бывший инженер BBN и соавтор протокола Simple Network Management Protocol (SNMP), управляющего устройствами в IP-сети, был главным техническим лидером. Бизнесом занимался Шрёдер, амбициозный выпускник Корнелловского университета с дипломом биолога и обладатель диплома MBA, помогший своему институту открыть суперкомпьютерный центр и подключить его к NSFNET. Он был уверен в том, что NYSERNet должна продавать услуги не только образовательным учреждениям, но и коммерческим предприятиям. Когда другие члены правления с ним не согласились, он уволился и основал собственную компанию. Сначала он покупал у NYSERNet услуги, а потом заработал достаточно денег, чтобы организовать собственную сеть. PSINet стала одним из первых коммерческих интернет-провайдеров, продолжая при этом оказывать некоммерческие услуги колледжам и университетам, желавшим подключиться к магистрали NSFNET.

В конце 90-х Шрёдер и PSINet неплохо поднялись на интернет-пузыре, агрессивно скупая другие предприятия. Самой экстравагантной покупкой компании стало право на смену названия стадиона команды по американскому футболу Балтимор Рейвенс. Шрёдер испытал судьбу, опубликовав в 1997 году статью Почему коллапса интернета никогда не произойдёт. К сожалению для него, это произошло, что привело к его увольнению из компании в 2001 году и банкротству PSINet в следующем году.

Последним рычагом давления Вольфа для поощрения развития коммерческого интернета была его роль менеджера по контрактам с консорциумом Merit-IBM-MCI, управлявшим магистралью. Однако изначально желание что-то изменить в этой области высказал как раз не Вольф, а сами операторы сети.

Коммерческая магистраль


У MCI и её коллег в телекоммуникационной индустрии были мощные стимулы к поиску или созданию спроса на обмен компьютерными данными. В 1980-е они занимались обновлением своих междугородных сетей, переходя с коаксиального кабеля и микроволн пропускная способность которых и так была выше, чем у старых медных проводов на оптоволоконные кабели. У этих кабелей, передающих лазерные лучи по стеклянному волокну, была огромная пропускная способность, ограниченная уже не самим кабелем, а технологиями передатчиков и приёмников с обоих концов. И эта способность была далека от насыщения. К началу 1990-х многие компании развернули оборудование OC-48 с пропускной способностью в 2,5 Гбит/с с десяток лет назад подобного и представить было нельзя. В результате взрывной рост трафика должен был привлечь новые доходы почти без накладных расходов что означало почти чистую прибыль.

Чтобы лучше представить скорость падения стоимости пропускной способности: в середине 1980-х аренда канала Т1 от Нью-Йорка до Лос-Анджелеса стоила бы $60 000 в месяц. Через 20 лет канал OC-3 с пропускной способностью в 100 раз больше стоил уже $5000 удельная стоимость канала упала более чем в тысячу раз.

Желание получить знания, необходимые для растущего рынка передачи данных, побудило MCI присоединиться к заявке NSFNET, предложенной Merit. Последняя устроила серьёзный демпинг (предложив $14 млн на пять лет по сравнению с предложениями конкурентов $40 и $25 млн), что, несомненно, вылилось бы в краткосрочные финансовые потери для MCI и IBM. Однако они надеялись отбить вложения и начать зарабатывать уже к 1989 году. Существующая магистральная сеть приближалась к максимуму пропускной способности, передавая по 500 млн пакетов в месяц каждый год их число росло на 500%. Поэтому когда NSF попросил Merit обновить магистраль с каналов Т1 на 1,5 Мбит/с до канлов Т3 на 45 Мбит/с, они воспользовались этой возможностью, чтобы предложить Вольфу новый контракт.

Т3 был новым рубежом для сетей ранее такого оборудования для цифровых сетей и опыта работы с ним у цифровых провайдеров не было. Поэтому компании настаивали на необходимости увеличения частных инвестиций. Это потребовало бы реструктуризации, и позволило бы IBM и Merit использовать новую инфраструктуру и для передачи коммерческого трафика, сделав её магистралью двойного назначения. С этой целью консорциум должен был сформировать новую некоммерческую компанию Advanced Network & Services, Inc. (ANS), которая будет предоставлять NSF услуги сетей Т3. Её дочка ANS CO+RE будет продавать те же самые услуги любым платёжеспособным клиентам. Вольф согласился на это предложение, сочтя его ещё один шагом на пути передачи сети под коммерческое управление. Более того, он боялся, что если продолжать блокировать коммерческое использование магистрали, в итоге провайдеры решат отделиться от NSFNET и создадут свой собственный, коммерческий интернет.

До того момента у плана Вольфа по постепенному уводу NSF от контроля сети не было ни особого графика, ни запланированных этапов. Рабочая встреча по этому вопросу состоялась в Гарварде в марте 1990 года. Там Вольф и многие другие ранние интернет-лидеры рассматривали большое количество вариантов, не составляя конкретных планов. Именно стратагема ANS запустила каскад событий, напрямую приведший к полной приватизации и коммерциализации NSFNET.

А началось всё с негативной реакции на события. Несмотря на благие намерения Вольфа, манёвр IBM и MCI с ANS вызвал раздражение в рядах сетевиков. И проблемы возникли из-за тех самых коммерческих сетей, подключённых к магистрали, которые и продвигал Вольф. До того момента они худо-бедно ладили друг с другом, поскольку работали на одинаковых условиях, как равные. Однако после появления коммерческой компании ANS она де-факто захватила монополию на магистраль, расположенную в центре интернета. Более того, несмотря на попытки Вольфа вольно интерпретировать политику приемлемого использования сети, ANS решила интерпретировать её весьма строго. Она отказывалась связывать некоммерческие части магистрали (предназначенные для трафика NSF) с коммерческими сетями типа PSI, поскольку это привело бы к смешиванию некоммерческого и коммерческого трафиков. Когда это вызвало недовольства, компания пошла на попятный, и приняла новую политику, позволявшую устанавливать связь, с комиссией, зависящей от объёма трафика.

PSINet это не устраивало. Летом 1991 года они объединились с двумя другими провайдерами UUNET, начавшим продавать коммерческий доступ к Usenet ещё до доступа в интернет, и CERFNet (калифорнийской федеральной образовательной и исследовательской сетью), управляемой General Atomics. Троица сформировала собственную точку обмена трафиком, в обход магистрали ANS. Commercial Internet Exchange (CIX) сначала состоял из единственного центра маршрутизации в Вашингтоне О.К., передававшего трафик между тремя сетями. Они договорились делиться трафиком бесплатно, вне зависимости от его объёма, так, чтобы каждая из сетей платила за работу центра поровну. Затем открылись новые центры, в Чикаго и в Кремниевой долине, и к ним присоединились другие сети, пытающиеся избежать оплаты комиссии ANS.

Разоблачение


Рик Баучер, знакомый нам конгрессмен, поддерживающий коммерциализацию NSF, тем не менее, потребовал расследования правомерности действий, связанных с ANS. Расследование постановило, что действия NSF можно считать поспешными, однако не злонамеренными или коррумпированными. Тем не менее, Вольф решил, что пришла пора отказываться от контроля магистрали. С появлением ANS + CORE и CIX приватизация и коммерциализация пошли уже на полную катушку, однако процесс развивался так, что грозил расщепить интернет на множество не связанных между собой фрагментов, поскольку CIX и ANS отказывались устанавливать связь. Летом 1992 года NSF составил черновик плана новой, приватизированной архитектуры сети, опубликовал его для публичных обсуждений, и довёл до конца в мае 1993 года. Весной 1995 предполагалось закрыть NSFNET, а её активы передать в IBM и MCI. Региональные сети должны были продолжать работу, заключая контракты с частными провайдерами на доступ к сети, а финансовая поддержка со стороны NSF будет постепенно убывать в течение четырёх лет.

Но что сможет заменить магистраль в мире со множеством соревнующихся интернет-провайдеров? Какой механизм объединит эти соперничающие частные интересы в связное целое? Вольф дал ответ, вдохновившись уже существующими центрами обмена трафиком, созданными кооперативами типа CIX. NSF закажет создание четырёх точек доступа к сети (Network Access Points, NAP), центров обмена трафиком, которыми смогут пользоваться различные провайдеры. Четыре отдельных контракта помогут избежать проблем, возникших в случае с ANS, и предотвратить образование монополии на владение этими центрами. Один NAP расположится в существующем центре Metropolitan Area Ethernet East (MAE-East) в Вене, Виргиния, которым руководит компания Metropolitan Fiber Systems (MFS). MAE-West под управлением Pacific Bell, открыли в Сан-Хосе, Калифорния. Ещё один NAP отдали под управление Sprint в Пенсокене, Нью-Джерси, и последний Ameritech в Чикаго. Переход прошёл гладко, и NSF отключил свою магистраль чётко по графику, 30 апреля 1995 года.

Самой сложной частью приватизации оказались вовсе не вопросы с оборудованием и инфраструктурой сети. Проблемы возникли с передачей управления системой доменных имён (DNS). Большую часть её истории она управлялась единственным человеком Джоном Постелом. Однако такая ситуация не устраивала бизнесы, инвестирующие миллионы в коммерческий интернет. Поэтому правительство передало управление системой доменных имён подрядчику Network Solutions. У NSF не было настоящего механизма контроля за деятельностью DNS (возможно, им стоило разделить контроль над разными доменными именами верхнего уровня между разными подрядчиками), а Конгресс не сумел вовремя вмешаться, чтобы создать какой-либо регуляторный режим. Ещё раз контроль перешёл из рук в руки в 1998 году, и оказался у некоммерческой организации ICANN (Internet Corporation for Assigned Names and Numbers Корпорация по управлению доменными именами и IP-адресами), однако управление DNS до сих пор остаётся противоречивым.

Разделение монополии


Гор и другие часто употребляли словосочетание информационное супершоссе в качестве метафоры для цифровых сетей. Но в Конгрессе никогда серьёзно не рассматривали идею использования системы федеральных шоссе в качестве модели для проектирования регулирующей сети политики. Правительство США платило за возведение и поддержку шоссе между штатами, чтобы обеспечить надёжную транспортную сеть для всей страны. Но в эпоху, когда главные партии считали дерегуляцию и приватизацию хорошей идеей, государственная система сетей и информационных услуг по французским лекалам типа Transpac and Minitel просто не рассматривалась.

Единственным небольшим исключением из правила стало предложение, сделанное сенатом Даниэлем Иноуе [Daniel Inouye] зарезервировать 20% интернет-трафика для общественных нужд. Неудивительно, что оно не прошло.

Самой привлекательной политической моделью для планировавшего будущее телекоммуникаций Конгресса стал рынок междугородней связи, появившийся в результате разделения Bell System с 1982 по 1984 годы. В 1974 году министерство юстиции США подало в суд на AT&T это был его первый иск против организации с 1950-х. В иске компанию обвинили в неконкурентном поведении и нарушении шермановского антимонопольного закона. Конкретно компания обвинялась в том, что использует свои рыночные возможности, чтобы не давать выйти на рынок новым инновационным предприятиям. Среди них операторы мобильной радиосвязи, цифровых сетей, спутниковой связи, изготовители особых терминалов и проч. Иск определённо базировался на шедших ещё с 1960-х годов спорах между AT&T и такими компаниями, как MCI и Carterfone (эти споры были описаны в предыдущих статьях цикла).

Когда стало понятно, что министерство юстиции не шутит, и собирается раздробить AT&T, компания сначала обратилась с апелляцией в Конгресс США. Джон де Баттс, председатель совета директоров и директор компании с 1972 года, попытался провести через конгресс билль Белла формально называвшейся актом реформирования потребительских коммуникаций. Он должен был законодательно поддержать утверждения AT&T о том, что преимущества единой универсальной телефонной сети превышают риски злоупотребления монополией, которые в любом случае будет пресекать федеральная комиссия по связи США. Однако предложение встретило твёрдый отпор со стороны подкомитета по коммуникациям, и так и не дошло до голосования.

В 1979 году совет директоров сменил тактику, заменив воинственного де Баттса (однажды он прямым текстом заявил людям, определяющим политику в сфере телекоммуникаций, что выступает против конкуренции и поддерживает монополизацию) на более сговорчивого Чарльза Брауна. Однако к тому времени оказалось уже слишком поздно пытаться остановить набравшее обороты антимонопольное дело. Директорам становилось всё очевиднее, что победить они не смогут. Поэтому в январе 1982 года Браун согласился на разделение компании Bell System на составляющие под наблюдением судьи Гарольда Грина.

Различные компании Белла, тянувшие кабель до домов клиентов, и обычно оперировавшие в границах штатов (Нью-Джерси Белл, Индиана Белл и так далее), были порезаны на семь частей, названных Региональными операционными компаниями Белла (Bell Operating Companies, RBOC). По часовой стрелке это были: NYNEX на северо-востоке, Bell Atlantic, Bell South, Southwestern Bell, Pacific Telesis, US West и Ameritech. Каждая из них всё равно владела монополией в своей местности, но им было запрещено выходить на другие телекоммуникационные рынки.

Сама AT&T осталась при линиях междугородней связи. В отличие от местных телефонных операторов, договор открыл рынок для свободной конкуренции со стороны любых игроков, готовых и способных платить комиссии за передачу звонков внутрь RBOC и наружу. У жителя Индианы, например, местной телефонной компанией всегда была Ameritech, но он мог заключить договор на услуги междугородней связи с кем угодно.

Однако разделение местного и междугороднего рынка означало отказ от субсидий, которые AT&T переадресовывала деревенским пользователям телефонов. Она брала с них меньше денег, навёрстывая на богатых пользователях, использовавших межгород. Внезапный всплеск стоимости телефонной связи в сельской местности по всей стране нельзя было допустить, поэтому по условиям сделки эта ситуация сохранялась. Была основана новая, некоммерческая организация National Exchange Carrier Association, собиравшая комиссию с компаний, занимающихся междугородней связью, и распространявшая средства между RBOCS,

Новая структура заработала. В 1980-х на рынок вышло два больших конкурента, MCI и Sprint, глубоко вгрызшихся в рыночную долю AT&T. Цены на межгород быстро начали падать. Сложно сказать, какую роль в этом сыграло появление конкуренции, а какую появление оптоволоконных сетей большой пропускной способности. Однако договорённость в целом считается крайне успешным примером ослабления регулирования и аргументом в пользу способности рынка модернизировать закоснелые отрасли.

Эта рыночная структура, хоть созданная судебным постановлением исключительно для конкретного случая, но оказавшаяся очевидно успешной, стала шаблоном, по которому в середине 1990-х Конгресс разрешил вопрос с политикой телекоммуникаций эры интернета.

Второй раз не повезло


Но до главного события случилось ещё одно, помельче. Акт о высокоскоростных вычислениях от 1991 года был важен тактически, но не стратегически. Он не продвигал каких-то широких инициатив. В основном он обеспечивал дополнительное финансирование и поддержку Конгресса тому процессу, которым Вольф и NSF и так занимались, и планировали заниматься далее. Это было предоставление сетевых услуг исследовательскому сообществу, субсидирование подключения научных организаций к NSFNET, и продолжение обновления магистральной инфраструктуры.

А затем в январе 1995 года вступил в должность 104-й Конгресс. Контроль над Сенатом и Палатой представителей в Конгрессе США получили республиканцы впервые за 50 лет. А у них на повестке дня стояла борьба с преступностью, уменьшение налогов, сокращение и реформирование правительства, поддержка праведности и добродетельности. Гор с союзниками давно уже рекламировали универсальный доступ к сети как ключевой компонент национальной информационной инфраструктуры. Но после таких изменений во власти шансы реформы, вводящей универсальные услуги по предоставлению доступа к телекоммуникациям, упали до нуля. Вместо этого за главный курс было принято поощрение конкуренции в области телекоммуникаций и доступа к интернету, с небольшой примесью цензуры.

Рыночные условия выглядели многообещающе. Около 1992 года крупных игроков в индустрии телекоммуникаций было уже полно. Традиционной телефонной индустрией занимались семеро RBOC, GTE и три крупных компании междугородной связи AT&T, MCI и Sprint, а также множество мелких. Среди новичков были провайдеры интернет-доступа UUNET, PSINET а также родившаяся из магистральной сети IBM/MCI компания ANS. Свои оптоволоконные сети пробовали тянуть и другие компании, например, Metropolitan Fiber Systems (MFS). BBN, подрядчик от ARPANET, начал создавать собственную маленькую интернет-империю, скупая некоторые из региональных сетей, находившихся на орбите вокруг NSFNET Nearnet в Новой Англии, BARRNet в заливе Сан-Франциско, SURANet на юго-востоке США.

Основной целью закона о телекоммуникациях от 1996 года было сохранение и расширение конкурентного ландшафта. Это было первое большое изменение закона о коммуникациях с 1934 года. Оно должно было подправить закон о телекоммуникациях для цифрового века. В изначальном законе операторов делили по физическим методам передачи данных телефонии, радиовещанию и телевидению, кабельному ТВ. Каждый из них существовал в своей песочнице, с собственными правилами, и обычно им было запрещено вмешиваться в бизнес друг друга. Как мы уже видели, иногда внутри песочниц создавались отдельные песочницы, разделявшие междугородние и местные телефонные рынки. По мере того, как все эти носители сводились к одинаковым битам данных, передававшихся по одним и тем же оптоволоконным каналам, спутникам или Ethernet-кабелям, такое разделение имело всё меньше и меньше смысла.

Целью закона от 1996 года, поддерживаемого как республиканцами, так и демократами, было сломать эти барьеры, эти регуляторные берлинские стены, как назвал их Гор в резюме к этому закону. Здесь просто невозможно привести полное содержание этого фолианта, однако можно упомянуть несколько характерных примеров. Среди прочего в нём:

  • Дозволялась конкуренция RBOC на междугородних телефонных рынках;
  • Снимались ограничения, запрещавшие одной компании предоставлять как кабельные, так и широковещательные услуги;
  • Отменялись правила, предотвращавшие концентрацию владения радиостанциями.

Однако устраняя все правила, открывая шлюзы и позволяя любому участнику выходить на любой рынок, регуляторы рисковали просто воссоздать AT&T на более крупном масштабе мегакорпорацию-монополиста, которая будет доминировать во всех видах коммуникаций и задушит всех конкурентов. Больше всего проблем ожидалось от контроля за т.н. последней милей линии связи от местного коммутатора до дома или офиса клиента. Создать междугороднюю сеть, объединяющую крупные города США было дорогой, но не слишком дорогой задачей. В течение нескольких десятилетий с этим справлялись несколько компаний, от Sprint до UUNET. Однако повторить протяжку всех кабелей до каждого дома хотя бы в одном городе это уже была задача совершенно другого уровня. С первых дней дикой телефонной связи, когда спутанные мотки железной проволоки пересекали городские улицы, конкуренции в области проводной связи на региональном уровне почти не существовало. Что до интернета, проблема особенно остро стояла в случае высокоскоростной передачи данных непосредственно до места назначения то, что позже стали называть широкополосным доступом. Конкуренция между диалап-провайдерами интернета процветала долгие годы ведь всё, что пользователю было нужно для получения доступа к компьютеру провайдера, это телефонная линия. Однако в данном случае это уже не сработало бы новые сервисы не будут пользоваться телефонными сетями.

Юридически эту проблему разрешили через создание концепции CLEC конкурентоспособного местного оператора обмена. Теперь членам RBOC, переименованным в ILEC (действующих местных обменных операторов) открывался неограниченный доступ на междугородний рынок только после того, как они разрешали CLEC пользоваться своей инфраструктурой. Последние же занимались доставкой телекоммуникаций услуг в дома и офисы. Это позволяло конкурирующим провайдерам интернета и других новых сервисов сохранять доступ к местным сетям даже после того, как диалап-сервис исчез. Это было что-то вроде телефонной сети нового типа для широкополосного доступа. В данной модели CLEC выполняли ту же роль, что и провайдеры междугородной связи на телефонном рынке после разделения монополии. Имея возможность свободно подключаться к существующим местным телефонным сетям за умеренную плату, они создавали конкурентную среду на рынке, где ранее доминировала проблема естественной монополии.

Кроме создания CLEC ещё одна важная часть закона, влиявшая на интернет, была связана больше с добродетельным подходом республиканцев, чем с экономическими соображениями. Глава V, известная, как закон о приличиях в коммуникациях запрещал передачу неприличного или оскорбительного контента описывающего или рисующего акты секса или экскреции, или же связанные с этим органы в любые части интернета, доступные несовершеннолетним. Это было расширение правил, касающихся запрета широковещания непристойного контента, перенесённое в мир интерактивных компьютерных услуг.

Насколько этот масштабный акт справился со своими задачами? По большинству мерок, почти не справился. Легче всего оказалось отвергнуть закон о приличиях в коммуникациях, который отменили в 1997 году, как нарушающий Первую поправку [к Конституции США, гарантирующую, в числе прочего, свободу слова / прим. перев.]. Однако несколько частей главы V пережили пересмотр включая секцию 230, самую важную для будущего интернета. Она позволяла веб-сайтам, размещавшим создаваемый пользователями контент, существовать, не опасаясь постоянных судебных исков, и защищала непрерывное существование всего, от гигантов типа Facebook и Twitter до мелких любительских форумов.

Попытки поощрения конкуренции на местах длились дольше, но достигли успеха не большего, чем контроль над непристойным контентом. Что же случилось со CLEC, которым дали доступ к инфраструктуре, чтобы они могли соревноваться по цене и наборам услуг? Закон требовал, чтобы федеральная комиссия по связи в своём нормотворчестве подробно описывала, какое конкретно разделение сетей нужно было предлагать. Действующие компании требовали у судов отмены любых решений, которые открывали бы их сети для доступа конкурентов. Они неоднократно выигрывали дела у федеральной комиссии по связи, при этом ещё и угрожая, что появление конкурентов будет тормозить их планы по доставке оптоволоконной связи в дома потребителей.

В 2001 году, с прибытием администрации Буша и нового председателя комиссии по связи Майкла Пауэлла, комиссия начала активно противиться изначальным целям акта о телекоммуникациях. Пауэлл считал, что нужду в альтернативных широкополосных доступах удовлетворит конкуренция между разными видами связи кабельными, телефонными, сотовыми, беспроводными, и сетями, передающими информацию по линиям электропитания. Никаких новых правил в пользу CLEC принимать уже не собирались. В какой-то промежуток 2000-го года было возможно подписаться на высокоскоростной доступ в интернет при помощи инфраструктуры местного телефонного или кабельного провайдера. Но после этого большая часть основных посылов акта о телекоммуникациях, направленных на поощрение конкуренции, просто перестала работать. Широко разрекламированный проект по протяжке оптоволокна в каждый дом реально подключил какое-то значительное количество пользователей уже после 2010-го. Как писал историк Фред Голдштейн, существующие провайдеры прикрылись фиговым листком конкуренции, не потеряв значительных долей рынка [Goldstein, The Great Telecom Meltdown, 145].

Большую часть XX века сетевые предприятия в США сначала активно разрастались, подпитываемые предпринимательской энергией, а когда они становились достаточно важными с точки зрения общественных интересов, их впихивали в матрицу регуляторных платформ. По этой схеме развивались широковещание и кабельное телевидение. Грузоперевозки по дорогам и авиасообщение. Однако когда CLEC в начале 2000-х, практически умерли, закон о приличиях в коммуникациях отозвали, а другие попытки контролировать интернет, типа закона о Clipper [предлагалось устанавливать в телекоммуникационное оборудование специальный чип, позволявший правительству США обходить программное шифрование данных], зашли в тупик, интернет пошёл противоположным путём.

Взрастив интернет под чутким руководством государства, ему позволили развиваться при почти полном невмешательстве. Открытые NSF точки доступа NAP стали последним крупным вмешательством правительства в структуру интернета. Он обеспечивал как транспортный уровень для передачи сырых данных такими сетями, как Verizon и AT&T так и уровень приложений. Последним пользовались поставщики программных услуг, от порталов типа Yahoo! и поисковых сайтов типа Google до онлайн-магазинов вроде Amazon. В последней главе мы рассмотрим последствия такой схемы развития, и кратко опишем эволюцию интернета в США с середины 1990-х и до сегодняшнего дня.

Что ещё почитать


  • Janet Abatte, Inventing the Internet (1999)
  • Karen D. Fraser NSFNET: A Partnership for High-Speed Networking, Final Report (1996)
  • Shane Greenstein, How the Internet Became Commercial (2015)
  • Yasha Levine, Surveillance Valley: The Secret Military History of the Internet (2018)
  • Rajiv Shah and Jay P. Kesan, The Privatization of the Internets Backbone Network, Journal of Broadcasting & Electronic Media (2007)
Подробнее..

Категории

Последние комментарии

  • Имя: Макс
    24.08.2022 | 11:28
    Я разраб в IT компании, работаю на арбитражную команду. Мы работаем с приламы и сайтами, при работе замечаются постоянные баны и лаги. Пацаны посоветовали сервис по анализу исходного кода,https://app Подробнее..
  • Имя: 9055410337
    20.08.2022 | 17:41
    поможем пишите в телеграм Подробнее..
  • Имя: sabbat
    17.08.2022 | 20:42
    Охренеть.. это просто шикарная статья, феноменально круто. Большое спасибо за разбор! Надеюсь как-нибудь с тобой связаться для обсуждений чего-либо) Подробнее..
  • Имя: Мария
    09.08.2022 | 14:44
    Добрый день. Если обладаете такой информацией, то подскажите, пожалуйста, где можно найти много-много материала по Yggdrasil и его уязвимостях для написания диплома? Благодарю. Подробнее..
© 2006-2024, personeltest.ru