Русский
Русский
English
Статистика
Реклама

Суперкомпьютеры

Recovery mode Компьютер с кипящим охлаждением представлен на семинаре в ИПС РАН

03.11.2020 12:06:29 | Автор: admin
16 октября 2020 года на семинаре в Институте программных систем РАН (Переславль-Залесский) была показан экспериментальный компьютер, охлаждаемый кипящей жидкостью. Конечно, кипящей при невысокой температуре (40C). По словам исследователей, это позволяет в тысячи раз улучшить отбор тепла на процессоре и создать одинаково холодные условия во всей установке.

Слева монитор управляющей системы, справа компьютер, на его процессоре заметно кипение.
Слева монитор управляющей системы,
справа компьютер, на его процессоре заметно кипение.


Компьютер не перемещает никаких грузов, не обрабатывает сырья, не выпекает хлеб или керамику то есть не тратит электрическую мощность на производство продукции. Вся эта мощность должна быть рассеяна компьютером без перегрева, всё его тепло надо сбросить в окружающую среду. Поэтому охлаждение электроники становится очень важной, ключевой задачей. Шаг за шагом было придумано воздушное охлаждение, потом изолированное жидкостное (охладитель в трубках), потом погружное (электроника плавает в охладителе). А теперь сделан следующий шаг фазовый переход.


Стенд работает


Бросим взгляд на экспериментальную установку. Вот аквариум с материнской платой. В него налита фторкетонная жидкость. И да, она совсем сухая на ощупь, потому что мгновенно испаряется с ладони. На процессоре эта жидкость кипит пузырьками и превращается в пар.

Для проверки на стенде установлен набор резисторов.
Для проверки на стенде установлен набор резисторов.

Чуть выше стоит конденсатор, в нём течёт холодная вода и собирает всё тепло, которое несёт этот пар. Отдав тепло, пар конденсируется и капает вниз, а вода, нагревшись, течёт в теплообменник в нижней части стенда. Здесь тепло из воды уходит на улицу, а холодная вода возвращается в конденсатор.

Конденсатор, который собирает тепло.
Конденсатор, который собирает тепло.

Говорит один из разработчиков, кандидат технических наук Сергей Анатольевич Амелькин:
Мы погружаем процессор в кипящую жидкость, и его тепло передаётся кипящей жидкости. Если кипение происходит при достаточно низкой температуре, процессор не будет сильно греться, а тепло будет собрано жидкостью. При этом жидкость изменит фазовое состояние, станет паром. Этот пар сам поднимается через слой жидкости наверх к конденсатору. Экспериментальная установка и работает, и жидкость в ней кипит, и дождик капает!


Охлаждающая жидкость закипает, видны капли и брызги.
Охлаждающая жидкость закипает, видны капли и брызги.

На 140 ваттах мощности, которые отдаёт экспериментальный вычислительный узел, разница температуры между процессором и жидкостью составила 35 градусов. Это соответствует коэффициенту теплопередачи 2500 Вт/(мК).

По расчёту в этом аквариуме можно утилизировать в окружающую среду 15 кВт мощности при температуре окружающей среды 20 градусов. Сейчас, подключённый к обычной розетке, стенд выводит в воздух 2,5 кВт мощности. (Таково ограничение электрической сети в лаборатории.) Кипеть начинает за пять минут. Опыт сделан на комплекте резисторов, включённом через ЛАТР.

Снова дадим слово разработчику. Говорит доктор технических наук Анатолий Михайлович Цирлин:
Опуская компьютер в кипящую жидкость, мы фиксируем температуру всех элементов. Они будут иметь ту температуру, при которой жидкость кипит. Это стабильная температура, не надо никакого регулирования.


Охлаждающая жидкость бурлит и плещется.
Охлаждающая жидкость бурлит и плещется.

Коэффициент теплообмена теперь резко увеличился. За счёт этого процессор теперь охлаждается напрямую, без радиатора. Однако площадь самого процессора невелика, поэтому не удаётся снимать с него очень уж большую мощность. Есть мысль создать специальный радиатор, который будет контактировать с процессором в нескольких точках. Хотя площадь контакта у него будет маленькой, но ведь поверхность теплообмена будет значительно больше.

Что будет дальше


Лабораторная установка, показанная в ИПС РАН, позволит учёным экспериментально изучать режимы и процессы двухфазных охладительных систем. Тут можно сравнивать различные охлаждающие жидкости и хладагенты, проверять работу радиаторов, продолжая исследования в области кипящего охлаждения.

О продолжении этих исследований мы спросили Анатолия Михайловича Цирлина, и вот что он рассказывает.
Наша следующая цель кипящий струйный компьютер, в котором струя кипящей жидкости обтекает горячие элементы, чтобы распределять её на самые горячие места. За счёт движения жидкости можно увеличить коэффициент теплоотдачи в три раза. Но ещё важнее, что за счёт движения жидкости можно управлять переходом кипения от пузырькового режима к плёночному, когда образуется плёнка пара. Такой переход в плёночный режим опасен, при нём всё перегревается.

В перспективе эти работы могут быть использованы при разработке суперкомпьютеров. К сожалению, сейчас в России не строят коммерческих суперкомпьютеров, а недавно запущенный суперкомпьютер Сбербанка Кристофари был разработан и построен американской компанией Nvidia.

Тепло стремительно уходит за счёт кипения.
Тепло стремительно уходит за счёт кипения.

Кто придумал и построил всё это


В работе участвовали четыре человека: дтн Анатолий Михайлович Цирлин, ктн Сергей Анатольевич Амелькин, аспиранты Алексей Анатольевич Петров и Алексей Алексеевич Демидов. Они трудятся в Институте программных систем имени Айламазяна РАН в городе Переславле, Ярославская область.

Сергей Амелькин демонстрирует работу стенда.
Сергей Амелькин демонстрирует работу стенда.

Анатолий Михайлович Цирлин придумал эту идею (DOI) и предложил её в 2016 году, выступая на Национальном Суперкомпьютерном Форуме в Переславле.

Кандидат технических наук Сергей Анатольевич Амелькин разработал математическую модель системы охлаждения, основанной на фазовом переходе. Выбран оптимальный режим, соответствующий минимальной необратимости процесса охлаждения. Опираясь на модель, он предложил конструктивные решения, которые обеспечат реализацию такого режима, и разработал алгоритмы для управления погружными двухфазными системами охлаждения.

Аспирант Алексей Алексеевич Демидов проводил расчёты, проектировал инженерную 3D-модель экспериментальной установки. Исходя из гидравлической схемы, он расположил в столе и в аквариуме все компоненты гидравлики конденсатор, драйкулер, насосы, теплообменник, расширительный бак. Он моделировал вычислительный узел и испытательный блок с нагрузочными резисторами, подготовил чертежи и конструкторскую документацию. Наконец, он контролировал весь процесс сборки и наладки стенда в лаборатории.

Аспирант Алексей Анатольевич Петров уже несколько лет создаёт системы управления для погружного охлаждения фирмы Иммерс. Такая система управляет насосами и вентиляторами через программируемые контроллеры. Задача тут непростая надо поддержать в каждом контурне системы охлаждения постоянный температурный режим. С одной стороны, надо обспечить низкую температуру, а с другой стороны, хочется тратить минимум энергии на работу охладительной системы при самой разной температуре окружающего воздуха, куда, собственно, всё тепло в конечном счёте уходит. Здесь он писал SCADA-систему, которая слушает датчики температуры и давления, включает и выключает вентилятор, выводит сведения на экран оператора то есть управляет всей аппаратурой.

Вот такой был семинар и вот такие достижения. Надеюсь, не в последний раз.


Текст и иллюстрации: CC-BY-SA 3.0.
Подробнее..

Из песочницы Вводная по квантовым компьютерам (перевод с сайта Explaining Computers)

07.11.2020 20:18:47 | Автор: admin
Привет, Хабр! Представляю вашему вниманию перевод статьи Quantum Computing автора Christopher Barnatt.

Квантовые вычисления


Квантовые вычисления быстро развивающаяся область компьютерных исследований, коммерческое применение которой ожидается в ближайшее время. К этому времени квантовые компьютеры превзойдут традиционные компьютеры в определённых задачах, к которым относятся молекулярное и материальное моделирование, оптимизация логистики, финансовое моделирование, криптография и обучение искусственного интеллекта.

Основы квантовых вычислений


Традиционные компьютеры построены из кремниевых микросхем, содержащих миллионы или миллиарды миниатюрных транзисторов. Каждый из них может быть включен в понимании машины это состояние 0 или 1. Впоследствии компьютер хранит и обрабатывают данные, используя двоичные числа или биты.

Квантовые компьютеры работают с квантовыми битами или кубитами. Они могут поддерживаться аппаратно разными способами например, с помощью квантово-механических свойств сверхпроводящих электрических цепей или отдельных захваченных ионов.

Кубиты могут существовать более чем в одном состоянии или суперпозиции в один и тот же момент времени. Что позволяет кубиту принимать значение 1, 0 или оба значения одновременно. Это позволяет квантовому компьютеру обрабатывать гораздо большее количество данных, чем классический компьютер, и выполнять массовую параллельную обработку. Это также означает, что каждый кубит, добавленный в квантовый компьютер, экспоненциально увеличивает его мощность.

Большинство людей теряется, когда слышит про свойства кубита. Подброшенная монета не может выпадать одновременно орлом и решкой. И всё же, квантовому состоянию кубита под силу что-то подобное. Поэтому неудивительно, что известный физик-ядерщик Нильс Бор однажды заявил: Всякий, кого не шокирует квантовая теория, просто её не понимает!

Помимо суперпозиций, кубиты могут запутываться. Запутанность ещё одно ключевое квантово-механическое свойство, означающее, что состояние одного кубита может зависеть от состояния другого. Это означает, что наблюдение за одним кубитом может выявить состояние его ненаблюдаемой пары.

Создавать кубиты и управлять ими очень сложно. Многие из сегодняшних экспериментальных квантовых процессоров используют квантовые явления, возникающие в сверхпроводящих материалах, и, следовательно, нуждаются в охлаждении почти до абсолютного нуля (около минус 272 градусов Цельсия). Также требуется защита от фонового шума, и даже в этом случае выполнение вычислений с использованием кубитов потребуют исправления ошибок. Основной задачей квантовых вычислений является создание отказоустойчивой машины.

Квантовые первопроходцы


image

К компаниям, которые в настоящее время разрабатывают оборудование для квантовых компьютеров, относятся: IBM, Alibaba, Microsoft, Google, Intel, D-Wave Systems, Quantum Circuits, IonQ, Honeywell, Xanadu и Rigetti. Многие из них работают совместно с исследовательскими группами крупных университетов, и все они продолжают добиваться значительных успехов. Дальше приводится обзор работы каждой из этих компаний.

IBM


IBM работает над созданием квантового компьютера уже более 35 лет. Она добилась значительного прогресса с несколькими работающими машинами. Согласно веб-сайту IBM-Q: Сегодня квантовые вычисления это игровая площадка для исследователей, но через пять лет они станут мейнстримом. Через пять лет эффект квантовых вычислений выйдет за рамки исследовательской лаборатории. Он будет широко использоваться новыми категориями профессионалов и разработчиков, которые используют этот новый метод вычислений для решения проблем, которые когда-то считались неразрешимыми.

В 2016 году IBM запустила сайт под названием IBM Q Experience, который показал 5-кубитный квантовый компьютер всему интернету. С этого времени, к нему присоединились вторая машина на 5 кубитов и машина на 16 кубитов, обе из которых доступны для экспериментов. Чтобы помочь тем, кто хочет узнать о квантовых вычислениях и принять участие в их разработке, IBM предлагает программную платформу для квантовых вычислений с открытым исходным кодом под названием Qiskit.

В ноябре 2017 года IBM объявила, что к её квантовому облаку добавляются две 20-кубитные машины. Их могут использовать клиенты, которые являются зарегистрированными членами IBM Q Network. IBM описывает это как всемирное сообщество ведущих компаний, стартапов, академических институтов и национальных исследовательских лабораторий из списка Fortune 500, работающих с IBM над продвижением квантовых вычислений и изучением практических приложений для бизнеса и науки.

Также в ноябре 2017 года IBM объявила что сконструировала квантовый процессор на 50 кубитов, который на тот момент считался самым мощным квантовым оборудованием.

image
50-кубитный квантовый компьютер IBM

В январе 2019 года IBM объявила о выпуске своей IBM Q System One как первой в мире интегрированной универсальной системы приближенных квантовых вычислений, разработанной для научного и коммерческого использования. Эта модульная и относительно компактная система предназначена для использования вне лабораторных условий. Вы можете узнать больше о IBM Q System One в этом пресс-релизе.

Google


Ещё один технологический гигант, который усердно работает над тем, чтобы квантовые вычисления стали реальностью, это Google, у которой есть лаборатория квантового ИИ. В марте 2017 года инженеры Масуд Мохсени, Питер Рид и Хартмут Невен, которые работают на этом объекте, опубликовали статью в Nature. В ней они рассказали, что квантовые вычисления возможны на относительно небольших устройствах, которые появятся в течение следующих пяти лет. Это подтверждает взгляды IBM на сроки появления коммерческих квантовых вычислений.

На раннем этапе развития квантовых вычислений компания Google использовала машину от канадской компании D-Wave Systems. Однако сейчас компания активно разрабатывает собственное оборудование, а в марте 2018 года анонсировала новый 72-кубитный квантовый процессор под названием Bristlecone.

В июне 2019 года директор лаборатории квантового искусственного интеллекта Google Хартмут Невен отчитался, что мощность их квантовых процессоров в настоящее время растет вдвое экспоненциально. Это было названо законом Невана и предполагает, что мы можем достичь точки квантового превосходства, когда квантовый компьютер может превзойти любой классический компьютер к концу 2019 года.

В октябре 2019 года команда инженеров Google опубликовала в Nature статью, в которой утверждала, что достигла квантового превосходства. В частности, учёные Google использовали квантовый процессор под названием Sycamore для выборки выходного сигнала псевдослучайной квантовой схемы. Sycamore потребовалось около 200 секунд, чтобы выполнить выборку одного экземпляра схемы миллион раз. Для сравнения, команда Google подсчитала, что классическому суперкомпьютеру потребуется около 10 000 лет для выполнения тех же вычислений. Далее команда пришла к выводу: Квантовые процессоры на основе сверхпроводящих кубитов теперь могут выполнять вычисления за пределами досягаемости самых быстрых классических суперкомпьютеров, доступных сегодня. Этот эксперимент знаменует собой первое вычисление, которое может быть выполнено только на квантовом процессоре. Таким образом, квантовые процессоры достигли режима квантового превосходства.

Это откровение инженеров Google было большой новостью, но вскоре вызвало споры. IBM опубликовала сообщение в блоге, сказав, что вычисления в эксперименте Google могут быть выполнены на классическом компьютере за два с половиной дня, а не за 10 000 лет. И по утверждению IBM: Поскольку первоначальное значение термина квантовое превосходство, предложенное Джоном Прескиллом в 2012 году, заключалось в описании точки, в которой квантовые компьютеры могут делать то, что не могут классические компьютеры эта граница ещё не преодолена.

Alibaba


В Китае главным интернет-гигантом является Alibaba, а не Google. А в июле 2015 года они объединилась с Китайской Академией Наук, чтобы сформировать Лабораторию квантовых вычислений CAS Alibaba. Как пояснил профессор Цзянвэй Пан, их цель состоит в том, чтобы провести передовые исследования систем, которые кажутся наиболее многообещающими для реализации практических приложений квантовых вычислений, а также разрушить узкие места закона Мура и классических вычислений. Вы можете посетить сайт лаборатории здесь.

Как и IBM, Alibaba сделала экспериментальный квантовый компьютер доступным в Интернете. В частности, в марте 2018 года китайский гигант электронного бизнеса запустил своё сверхпроводящее облако квантовых вычислений, чтобы обеспечить доступ к 11-кубитному квантовому компьютеру. Он был разработан с Китайской Академией Наук и позволяет пользователям запускать квантовые программы и загружать результаты.

Microsoft


Как и следовало ожидать, Microsoft тоже заинтересована в квантовых вычислениях и работает с некоторыми ведущими учёными и университетами мира. С этой целью Microsoft создала несколько лабораторий Station Q, например лабораторию в Калифорнийском университете. В феврале 2019 года компания также анонсировала Microsoft Quantum Network, чтобы объединить вместе все партнёрские коалиции.

Ключевым элементом стратегии Microsoft является разработка квантовых компьютеров на основе топологических кубитов, которые, по мнению компании, будут менее подвержены ошибкам (следовательно, для исправления ошибок потребуется меньшее количество системных ресурсов). Microsoft также считает, что топологические кубиты будет легче масштабировать для коммерческого применения. Согласно статье в Computer Weekly за май 2018 года, вице-президент Microsoft, отвечающий за квантовые вычисления, считает, что коммерческие квантовые компьютеры могут появиться на их облачной платформе Azure всего через пять лет.

Что касается программного обеспечения, то в декабре 2017 года Microsoft выпустила предварительную версию своего инструмента разработчика вычислительной техники. Его можно загрузить бесплатно, он включает язык программирования под названием Q# и симулятор квантовых вычислений. В мае 2019 года Microsoft сообщила, что собирается открыть исходный код инструмента разработчика. А в мае 2020 года компания анонсировала свой сервис облачных вычислений Azure Quantum.

Intel


Intel, как ведущий производитель микропроцессоров в мире, тоже работает над созданием микросхем для квантовых вычислений. Компания применяет два различных подхода. Одно из этих направлений проводится совместно с ведущим голландским пионером квантовых вычислений QuTech. 17 ноября 2017 года Intel объявила о поставке своему партнеру в Нидерландах тестового чипа на 17 кубитов. Затем, в январе 2018 года на выставке CES, компания объявила о поставке тестового квантового процессора на 49 кубитов под названием Tangle Lake.

Второе направление исследований Intel в области квантовых вычислений проводится исключительно внутри компании и включает в себя создание процессоров на основе технологии, называемой спиновой кубит. Это важное нововведение, поскольку чипы спиновых кубитов производятся с использованием традиционных методов изготовления кремния Intel. В июне 2018 года Intel сообщила, что начала тестирование 26-спинового кубитного чипа.

image

Спиновые кубиты Intel имеют диаметр всего около 50 нанометров, или 1/1500 ширины человеческого волоса. Это означает, что, возможно, через десять лет Intel сможет производить крошечные квантовые процессоры, содержащие тысячи или миллионы кубитов. В отличие от обычных процессоров, их нужно охлаждать почти до абсолютного нуля. Но потенциал поистине захватывающий. Согласно разделу сайта Intel, посвященному квантовым вычислениям, компания нацелена на производство квантовых процессоров в течение десяти лет и ожидает, что технология начнет входить в свою коммерческую фазу примерно в 2025 году.

D-Wave Systems


D-Wave Systems пионер квантовых вычислений, базирующийся в Канаде, и ещё в 2007 году продемонстрировавший 16-кубитный квантовый компьютер. В 2011 году компания продала 128-кубитную машину D-Wave One за 10 миллионов долларов американской военно-промышленной корпорации Lockheed Martin. В 2013 году 512-кубитные D-Wave Two ведомству NASA и компании Google. К 2015 году D-Wave преодолела барьер в 1000 кубитов со своим D-Wave 2X, а в январе 2017 года продала свою первую 2000-кубитную машину D-Wave 2000Q фирме, специализирующейся в кибербезопасности, Temporal Defense Systems.

Читая этот список достижений, вы, возможно, пришли к выводу, что D-Wave должен быть ведущим производителем квантовых компьютеров в мире. В конце концов, это единственная компания, которая торгует такими машинами. Тем не менее, работа компании остаётся спорной. Это потому, что их оборудование основано на адиабатическом процессе, называемом квантовый отжиг, который другие пионеры отвергли как ограничительный и тупиковый. IBM, например, использует подход к квантовым вычислениям на основе затвора, который позволяет ей управлять кубитами аналогично тому, как транзистор управляет потоком электронов в обычном микропроцессоре. Но в системе D-Wave такого контроля нет.

Вместо этого квантовый компьютер D-Wave использует факт того, что все физические системы стремятся к состояниям с минимальной энергией. Так, например, если вы заварите чашку чая и отлучитесь по делам когда вы вернетесь, она будет холодной, потому что содержимое стремится к минимальному энергетическому состоянию. Кубиты в системе D-Wave также этому подвержены, и поэтому компания использует своё оборудование для решения проблем оптимизации, которые могут быть выражены как проблемы минимизации энергии. Это ограничивает в возможностях, но всё же позволяет аппаратному обеспечению выполнять определенные алгоритмы намного быстрее, чем классический компьютер. Вы можете ознакомиться с видео, в котором D-Wave объясняет свой подход к квантовым вычислениям.

В августе 2016 года в статье Physical Review X сообщалось, что некоторые алгоритмы работают до 100 миллионов раз быстрее на D-Wave 2X, чем на одноядерном классическом процессоре. Одним из авторов этого исследования оказался технический директор Google. Всё это говорит о том, что мнение о ценности работы D-Wave для развития квантовых вычислений остаётся спорным.

Компания продолжает продвигать свои квантовые компьютеры. В октябре 2018 года D-Wave запустила облачную квантовую среду приложений под названием Leap. Она обеспечивает доступ в реальном времени к квантовому компьютеру D-Wave 2000Q, а в марте 2019 года доступ был расширен, чтобы предоставить такую возможность Японии и всей Европе.

Rigetti



image

Ещё один игрок в области квантовых вычислений это стартап под названием Rigetti. В компании уже работает более 120 сотрудников, и они собрали 19-кубитный квантовый компьютер доступный онлайн через свою среду разработки под названием Forest.

Quantum Circuits


image

Другой стартап Quantum Circuits, основанный ведущим профессором квантовых вычислений Робертом Шёлкопфом и другими коллегами из Йельского университета. Компания привлекла 18 миллионов долларов венчурного капитала и планирует победить гигантов компьютерной индустрии в гонке за создание жизнеспособного квантового компьютера.

IonQ


IonQ специализируется в области квантовых вычислений с захваченными ионами. Компания утверждает, что её технология сочетает в себе непревзойденную физическую производительность, идеальную репликацию кубитов, возможность подключения к оптическим сетям и высокооптимизированные алгоритмы, чтобы создать квантовый компьютер, который является столь же масштабируемым, сколь и мощным и который будет поддерживать широкий спектр приложений в самых разных отраслях. Если вы хотите узнать больше о квантовых вычислениях, на сайте IonQ есть отличное учебное пособие.

Xanadu


Xanadu разрабатывает фотонные квантовые вычисления, интегрируя квантовые кремниевые фотонные чипы в существующее оборудование для создания полнофункциональных квантовых вычислений. Как отмечает компания, по сравнению с другими технологиями кубитов, фотоны очень стабильны и почти не подвержены влиянию случайного шума от тепла. Мы используем фотонные чипы для генерации, управления и измерения фотонов способами, обеспечивающими чрезвычайно быстрые вычисления.

Honeywell


image

Еще одна компания, которая применяет способ квантовых вычислений с захваченными ионами, является Honeywell. У компании огромный опыт в области бизнес-вычислений. В июне 2020 года Honeywell объявила о создании самого высокопроизводительного квантового компьютера в мире. Остальные компании отнеслись к этому скептически. Но, тем не менее, это ещё одна важная разработка особенно потому, что как стало известно, американский финансовый холдинг JPMorgan Chase уже экспериментирует со этой системой для разработки приложений финансовых услуг, включая обнаружение мошенничества и торговлю под управлением ИИ.

Amazon


Amazon не объявила о разработке аппаратного или программного обеспечения для квантовых вычислений. Однако, 2 декабря 2019 года гигант запустил ряд квантовых сервисов Amazon Web Services. К ним относится Amazon Bracket, который позволяет учёным, исследователям и разработчикам начинать эксперименты с квантовыми компьютерами от нескольких поставщиков оборудования. В частности, клиенты могут получить доступ к оборудованию от Rigetti, Ion-Q и D-Wave Systems, что означает, что они могут экспериментировать с системами, основанными на трёх различных технологиях кубитов.

Помимо Bracket, Amazon также запустила лабораторию Amazon Quantum Solutions Lab. Она предназначена, чтобы помочь компаниям подготовиться к квантовым вычислениям, позволяя им работать с ведущими экспертами. Таким образом, ключевая вещь, которую Amazon делает со своими предложениями по квантовым вычислениям, это действовать в качестве облачного брокера. То есть стать посредником между производителями квантовых компьютеров и теми, кто захочет воспользоваться их мощностями.

Разработчики программного обеспечения для квантовых компьютеров


Даже лучшее всего оборудованный квантовый компьютер не сможет использоваться без соответствующего программного обеспечения, и многие из производителей этих машин разрабатывают собственное. Тем не менее, количество стороннего ПО под квантовые компьютеры постоянно растет.

1QBit


1QBit сотрудничает с крупными компаниями и ведущими поставщиками оборудования для решения отраслевых задач в области оптимизации, моделирования и машинного обучения. Компания разрабатывает программное обеспечение как для классических, так и для квантовых процессоров.

CQC


Cambridge Quantum Computing разрабатывает ПО для квантовых компьютеров под решения самых интригующих задач в таких областях, как квантовая химия, квантовое машинное обучение и квантовая кибербезопасность. В число клиентов входят компании, входящие в некоторые из крупнейших в мире химических, энергетических, финансовых и материаловедческих организаций, которые пробуют использовать возможности квантовых вычислений.

QC Ware


QC Ware разрабатывает корпоративное программное обеспечение и услуги для квантовых вычислений с клиентами, включая Airbus, BMW и Goldman Sachs, и партнерами по оборудованию, включая AWS, D-Wave Systems, Google, IBM, Microsoft и Rigetti.

QSimulate


QSimulate разрабатывает ПО, чтобы использовать возможности количественного моделирования для решения насущных проблем в фармацевтической и химической областях.

Rahko


Rahko создаёт ПО, которое предназначено для использования квантового машинного обучения (квантового ИИ) под решения задач квантовой химии.

Zapata


Zapata работает со своими клиентами над разработкой ПО для квантовых компьютеров под решения сложных вычислительных задач в таких областях, как химия, финансы, логистика, фармацевтика, машиностроение и материалы.

Пользователи приложений квантовых компьютеров


Приложения для квантовых компьютеров включают молекулярное моделирование (также известное как квантовая химия), оптимизацию логистики, финансовое моделирование, криптографию и обучение искусственного интеллекта. Некоторые крупные предприятия уже активно изучают что именно квантовые машины смогут сделать для их исследований и разработок, продуктов и услуг, а также их чистой прибыли. Я приведу несколько примеров.

image

Daimler работает как с IBM, так и с Google, чтобы исследовать, как квантовые компьютеры могут использоваться в логистике, чтобы оптимизировать маршруты доставки автомобилей или поток запчастей через фабрики. Компания также изучает, как квантовые компьютеры можно использовать для моделирования химических структур и реакций внутри батарей, чтобы помочь в усовершенствовании электромобилей.

Другой автомобильный гигант Volkswagen работает с Google и с D-Wave Systems, чтобы применить квантовые компьютеры в решении проблем оптимизации транспортного потока и в разработке лучших аккумуляторов.

В финансовом секторе, JPMorgan работает с IBM, чтобы изучить, как квантовые компьютеры смогут помочь в разработке торговых стратегий, оптимизации портфеля, ценообразования на активы и анализа рисков. Другой финансовый конгломерат Barclays участвует в сети IBM Q Network, чтобы выяснить, можно ли использовать квантовые компьютеры для оптимизации расчётов по крупным пакетам финансовых транзакций.

В 2011 году аэрокосмический гигант Lockheed Martin стал первым покупателем квантового компьютера, произведенного D-Wave Systems, и продолжил изучение возможности использования этой технологии для приложений, включая управление воздушным движением и проверку системы. Airbus аналогичным образом исследует, как квантовые компьютеры могут ускорить его исследовательскую деятельность, и вложил средства в компанию QC Ware, производящую программное обеспечение для квантовых машин.

Тем временем Accenture Labs и биотехнологическая компания Biogen сотрудничают с 1QBit, исследуя, как можно ускорить открытие лекарств, применив квантовые компьютеры для молекулярных сравнений. В сентябре 2017 года IBM использовала своё 7-кубитное оборудование для моделирования структуры трёхатомной молекулы гидрида бериллия. В октябре 2017 года Google и Rigetti также анонсировали OpenFermion, программу для моделирования химических процессов на квантовом компьютере.

Квантовое будущее


image

Я надеюсь, что эта статья продемонстрировала вам, как квантовые вычисления довольно быстро превращаются из фантазий в реальность. Разумно предположить, что в 20-х годах из облака будут доступны квантовые суперкомпьютеры, которым найдут практичное применение и это будет стоить недорого. Вполне возможно, что через десять лет основные службы интернет-поиска и облачного ИИ будут использовать возможности квантовых машин, а большинство пользователей этого и не осознают.

Для тех, кто хочет узнать больше, приведу несколько избранных источников для получения дополнительной информации:


В книге Digital Genesis Кристофера Барнатта автора этой статьи и сайта explainingcomputers.com, вы сможете прочитать о квантовых вычислениях и многом другом, связанном с будущими вычислительными разработками, например органическими компьютерами.

image
Подробнее..

Обновление списка TOP500 впервые лидером стал суперкомпьютер на процессорах ARM

23.06.2020 20:12:31 | Автор: admin
Опубликована 55 редакция рейтинга самых высокопроизводительных суперкомпьютеров мира.
О новых лидерах списка и возможностях суперкомпьютеров экстра-класса читайте под катом.



Предыдущий лидер списка суперкомпьютер Summit (OLCF-4) Ок-Риджской национальной лаборатории стал вторым, уступив почетное первое место новой японской топ-системе Fugaku, которая показала результат High Performance Linpack (HPL) равный 415,5 петафлопс. Данный показатель превосходит возможности Summit в 2,8 раза. Fugaku оснащен 48-ядерным процессором A64FX SoC от Fujitsu, таким образом, японская разработка стала первой в истории системой 1 в списке ТOP500, оснащенной процессорами ARM. При одинарной или более низкой точности, которая часто используется для задач машинного обучения и искусственного интеллекта, пиковая производительность Fugaku составляет более 1000 петафлопс (1 экзафлопс). Новая система установлена в Центре вычислительных наук RIKEN (R-CCS) в Кобе, Япония.

Упомянутый выше Summit, суперкомпьютер, созданный IBM, показывает в тесте HPL производительность в 148,8 петафлопс. Система имеет 4356 узлов, каждый из которых оснащен двумя 22-ядерными процессорами Power9 и шестью графическими ускорителями NVIDIA Tesla V100. Узлы объединяет сеть InfiniBand EDR. Summit остается самым быстрым суперкомпьютером в США.

На третьем месте тоже оказался американец суперкомьютер Sierra Ливерморской национальной лаборатории им. Лоуренса (LLNL), Калифорния, показавший результат в 94,6 петафлопс. Его архитектура очень похожа на Summit: он оснащен двумя процессорами Power9 и четырьмя графическими ускорителями NVIDIA Tesla V100 в каждом из 4320 узлов. Sierra использует тот же InfiniBand Mellanox EDR, что и Sunway TaihuLight, суперкомпьютер, разработанный Китайским национальным исследовательским центром параллельной вычислительной техники и технологий (NRCPC). Он, к слову, опустился на четвертое место в списке. Система полностью основана на 260-ядерных процессорах Sunway SW26010. Его отметка HPL в 93 петафлопс осталась неизменной с момента его установки в Национальном суперкомпьютерном центре в Уси, Китай, в июне 2016 года.

На пятом месте также находится китайская разработка Tianhe-2A (Milky Way-2A), реализованная Китайским национальным университетом оборонных технологий (NUDT). Его производительность HPL 61,4 петафлопс является результатом гибридной архитектуры с использованием процессоров Intel Xeon и специально созданных сопроцессоров Matrix-2000. Он развернут в Национальном суперкомпьютерном центре в Гуанчжоу, Китай.

Новичок в списке, HPC5, занял шестое место, показав производительность HPL 35,5 петафлопс. HPC5 это система PowerEdge, созданная Dell и реализованная итальянской энергетической фирмой Eni S.p.A, что делает ее самым быстрым суперкомпьютером в Европе.

Еще одна новая система, Selene, находится на седьмом месте с показателем HPL 27,58 петафлопс. Selene установлена на NVIDIA в США.

Frontera, система Dell C6420, установленная в Техасском вычислительном центре (TACC) в США, занимает восьмое место в списке. Его 23,5 HPL петафлопс достигается с помощью 448,448 ядер Intel Xeon.

Второй итальянский суперкомпьютер в топ-10 Marconi-100, он установлен в исследовательском центре CINECA. Marconi-100 работает на процессорах IBM Power9 и графических ускорителях NVIDIA V100, его производительность равна 21,6 петафлопс, он занял девятое место в списке.
Завершает топ-10 с показателем 19,6 петафлопс система Cray XC50, установленная в Швейцарском национальном суперкомпьютерном центре (CSCS) в Лугано. Он оснащен процессорами Intel Xeon и графическими ускорителями NVIDIA P100.

Российская разработка суперкомпьютер Кристофари (Christofari) на базе Xeon Platinum, Nvidia DGX-2 и Tesla V100 набирает в тесте HPL 6,67 петафлопс, занимая пока лишь 36 место.





Результаты Green500


Самая энергоэффективная система в списке Green500 это MN-3, основанная на новом сервере от Preferred Networks. Суперкомпьютер достиг рекордного показателя в 21,1 гигафлопс /ватт при производительности 1,62 петафлопс. Система обладает превосходной энергоэффективностью благодаря чипу MN-Core, ускорителю, оптимизированному для матричной арифметики. Занимает 395 место в списке TOP500.

На втором месте новый суперкомпьютер NVIDIA Selene, DGX A100 SuperPOD, работающий на новых графических ускорителях A100. На третьем месте находится система NA-1, система PEZY Computing / Exascaler, установленная в NA Simulation в Японии. Суперкомпьютер достиг 18,4 гигафлопс / ватт и находится на позиции 470 в TOP500.

Основные тренды


  • Совокупная производительность списка теперь составляет 2,23 экзафлопс, по сравнению с показателем в 1,65 экзафлопс всего шесть месяцев назад. Львиная доля такого бурного роста является заслугой нового суперкомпьютера Fugaku, занявшего 1е место в списке.
  • Общее количество новых систем в списке составляет всего 51, что является антирекордом с самого начала создания списка TOP500 (с 1993 года).
  • Китай продолжает доминировать в TOP500 по количеству систем (226), США по количеству суперкомпьютеров в списке занимает втрое место (114), Япония- третье (30).;
  • В общей сложности 144 системы из списка используют ускорители или сопроцессоры. Как и раньше, большинство систем, используют графические ускорители NVIDIA.
  • X86 продолжает оставаться доминирующей архитектурой процессора, присутствуя в 481 из 500 систем. Intel используется на 469 из них, AMD установлен в 11, Hygon в оставшихся.
  • Китайские производители доминируют в списке: на Lenovo (180), Sugon (68) и Inspur (64) приходится 312 из 500 систем.
Подробнее..

Рокировка в стиле ORNL на арену лаборатории выходит суперкомпьютер мощностью 1,5 экзафлопс

23.12.2020 20:04:15 | Автор: admin
Источник

На территории Национальной лаборатории Ок-Ридж (ORNL) ведутся работы по монтажу американского суперкомпьютера Frontier. Мощность новой системы составит 1,5 экзафлопс. Проект будет частично введен в работу весной 2021 года. Затем суперкомпьютер достроят уже после того, как система начнет работу. Frontier разместят в бывшем центре обработки данных суперкомпьютера Titan, который вывели из эксплуатации год назад.

Систему Frontier разрабатывают в рамках сотрудничества AMD и Cray. Впервые об этом проекте стало известно в мае 2019 года. Сейчас ORNL говорит об успешном процессе модернизации помещений бывшего Titan.


Frontier поместят в помещение E102, его площадь >1800 кв.метров. Однако для новой системе понадобились модификации:

  • усиление конструкций из-за большой массы системы;
  • увеличение мощностей систем питания и охлаждения;
  • замена старого фальшпола.

Монтаж Frontier. Источник

Характеристики Frontier:

  • производительность 1,5 экзафлопс ;
  • энергопотребление 30 Мвт;
  • мощность отвода системы охлаждения 40 Мвт;
  • >100 стоек Cray Shasta;
  • масса нового фальшпола в комнате Е102 110 тонн;
  • 24-дюймовый трубопровод системы охлаждения. Через него проходит 19 тыс. литров жидкости в минуту.

Из-за пандемии в работе ORNL произошли некоторые изменения. Так, введено обязательное тестирование на коронавирус для всех сотрудников. Запуск суперкомпьютера в эксплуатацию перенесен на 2022 год.

Главная цель, которая стоит перед разработчиками Frontier, способствовать ускорению в развитии науки, технологий и искусственного интеллекта. Общая стоимость контракта на разработку системы $600 млн.

Год назад в лаборатории ORNL заявили, что Frontier в 50 раз производительнее любого современного суперкомпьютера. Предполагается, что Frontier улучшит и откроет новые возможности в машинном обучении и анализе данных для различных приложений.

Эволюция суперкомпьютеров ORNL. Источник

ORNL уже несколько лет развивает и запускает самые мощные суперкомпьютеры в мире, включая Jaguar, Titan и Summit. Их мощности используют для разных целей. Например, в мае 2020 года силы американских суперкомпьютеров направили на борьбу с коронавирусом. Они проводили важные для врачей вычисления, чтобы получить информацию о генетическом коде и молекулярной структуре вируса.

Прощание с Титаном


Источник

Полтора года назад в помещении, где сейчас монтируют Frontier, располагался суперкомпьютер Titan. Полное название системы Cray XK7 Titan. Суперкомпьютер занимал 200 серверных шкафов и имел гибридную инфраструктуру.

Его характеристики:

  • 700 Тбайт оперативной памяти;
  • 40 Пбайт дискового хранилища;
  • AMD Opteron 6274 16-ядерные процессоры ;
  • графические ускорители NVIDIA Tesla K20;
  • от 4 до 6 МВт уровень энергопотребления.

Национальная лаборатория Ок-Ридж (ORNL). Источник

На момент вывода из строя в августе 2019 года Titan занимал 12 место в списке самых мощных суперкомпьютеров мира.

Общая площадь помещений, отданных под Titan, составляла 836 кв. метров. Особых усилий потребовал демонтаж оборудования. В системах охлаждения Titan находилось 4,5 тонны хладагента R134a. На его слив ушло 3 дня.


Демонтаж проходил в три этапа:

  1. Отключение всех цепей. Блокировка контуров охлаждения в помещении.
  2. Отключение подпольной кабельной инфраструктуры.
  3. Снятие со шкафов теплообменников систем охлаждения.

Подробнее..

Проблемы методологии проектирования микропроцессорных систем

24.12.2020 16:21:15 | Автор: admin

Применяемая, в настоящее время, для проектирования СБИС, методология с использованием языков описания аппаратуры, обладает общепризнанными недостатками, а именно:

  • Разработка сложных СБИС требует сотни квалифицированных инженеров, несколько лет работы и затрат в миллиарды долларов.

  • До половины времени разработки, уходит на поиск и устранение ошибок в программной модели проектируемого микропроцессора.

  • Существенные трудозатраты требуются для достижения высоких характеристик по площади, производительности, энергетической эффективности.

Отечественные и зарубежные идеи, решения проблем проектирования СБИС, лежат в рамках общепринятой парадигмы, применения языков программирования для описания проектируемой аппаратуры. Все эти решения используются в реализуемых, в настоящее время, программах DARPA.

Программы DARPA

В рамках программы Electronics Resurgence Initiative, объявленной DARPA, поставлена задача преодолеть проблемы применяемой методологии проектирования микропроцессорных систем. С этой целью реализуется следующие подпрограммы:

  • CRAFT предполагает создание средств высокоуровневого синтеза СБИС;

  • IDEA направлена на создание автоматического генератора компоновки SoC, многокристальных микросхем, печатных плат;

  • POSH нацелена на создание жизнеспособной экосистемы проектирования аппаратуры и верификации, с открытым исходным кодом, которая позволит экономически эффективно проектировать ультра-сложные SoC.

В случае успешного выполнения указанных программ полученные результаты должны быть объединены в перспективных САПР. Предполагается достичь 10 кратного роста в скорости разработки над ручным созданием RTL кода. Кроме того, ставится цель принципиально изменить практику разработки микропроцессорных устройств. Итоговая цель преобразования инженерной практики описана так:

  • Разработка СБИС становится частью инструментария разработчика программного обеспечения.

  • Каждая компания разработчик ПО, получает возможность разрабатывать СБИС.

Описывая ситуацию в отрасли разработки микропроцессорных систем, DARPA говорит о следующих проблемах (на основе Electronics Resurgence Initiative Page 3 Investments Design Thrust). Интеллектуальные системы следующего поколения, в областях искусственного интеллекта, автономных транспортных средств, связи, радиоэлектронной борьбы и радиолокации, потребуют на порядок большей эффективности обработки, чем та, которую предлагает современная коммерческая электроника. Достижение требуемых уровней производительности, потребует разработки очень сложных платформ SoC, использующих самые передовые технологии интегральных схем. В последние годы сложность микросхем быстро росла, произошел взрыв затрат и времени, необходимых для разработки усовершенствованных SoC, печатных плат и многокристальных сборок (SiP). Предлагаемая инициатива создаст новые парадигмы для интеллектуального физического проектирования и уменьшит барьеры для проектирования высокопроизводительных, высокоэффективных специализированных интегральных схем.

Исследовательский подход в программе CRAFT (из доклада Khailany Brucek CRAFT Final на ERI Summit 2019):

  1. Поднять уровень абстракции при разработке аппаратуры:

    a. Использовать языки более высокого уровня, например, C ++ вместо Verilog;

    b. Использовать инструменты высокоуровневого синтеза;

    c. Использовать библиотеки и генераторы, например, MatchLib.

  2. Применение методологии AGILE в разработке СБИС:

    a. Небольшие команды, совместно работая над архитектурой, реализацией, VLSI (Very Large Scale Integration);

    b. Непрерывная интеграция и средства автоматической верификации;

    c. AGILE методы управления проектами;

    d. Круглосуточная генерация из С++ в схему.

Предложен высоко продуктивный подход к разработке цифровых СБИС для создания сложных SoC. Маршрут проектирования включает средства высокоуровневого синтеза, объектно-ориентированные библиотеки синтезируемых компонентов на языках SystemC и С++. И модульный подход к физическому проектированию СБИС основанный на мелкозернистом глобально асинхронном и локально синхронном (GALS) тактировании. Методология проектирования была продемонстрирована на 16-нм тестовом чипе FinFET, предназначенном для машинного обучения и компьютерного зрения. (A Modular Digital VLSI Flow for High-Productivity SoC Design, Khailany et al., DAC 2018)

Spoiler

Рисунок 1. Вариант маршрута проектирования предложенный для программы CRAFT [1].

Программа IDEA состоит из двух этапов. На первом этапе будет создан генератор макетов, для создания автоматизированной платформы проектирования печатных плат, SoC и SiP. На втором этапе должна быть создана программная система, которая на основе функционального описание высокого уровня и заданных ограничений, будет создавать печатные платы и микросхемы правильной конструкции на основе обширной библиотеки коммерческих компонентов (COTS). Примеры компонентов COTS включают в себя коммерчески доступные микросхемы для печатных плат, кристаллы для SiP и IP-модули для SoC. Созданный список цепей, будет поступать на вход генератора макетов, разработанного в первой части программы. Таким образом будет создана сквозная автоматизированная платформа проектирования для печатных плат, SoC и SiP.

Spoiler

Рисунок 2. Схема применение искусственного интеллекта для решения задачи проектирования СБИС, по замыслу программы IDEA [5].

При этом признаётся, что для достижения поставленных, программой IDEA, целей потребуется прорыв в алгоритмах машинного обучения и оптимизации. Предполагаемый вид маршрута проектирования программы IDEA показан на рисунке 3.

Spoiler

Рисунок 3. Концепция маршрута проектирования программы IDEA [5].

В программе POSH предлагается использовать практику разработки ПО с открытым кодом, в области разработки микропроцессорных систем. В документах DARPA говорится следующее. Появление экосистемы программного обеспечения с открытым исходным кодом позволило создать глубокую иерархию программного обеспечения со многими уровнями абстракции, что значительно повысило производительность в проектах разработки сложных программных систем. Модель абстрагирования программного обеспечения позволяет программисту сосредоточить свои усилия в одной конкретной области, игнорируя при этом большое количество деталей, которые в противном случае были бы слишком сложными для обработки. Чтобы создать устойчивую экосистему разработки аппаратуры с открытым исходным кодом, программа POSH создаст технологии, методы и стандарты для эффективной разработки SoC с открытым исходным кодом. Предполагается, что критически важным компонентом этих усилий станет разработка технологий проверки, обеспечивающих доверие к строительным блокам (IP блокам) аппаратного обеспечения с открытым исходным кодом.

Одной из причин, по которой не удалось реализовать открытую и совместную экосистему SoC, является высокая стоимость аппаратных сбоев. Аппаратная ошибка, обнаруженная в изготовленном оборудовании, может обойтись коммерческим компаниям в миллионы или миллиарды долларов в виде отзывов и потерянного дохода. Это отличается от индустрии программного обеспечения, где ошибка часто может быть исправлена на месте с помощью недорогого обновления программного обеспечения. Для создания открытой аппаратной экосистемы существует потребность в рентабельной технологии валидации, подходящей для совместных разработок с открытым исходным кодом.

В рамках обширной экосистемы компонентов с открытым исходным кодом неизвестного качества, существует потребность в технологии, которая могла бы объективно оценить и эффективно дифференцировать высококачественные и низкокачественные блоки IP до включения в проекты SoC. Для широкого распространения также важно, чтобы технология обеспечения доверия на этом уровне требовала от пользователя минимальных (или нулевых) инженерных усилий. Технология формальной гарантии, которая позволяет проводить прямой анализ самого исходного кода, может обеспечить точную оценку качества и помочь стимулировать принятие, более рискованных, компонентов с открытым исходным кодом.

Spoiler

Рисунок 4. Экосистема с открытым исходным кодом для разработки SoC по замыслу программы POSH [4].

Программа POSH предполагает создание необходимых компонентов экосистемы для широкого использования в разработке SoC, блоков с открытым исходным кодом. Главными компонентами экосистемы являются программные средства, обеспечивающие моделирование, верификацию, валидацию, отладку отдельных IP блоков и собранных на их основе SoC.

При этом не ожидается полное устранение ошибок: Качество платформы моделирования по своей природе ограничено качеством используемых моделей системы и векторов испытаний, и вполне вероятно, что ряд критических ошибок будет пропущен.

Промежуточные результаты программ, представленные на ERI Summit 2019, подтверждают возможность достижения заявленной цели.

В частности, в рамках программы CRAFT показаны следующие результаты:

  • Снижение трудоёмкости в 8-11 раз для аналоговых и цифровых интегральных схем.

  • Сокращение трудоёмкости в 4.3-5.3 раза при переносе на технологию 16-нм GF, продемонстрированное на цифровых и цифро-аналоговых ASIC.

Однако существует ряд проблем:

  • При обсуждении программы POSH признаётся, что абсолютно безошибочное проектирование невозможно: Качество платформы моделирования, по своей природе, ограничено качеством используемых моделей системы и векторов испытаний, и вполне вероятно, что ряд критических ошибок будет пропущен.

  • Так же отмечается, что для достижения поставленных, программой IDEA, целей потребуется прорыв в алгоритмах машинного обучения и оптимизации. Для чего создаваемая платформа должна использовать прикладные методы машинного обучения для непрерывного развития, по мере появления новых наборов данных (примеров проектирования).

  • Сама постановка задач для указанных программ, нацеливает создаваемые средства проектирования на разработку специализированных интегральных схем (ASIC), то есть не универсальных СБИС, эффективно исполняющих ограниченный набор алгоритмов. Промежуточные результаты также демонстрируются на опытной разработке специализированных СБИС. То есть, в настоящее время не доказано, что полученные показатели роста производительности проектирования, будут подтверждены в реальной инженерной практике, при разработке перспективных ультра-сложных СБИС широкого спектра применений.

  • Кроме того, увеличение уровня абстракции на котором человек описывает проектные решения, создаёт предпосылки для снижение качества проекта по транзисторному бюджету, потребляемой мощности, быстродействию. И в настоящее время нет оснований утверждать, что предлагаемые решения обеспечат незначительное снижение качества, по сравнению с ручным проектированием.

Обратим внимание на методы повышения производительности проектирования, используемые в программах DARPA:

  • При разработке аппаратуры поднять уровень абстракции на котором человек описывает проектируемую систему. Все ниже лежащие уровни абстракции передать автоматическим средствам.

  • Минимизировать участие человека в решении задачи проектирования, за счёт применения средств искусственного интеллекта.

  • Создать условия для повторного использования качественных строительных блоков аппаратного обеспечения.

Парадигма проектирования остаётся прежней использование языков программирования для описания проектируемой аппаратуры.

Описанные программы опираются на базу существующих решений, готовые к использованию компоненты COTS, IP блоки, программные средства с открытым исходным кодом. Однако, опираясь только на готовые компоненты невозможно достичь высшей производительности или минимального энергопотребления. Разработка новых архитектур, максимально сложных SoC и SiP с использованием новых технологий производства, для этих задач остаётся всё та же методология проектирования, которая критикуется в программах DARPA.

Достижение предельных параметров проектируемых микропроцессорных систем, ещё долго будет оставаться важнейшей задачей отрасли вычислительной техники. Как показательный пример, можно посмотреть на начинающую своё развитие отрасль робототехники.

В декабре 2019 года компания NVIDIA представила перспективную платформу для самоуправляемых автомашин и роботов [6]. Анонсированный процессор NVIDIA Orin появится не ранее 2022 год. Для обеспечения пятого уровня автономности самоуправляемого автомобиля, потребуется сочетать пару процессоров Orin и два не названных, перспективных, дискретных графических процессора NVIDIA [32]. Уровень быстродействия в этом случае составит до 2000 триллионов операций в секунду, при энергопотреблении до 750 Вт.

Очевидно, что для перспективных роботов, которые должны не просто перемещаться в пространстве, но и совершать полезную работу, необходима ещё большая производительность, при существенно меньшем потреблении энергии.

Другим примером могут служить современные программы создания суперкомпьютеров максимальной производительности, которые реализуют Евросоюз, США, Китай, Япония и другие страны. Эти программы, в частности, реализуемые DARPA и DOE, фокусируются на решении следующих задач [25]:

  • Существенный рост производительности при умеренном энергопотреблении;

  • Повышение надежности аппаратуры и программ;

  • Рост продуктивности программирования.

Увеличение реальной производительности на разных типах задач требует создания принципиально новых SoC и SiP с использованием передовых архитектур и технологий производства, не основанных на ранее использовавшихся решениях.

Например, суперкомпьютер Neocortex, создаётся для задач классов DCIGN и RNN это более точное прогнозирование погоды, анализ геномов, поиск новых материалов и разработка новых лекарств. Предположительно, будет введено в эксплуатацию до конца 2020 года [37]. Он объединяет серверы Cerebras CS-1 и HPE SuperDome Flex в единую систему с общей памятью. Сервер Cerebras CS-1 основан на уникальном процессоре Cerebras. На изготовление одного процессора уходит целая 300-мм пластина [2].

Основой для роста сложности микропроцессорных систем, в ближайшем будущем, станет развитие технологии 3D TSV. Например, концепция, предложенная IBM [16], к настоящему моменту, изготовление микроканалов продемонстрировано в кремнии [22].

Spoiler

Рисунок 5. Концепция построения перспективных микропроцессорных систем предложенная IBM [16].

Краткая характеристика современной методологии, ключевые проблемы

К настоящему времени в проектировании сложных микропроцессорных систем сложилась практика, представленная на рисунке 6, в изложении Brucek Khailany (Director of research, ASIC & VLSI NVIDIA Corporation).

Spoiler

Рисунок 6. Использование языков программирования в проектировании СБИС [1].

В процессе проектирования используются различные языки программирования, как специализированные, в частности языки описания аппаратуры (HDL), так и языки высокого уровня общего назначения.

Создаваемое изделие описывается в виде программы на языке описания аппаратуры (HDL). Созданная программа, обычно, представляет собой модель уровня регистровых передач (RTL), которая должна быть преобразована в логическую схему посредством автоматического синтеза (Logic Synthesis). Далее созданную схему необходимо превратить в описание физического изделия. Для чего выполняется последовательность этапов проектирования, которую принято называть физическое проектирование (physical design).

Упрощённая схема маршрута проектирования СБИС, с выделением этапов физического проектирования, представлена на рис. 7.

Spoiler

Рисунок 7. Типовой маршрут проектирования с выделением этапов физического проектирования СБИС [23].

Здесь важно отметить, что инженерная задача разработки вычислительной системы (SiP) разделена на две задачи с разным понятийным аппаратом. Для логического проектирования - математический понятийный аппарат, а для физического проектирования - понятийный аппарат описывающий физические процессы.

Логическое проектирование оперирует абстрактными понятиями и может выполняться без учёта физических особенностей технологии производства. В частности, архитектура может определяться свойствами целевых алгоритмов и языков программирования, а вычислитель быть представлен лишь в виде математической абстракции, т.е. модели вычислений. Однако практика проектирования показывает, что такой подход приводит к низким характеристикам реальных изделий. То есть учёт технологических ограничений необходим уже на этапе разработки архитектуры вычислительной системы.

На этапе физического проектирования, для решения задачи, не требуются понятия выше лежащих уровней абстракции, т.е. понятия, используемые на этапе логического проектирования. Поступившая на вход схема и требования физической спецификации определяют задачу на этапе физического проектирования. В то же время, результаты физического проектирования могут быть основанием для внесения изменений в схему или архитектуру, если не удалось достигнуть заданных параметров изделия.

Взаимосвязи понятий отрасли, в виде распространения задаваемых ограничений, на возможные варианты инженерных решений, показаны на рис. 8.

Spoiler

Рисунок 8. Распространение ограничений на варианты реализации, между понятийными компонентами отрасли вычислительной техники.

Практика разработки сложных микропроцессорных систем, в том числе обладающих передовыми характеристиками для своего времени, показывает, что применяемая методология обладает существенными недостатками.

Трудоёмкость проектирования, например, для NVIDIA Xavier оценивается в 8000 человеко-лет [1].

По слова Jensen Huang, на создание NVIDIA V100 потребовалось несколько тысяч инженеров, ушло несколько лет, при примерной стоимости разработки в 3 миллиарда долларов [7].

При этом качество автоматического синтеза остается невысоким, а количество ошибок растет, опережая рост сложности проектируемых систем. На рис. 9 показана одна из оценок сложности верификации, в стоимостном выражении.

Таким образом трудоёмкость и количество ошибок в программной модели изделия создают порог сложности, который станет непреодолимым препятствием для роста сложности разрабатываемых систем.

Spoiler

Рисунок 9. Стоимость разработки СБИС в зависимости от их сложности [7].

Следует отметить, что современная методология проектирования сложилась и развивалась на основе инструментов и их возможностей, а человек должен был подстраиваться под предлагаемые ему условия работы. И на современном этапе ситуация не изменилась. Предлагаемые в программах DARPA решения опираются на прогресс в инструментах, то есть методологии программирования, прикладной математике и развитии систем искусственного интеллекта. А человек, будет вынужден адаптироваться к новым условиям труда, которые будут навязывать новые средства проектирования.

Мышление человека в инженерной практике

Изложенный выше подход к созданию методологии проектирования принято называть инструментальным. То есть методология строится на возможностях инструментов, к работе с которыми человек должен адаптироваться. Возможен и противоположный инструментальному подход к созданию методологии проектирования [30].

Предполагая, что человек будет решать задачу проектирования, создание методологии возможно с опорой на современные знания, накопленные науками о человеке. То есть сама методология и её инструментарий создаются на основе знаний о том, как человек решает конкретную задачу.

Необходимо отметить, что в настоящее время, общепризнанная теория личности, а значит и мышления человека, не создана. Однако, накоплен большой научно-практический материал, позволяющий выделить психологические требования к методологии проектирования.

На основе современных знаний о психологии мышления, можно построить следующую картину решения человеком инженерных задач.

Любая задача проектирования предполагает поиск решения (достижения требуемых характеристик) средствами доступной, в данной момент, технологии производства. Процесс решение задачи проектирования представляет собой некоторую последовательность этапов со всё более точным описанием создаваемого изделия.

Для каждой отрасли техники (технической системы) исторически сложилась своя последовательность этапов проектирования, т.е. уровней абстракции на каждом из которых рассматривается некоторая часть задачи проектирования. На каждом уровне абстракции (этапе разработки) используется специфичный набор понятий, описывающий решаемую на данном этапе проблему и её решение.

Понятийный аппарат технической отрасли, также, как и декомпозиция задачи, т.е. количество уровней абстракции и содержание решаемой на каждом уровне задачи, обусловлены физической природой создаваемых изделий.

Обучение инженерному делу (решению инженерных задач), в рамках конкретной отрасли техники, требует освоение понятийного аппарата и физической основы этой отрасли. То есть человек учится создавать конкретные технические изделия в контексте конкретных физических явлений и понятийного аппарата, описывающего процессы и взаимосвязи данной технической отрасли.

Методология проектирования и реализующий её инструментарий, определяют порядок проектирования (последовательность этапов) и набор понятий в которых описывается задача и её решение. Таким образом, методология навязывает инженеру способ решения задачи проектирования, набор понятий, форму их представления, а, в итоге, и определённый стиль мышления. Однако, чрезмерный отрыв от иерархии абстракций и понятийного аппарата отрасли (замена или исключение понятий и уровней абстракции) может привести к потере качества решения и провоцирует человека совершать ошибки.

Происходит это в силу особенности работы человеческой психики в процессе решения инженерных задач.

Мозг (память и мышление) оперирует комплексами, объединяющими все известные субъекту знания о некотором объекте и его ассоциативные связи с другими объектами [20]. То есть визуальное и вербальное представление понятий взаимосвязаны. Но восприятие вербальных и визуальных объектов имеют разные физиологические механизмы и объединяются только на уровне высших психических процессов.

Установлено, что в силу личных особенностей мышления, некоторые люди легче оперируют вербальными понятиями, а другие визуальными [33].

Изучение человека в процессе трудовой деятельности привело к выделению в психологии отраслей инженерной психологии и психологии труда. Также, с развитием вычислительной техники, сформировалась область психология программирования [34].

В частности, в рамках психологии программирования, установлено, что профессиональные программисты обладают, отличными от представителей других профессий, особенностями мышления. В том числе, развитыми вербальными способностями. То есть быстрее и с меньшей умственной нагрузкой осваивают новые языки, в том числе искусственные, и работают с текстами [17, 27].

Длительная профессиональная деятельность может приводить к психологической профессиональной деформации личности, которая выражается, в частности, в формировании стереотипного мышления о проблематике отрасли и методах работы, используемых при решении задач отрасли [15].

Ошибка - неизбежный результат деятельности человека. Вероятность совершения ошибки определяется многими факторами среди которых сам человек, его физическое и психоэмоциональное состояние, уровень знаний и навыков, а также факторы условий, в которых совершается деятельность [30].

Любая работа ума создаёт умственную нагрузку, которая постепенно утомляет нервную систему, что снижает концентрацию и повышает вероятность ошибки. Умственная нагрузка, при решении одной и той же задачи, может различаться в зависимости от условий в которых человек должен эту задачу решать. Например, слепая игра в шахматы (не глядя на доску) или решение ханойской головоломки в уме (без физического перемещения дисков) создают большую умственную нагрузку, чем те же задачи находящиеся в поле зрения [10, 12].

Мышление в процессе решения задачи проектирования представляет собой последовательность интеллектуальных действий.

Анализ условий задачи, поиск и описание решений, их качественное сравнение и выбор наилучшего, анализ решения с целью улучшение его качества и устранения ошибок, внесение изменений.

Все эти действия есть работа с информацией восприятие и создание информации в предложенных методологией условиях. Методология устанавливает формы представления информации, а именно понятийного аппарата, и формы описания решения задачи проектирования. А условия восприятия и создания информации определяются инструментарием, предложенным человеку для работы.

Восприятие информации предполагает установление соответствия между формами представления информации (установлены методологией) и известным человеку понятийным аппаратом отрасли. Тогда возникает понимание условий задачи и выполняется поиск решения.

Поиск решения выполнятся с помощью предложенных методологией инструментов, в виде последовательного описания частного решения (решения задачи на данном уровне абстракции).

Решение формируется как последовательное описание взаимодействия компонентов присущих данной отрасли техники. То есть, решение задачи является протяжённым во времени процессом в течении которого создаётся описание решения.

Именно в этом процессе и происходит создание информации, когда понятия отрасли, в которых человек мыслит о задаче, преобразуются в описание решения, в установленной методологией форме.

Таким образом, в процессе решения задачи проектирования, восприятие и создание информации повторяются многократно. Что требует от человека преобразования понятий отрасли, в которых он мыслит о задаче, в установленные методологией формы представления информации и обратно.

Все эти интеллектуальные действия создают умственную нагрузку, уровень которой зависит от личных особенностей и условий в которых выполняется интеллектуальная работа.

Основной уровень умственной нагрузки, в процессе решения инженерной задачи определяется простотой восприятия и создания информации, поскольку эти интеллектуальные действия чаще всего выполняются в процессе решения инженерной задачи.

Дополнительная умственная нагрузка определяется особенностями методологии и реализующих её инструментов (т.е. САПР и др.). Например, необходимость учитывать, в процессе проектирования, понятия отрасли, которые в методологии отсутствуют, создаёт дополнительную умственную нагрузку и повышает вероятность ошибок.

Связь между формой представления понятий и скоростью восприятия понятий (условий задачи), установлена экспериментально. Следствием этого стало введение терминов образный интерфейс, когнитивная графика, экологический интерфейс. Создание таких интерфейсов внедрено в инженерной практике, прежде всего в операторской работе по управлению сложными промышленными объектами [29].

В некоторых отраслях исторически сложилось и внедрено в САПР введение процесса решения в поле зрения, что упрощает восприятие понятий (т.е. процессов и взаимосвязей) и поиск решения.

В качестве примера можно привести отрасль авиастроения. Для примера рассмотрим, выполненный не профессионалом, проект тяжёлого конвертоплана созданный в САПР T-FLEX CAD 16 (см. рис. 10). Проект состоящий из более чем 60000 тел был создан одним инженером, исключительно на основе информации из открытых источников и собственного опыта проектирования. На исследование предметной области ушло около 2-х месяцев и ещё примерно 6 месяцев периодической работы на реальное проектирование [31].

Spoiler

Рисунок 10. Проект летательного аппарата в САПР T-FLEX CAD 16.

Высокая производительность проектирования, в данном случае, может быть объяснена, с психологической точки зрения, следующим.

Описание решения ведётся в визуальной среде, где объекты прямо соответствуют понятиям в которых человек мыслит о задаче. Взаимодействие объектов также легко воспринимается и прямо соответствует физическим процессам отрасли. Промежуточные этапы описания и конечное решение доступны для многократного анализа на предмет улучшения и выявления ошибок. Используемые в проектировании САПР и другие программные средства позволяют наблюдать поведение проектируемых систем и физические процессы (см. рис. 11).

Spoiler

Рисунок 11. Визуализация обтекания модели самолёта в виртуальной аэродинамической трубе.

Все это существенно снижает умственную нагрузку, упрощая восприятие и понимание задачи, а также процесс описания решения. Как следствие повышается производительность проектирования, снижается количество допущенных ошибок и упрощается их выявление.

В проектировании СБИС точным решением является описание физической структуры изделия, которая будет создана в процессе изготовления СБИС.

В отличии от приведённого примера отрасли авиастроения, отрасль вычислительной техники, имеет существенно иные физические основания и сложно организованную структуру понятийного аппарата (см. рис. 8), который носит более абстрактный характер.

Источники проблем методологии проектирования

Анализ методологии на предмет поиска источников проблем проведён с точки зрения условий, создаваемых методологией, для работы мышления человека.

Конфликт формы представления понятий

Используемая методология проектирования требует от разработчика представить физическое изделие в форме программы. На всех этапах разработки создаваемое изделие описывается средствами языков программирования, то есть алгоритмическими понятиями, в форме программ (см. рис. 6).

Человек мыслит о задаче в пространстве понятий отрасли, которые имеют определённую форму представления, обычно сложившуюся исторически. Но при использовании этих понятий в описании изделия их необходимо представить в форме установленной методологией.

Требуется всё многообразие не алгоритмических понятий отрасли, представить их алгоритмическим выражением (средствами используемых языков программирования). В то время, как разработка вычислительных систем и СБИС не тождественна программированию, на уровне понятийного аппарата. Понятийный аппарат программирования лишь подмножество понятийного аппарата отрасли вычислительной техники.

Такая ситуация создаёт конфликт формы представления понятий, а значит и дополнительную умственную нагрузку.

На практике установлено, что текст, далеко не всегда, лучшая форма представления понятий, в том числе алгоритмических. Примером могут служить медицинские алгоритмы. Практика показала, что их текстовое описание не лучший способ представления, потому, в настоящее время, используются схемы алгоритмов, в частности визуальный язык ДРАКОН [21].

Разрыв целостности маршрута и понятийного аппарата

Применение языков программирования и средств автоматического синтеза заменяют человека на этапе схемотехнического проектирования. Исходной информацией для логического синтеза является HDL описание алгоритмов функционирования разрабатываемой системы. Процедура синтеза должна найти соответствие между конструкциями HDL описания и элементами имеющихся библиотек аппаратных компонентов. Данная задача имеет множество решений, при этом, выбор оптимального варианта необходимо осуществлять по нескольким критериям одновременно.

Применительно к существующей технологии производства СБИС выделяют следующие проблемы логического синтеза [23]:

  • Задержка на межсоединениях становится доминирующей, что требует совмещения этапов sizing/physical/logic synthesis. Логический синтез без учета реализации схемы в кремнии неэффективен.

  • Изготовление транзисторов усложняется, что делает критическим методы проверки, рассеиваемая мощность становится определяющим фактором.

Многие задачи физического проектирования NP-трудны решаются при помощи эвристик, которые, обычно, находят почти оптимальные решения [24]. Необходимо заметить, что при использовании эвристик, важным является наличие на выходе фильтра здравого смысла оценки результата человеком. Без развитых средств визуализации, эффективный контроль качества синтеза человеком не возможен.

Для решения этой проблемы, в программе IDEA, предлагается использовать, на этапе логического синтеза и физического проектирования СБИС, обученные модели искусственного интеллекта (см. рис. 2). При этом результаты должны контролироваться человеком (см. рис. 3).

Любой из HDL является, прежде всего, языком программирования и, как следствие, инструментом более высокого уровня абстракции, чем понятийный аппарат этапа схемотехнического проектирования. Кроме того, языки программирования применяются на всех этапах проектирования, как средство описания решения (см. рис. 6). Тем самым подталкивая человека мыслить лишь об алгоритмах.

Ранее основным средством решения задачи на этапе схемотехнического проектирования являлось схемное проектирование. Не только как способ описания решения, но как метод мышления в понятиях этапа схемотехнического проектирования.

В рамках применяемой методологии логический синтез и схемотехническое проектирования становятся частью этапа физического проектирования СБИС. Понятийный аппарат этапа схемотехнического проектирования вытесняется на этап физического проектирования, а на ранних этапах разработки человек мыслит на уровне алгоритмов. Как следствие, навыки схемотехнического проектирования становятся частью этапа физического проектирования СБИС.

Это нарушает целостность маршрута проектирования, как последовательности шагов, уточняющих решения задачи проектирования, затрудняя учёт технологических ограничений на ранних этапах разработки. Поскольку, учёт технологических ограничений необходим уже на этапе разработки архитектуры, иначе может оказаться, что выбранная модель вычислений или выбранные архитектурные решения (алгоритмы функционирования, пути команд и данных, особенности внутреннего языка), не могут быть эффективно реализованы на имеющейся технологии производства.

Разрыв маршрута проектирования (последовательного уточнения решения) выражается, в том числе, в трудностях понимания между разными специалистами. Люди, выполняющие решение задачи на разных её этапах, разделены на уровне навыков, то есть им труднее понять друг друга, в силу владения разным понятийным аппаратом.

Требования к личным навыкам

В силу применения языков программирования для описания создаваемого устройства, основная форма представления информации, с которой работает человек тексты на искусственных языках (см. рис. 12).

Spoiler

Рисунок 12. Описание двухвходового мультиплексора на языке SystemVerilog [13].

Как следствие, основная часть умственно работы, т.е. восприятие и создание информации, связанна с восприятием и созданием текстов на искусственных языках (текстов программ).

Работа с текстом с минимальной умственной нагрузкой требует развитых вербальных навыков, которые формируются далеко не у всех взрослых людей [33].

Для формирования развитых вербальных навыков (навыков работы с текстами), необходимо соответствующее обучение. Установлено, что такие навыки формируются у профессиональных программистов [17, 27]. Но далеко не у всех людей, прошедших профессиональное обучение по специальностям программная инженерия (software engineer) или прикладная математика.

Применяемая методология требует, чтобы разработчики микропроцессорных систем обладали навыками программистов. Фактически методология превращает разработку СБИС в программирование. Однако, микропроцессорная система является физическим объектом, создание которого требует существенно больших знаний, чем приобретают программисты в процессе обучения. В разработке сложных микропроцессорных систем должны принимать участие инженеры разной специализации, то есть люди с разными знаниями и навыками. И далеко не все из них будут обладать развитыми вербальными навыками. А значит, при работе с текстами, они будут неизбежно испытывать повышенную умственную нагрузку и допускать большое количество ошибок.

Вывод

Все выше описанные особенности методологии с применением HDL, ставят человека в такие условия труда, что в процессе решения инженерной задачи существенно повышается вероятность ошибки. Кроме того, создаётся повышенная умственная нагрузка, ведущая к увеличению трудоёмкости инженерной задачи. А значит растёт требуемое количество инженеров и времени на решение задачи. Тем более при необходимости достижения предельных параметров разрабатываемого изделия.

Проблема и предлагаемое решение

Ключевую проблему применяемой методологии можно описать так - высокая трудоёмкость решения инженерной задачи при большом количестве ошибок допускаемых при описании решения.

Известно лишь два подхода к построению методологии проектирования инструментальный и человеко-ориентированный (антропоцентрический).

Первый лежит в основе программ реализуемых, в настоящее время, DARPA. Сомнения вызывает сам принцип решения проблемы - исключить человека из процесса проектирования.

Во-первых, инженерное дело изменчиво, как по условиям задачи, так и по способам её решения. Например, в процессе развития технологий полупроводникового производства изменились характеристики технологии производства СБИС (соотношение задержек на вентилях и проводниках, существенно снизились размеры транзисторов и уровень рассеиваемой мощности), что изменило способы решения задачи проектирования. И в ближайшем будущем, технология производства микропроцессорных систем, неизбежно, претерпит существенные изменения.

Во-вторых, прогресс ИИ (машинного и глубокого обучения) достигнут в условиях постоянного контекста задачи, т.е. компоненты задачи и критерии качества решения со временем не меняются. Но в инженерном деле, в частности в проектировании СБИС контекст задачи изменчив. При том, что качество решения задачи проектирования СБИС оценивается по нескольким критериям, и в разных областях применения СБИС значимость критериев различна. И кроме того, для обучения ИИ требуется большое количество примеров, но в области проектирования СБИС таких примеров может оказаться недостаточно.

В связи с этим, некоторые успехи в достижении поставленных в программах DARPA целей, не дают гарантии дальнейшего роста производительности проектирования на основе предлагаемой парадигмы. Прежде всего, применительно к микропроцессорным системам (SoC & SiP) предельных параметров.

Второй подход для создания методологии проектирования, в отрасли вычислительной техники, ранее не применялся.

Однако, инженерная практики в других отраслях техники и личный опыт автора говорят о том, что человеко-ориентированный подход может дать хороший результат в повышении производительности труда при решении инженерных задач.

Автор предлагаемого проекта, наблюдал на практике эффективность схемного проектирования при разработке микроархитектуры микропроцессора. В рамках проекта суперкомпьютера Ангара, под руководством Эйсымонта Л.К., автор участвовал в разработке микропроцессора с массовым параллелизмом, где применялся метод схемного проектирования. Разработка микроархитектуры выполнялась одним человеком, обладавшим большим опытом схемотехнического проектирования. Применение схемного проектирования показало существенно меньшее количество ошибок, допускаемых человеком, при разработке микроархитектуры и схемотехнической реализации функций блоков. При этом, описание уже готовых схем, на языке Verilog, приводило к появлению ошибок, отсутствовавших в схемном описании. Для сравнения, работая в INTEL Corp., автор участвовал в разработке микропроцессора Kevet (проект закрыт). В проектировании RTL модели микроархитектуры, относительно простого микропроцессора, участвовало 6 инженеров. Для верификации RTL кода, только на микроархитектурном уровне, было задействовано 20 человек.

Практика инженерной деятельности в других отраслях техники, например, в области авиационной и ракетной промышленности так же даёт показательные примеры.

Ранее упомянутый пример, проект тяжёлого конвертоплана выполненный в САПР T-FLEX CAD 16, интересен тем, что проектирование ведётся в визуальной среде, дающей явную связь между понятиями, в которых мыслит инженер, и объектами, составляющими проектируемую систему.

Другой пример из области ракетостроения. При создании космической системы Энергия-Буран, для повышения производительности программирования, были созданы проблемно-ориентированные языки, основанные на терминах, понятиях и форме представления алгоритмов управления и испытаний, используемых разработчиками корабля. Такой подход позволил повысить производительность программирования и надёжность программного обеспечения. В дальнейшем, на основе когнитивно-эргономического подхода, был создан графический язык ДРАКОН. Применение его для создание различных ракетно-космических систем доказало эффективность идей, положенных в его основу [14, 28, 39].

Эти практические примеры, позволяют говорить о том, что возможности человека, по решению инженерных задач, полностью не раскрыты. При построении методологии проектирования, с применением современных знаний о когнитивной деятельности и подходов инженерной психологии, можно ожидать существенного роста производительности труда.

Литература

1. A modular digital VLSI flow for high-productivity SOC design. Brucek Khailany director of research, ASIC & VLSI NVIDIA CORPORATION. ERI Summit 2018.

2. Cerebras процессор для ИИ невероятных размеров и возможностей. Геннадий Детинич. 20.08.2019. https://3dnews.ru/992698 (дата обращения: 11.11.2020)

3. DARPA мечтает радикально упростить проектирование чипов. 04.07.2018 https://3dnews.ru/972103 (дата обращения 07.05.2019)

4. IDEA & POSH program updates. Andreas Olofsson. DARPA MTO program manager. ERI Summit 2019.

5. Intelligent Design of Electronic Assets (IDEA) & Posh Open Source Hardware (POSH) // Andreas Olofsson Program Manager, DARPA/MTO. Proposers Day Mountain View, CA. 9/22/17.

6. NVIDIA Introduces DRIVE AGX Orin Advanced, Software-Defined Platform for Autonomous Machines. Tuesday, December 17, 2019. https://nvidianews.nvidia.com/news/nvidia-introduces-drive-agx-orin-advanced-software-defined-platform-for-autonomous-machines (дата обращения: 11.11.2020)

7. Silicon Compilers - Version 2.0 // Andreas Olofsson Program Manager, DARPA/MTO. International Symposium on Physical Design. March 25-28, Monterey, CA. 2019.

8. Будылина С.М., Смирнов В.М. Физиология сенсорных систем и высшая нервная деятельность: Учеб. пособие для студ. высш. учеб, заведений. М. 2003.

9. Бухтев А. Методы и средства проектирования систем на кристалле. // Chip News 2003. -4.

10. Гигиена труда : учебник / под ред. Н. Ф. Измерова, В. Ф. Кириллова. -2-е изд., перераб. и доп. -М. : ГЭОТАР-Медиа, 2016.

11. Горбунов В., Елизаров Г., Эйсымонт Л. Экзафлопсные суперкомпьютеры: достижения и перспективы. Открытые системы. СУБД 2013. -07 http://www.osp.ru/os/2013/07/13037342/ (дата обращения 05.11.2013)

12. ГОСТ Р ИСО 10075-2011 Эргономические принципы обеспечения адекватности умственной нагрузки. Основные термины и определения.

13. Дональд Томас. Логическое проектирование и верификация систем на SystemVerilog / пер. с анг. А. А. Слинкина, А. С. Камкина, М. М. Чупилко; науч. ред. А. С. Камкин, М. М. Чупилко. М.: ДМК Пресс, 2019.

14. ДРАКОН [электронный ресурс]: Википедия. Свободная энциклопедия. https://ru.wikipedia.org/wiki/ДРАКОН (дата обращения: 11.11.2020)

15. Ильин Е. П. Дифференциальная психология профессиональной деятельности. СПб.: Питер, 2008. 16. Инновационные суперкомпьютерные технологии и проблемы создания отечественной перспективной элементной базы. / Л.К.Эйсымонт, В.С.Горбунов. Доклад на 5-м Московском суперкомпьютерном форуме. 21 октября 2014 года.

17. Исследование способности к усвоению искусственных языков у программистов. Орел Е. А. ОРГАНИЗАЦИОННАЯ ПСИХОЛОГИЯ. Т. 2. 2. 2012.

18. Как устроена универсальная разумная система? Анохин К.В. Наука о поведении: четыре главных вопроса Школа молодых ученых, 7-13 октября 2015. https://scorcher.ru/articles/images/3678/anokhin.pdf (дата обращения 08.09.2019)

19. Канышев В., Шагурин И. Применение языка SystemC и средств разработки на его основе для проектирования Систем на кристалле. // Chip News 2006. -9.

20. Когнитом: разум как физическая и математическая структура. К.В. Анохин. Семинар Социофизика. 27 сентября, 2016.

21. Космический ДРАКОН. Как заброшенный проект "Роскосмоса" подарил язык литовской медицине. Николай Воронин. BBC NEWS Русская служба. 5 августа 2019. https://www.bbc.com/russian/features-48583773 (дата обращения: 11.11.2020)

22. Кремниевый радиатор с микроканалами с жидкостью в 100 раз лучше металлического. 01.03.2019 https://3dnews.ru/983605 (дата обращения: 05.05.2019)

23. Ложкин С.А., Марченко А.М. Математические вопросы синтеза интегральных схем. [электронный ресурс] http://mk.cs.msu.ru/index.php/Математические_модели_и_методы_синтеза_СБИС (дата обращения: 15.10.2013)

24. Марков И. Проектирование интегральных схем: от разбиения графов до временной оптимизации систем. Лекции на факультете ВМК МГУ. 2013.

25. На пути к экзафлопсному суперкомпьютеру: результаты, направления, тенденции. / Горбунов В.С., Эйсымонт Л.К. Доклад на третьем Московском суперкомпьютерном форуме 01.11.2012

26. Общая психология : учебник для вузов / В. В. Нуркова, Н. Б. Березанская. 3-е изд., перераб. и доп. М. : Издательство Юрайт, 2017.

27. Особенности интеллекта профессиональных программистов. Орел Е. А. BECTH. MOCK. УН-ТА. СЕР. 14. ПСИХОЛОГИЯ. 2007. 2.

28. Параджанов В. Д. Как улучшить работу ума: Алгоритмы без программистов это очень просто! М.: Дело, 2001.

29. Представление информации для поддержки когнитивной деятельности человека-оператора. Анохин А. Н. // Актуальные проблемы психологии труда, инженерной психологии и эргономики. Выпуск 6 / Под ред. А. А. Обознова, А. Л. Журавлева. М.: Издательство Институт психологии РАН, 2014.

30. Применение концепций инженерной психологии к профессиям, традиционно не считающимся операторскими. С.А. Дружилов // Электронный журнал Психологическая наука и образование 1 2011.

31. Проект тяжёлого конвертоплана в T-FLEX CAD 16 (более 60000 тел). T-FLEX CAD. 25.11.2019. https://3dtoday.ru/blogs/topsystems/proekt-tyazhelogo-konvertoplana-v-t-flex-cad-16-bolee-60000-tel (дата обращения: 11.11.2020)

32. Процессор NVIDIA Orin шагнёт за пределы 12-нм технологии с помощью Samsung. Алексей Разин. 19.12.2019. https://3dnews.ru/1000054 (дата обращения: 11.11.2020)

33. Психология мышления. Гурова Л.Л. М.: ПЕР СЭ, 2005.

34. Психология программирования: цели, проблемы, перспективы. Рожников В. А. ОБЩЕСТВО: СОЦИОЛОГИЯ, ПСИХОЛОГИЯ, ПЕДАГОГИКА 3 2014.

35. Стасевич К. Человеческий мозг похудел на 14 миллиардов нейронов. 01.03.2012 года. http://compulenta.computerra.ru/archive/neuroscience/664455/ (дата обращения: 15.10.20013)

36. Стрелков Ю.К. Инженерная и профессиональная психология. 2-е изд. - М.: Издательский центр Академия, 2005.

37. Суперкомпьютер Neocortex: 800 тыс. ядер Cerebras для ИИ. Юрий Поздеев. 09.06.2020. https://servernews.ru/1013005 (дата обращения: 11.11.2020)

38. Финский суперкомпьютер получит 200 тысяч ядер благодаря 7-нм CPU AMD EPYC Rome. 15.12.2018 https://servernews.ru/979696 (дата обращения: 07.06.2019)

39. Энергия Буран [электронный ресурс]: Википедия. Свободная энциклопедия. https://ru.wikipedia.org/wiki/Энергия__Буран (дата обращения: 11.11.2020)

Подробнее..

HPE Apollo 6500 Gen10 plus часть HPE Cray Supercomputer в вашем ЦОДе

19.03.2021 10:13:30 | Автор: admin

Открывая будущее высокопроизводительных вычислений и искусственного интеллекта с революционными ускоренными вычислениями, представляем систему HPE Apollo 6500 Gen10 Plus. Это новаторское решение обеспечивает превосходно масштабируемую производительность и произведет революцию в использовании высокопроизводительных вычислений и искусственного интеллекта.

В современной цифровой экономике данные являются движущей силой инноваций. Интеллект меняет способ мышления, взаимодействия и понимания мира. Способность использовать достоверные прогностические данные вот разница между успехом и упущением для бизнеса уже сегодня.

Спрос на высокопроизводительные вычисления и искусственный интеллект резко возрастает, поскольку организации спешат заставить свои данные работать. Для достижения этой цели в ряде отраслей в России наблюдается значительный рост числа внедрений решений для высокопроизводительных вычислений и искусственного интеллекта, чтобы повысить производительность и получить стратегическое преимущество на высококонкурентном рынке. Такие сегменты, как финансовые услуги, здравоохранение и биологические науки, производство, автомобилестроение и розничная торговля по всему миру претерпевают полную трансформацию, поскольку организации вкладывают средства в передовые возможности и инструменты, помогающие им работать быстрее и разумнее.

Гибридные (с использованием специализированных ГПУ) вычисления обеспечивают отлично масштабируемую производительность, а также более быструю и надежную вычислительную мощность для оптимизации самых требовательных рабочих нагрузок высокопроизводительных вычислений и искусственного интеллекта. Не так давно HPE объявило о новаторском дополнении к портфелю HPE Apollo, которое выводит гибридные вычисления на новый уровень. Система HPE Apollo 6500 Gen10 Plus следующее поколение в этой линейке продуктов, которое выведет использование высокопроизводительных вычислений и искусственного интеллекта на новый практический уровень.

Система HPE Apollo 6500 Gen10 Plus специально создана для обеспечения большой ценности для заказчиков:

  • система позволяет производить более быстрый анализ для получения конкурентного преимущества, позволяющий лучше использовать данные;

  • cистема обладает лучшей производительностью за счет тесной связи вычислительной мощности с лучшими в отрасли графическими процессорами для предоставления максимальной производительности для решаемых задач;

  • полностью протестированное и настроенное решение HPE, сертифицированное NVIDIA и предназначенное для требовательных рабочих нагрузок высокопроизводительных вычислений, искусственного интеллекта, машинного обучения и глубокого обучения;

  • архитектура HPE Cray Supercomputer теперь включает систему HPE Apollo 6500 Gen10 Plus в качестве узла в ее версии с воздушным охлаждением, в сочетании с интерконнектом HPE Slingshot и поддерживаемой HPE Cray Operating System.

Для снижения нагрузок на устаревшую инфраструктуру и расширения возможностей для инноваций на основе обработки данных, система HPE Apollo 6500 Gen10 Plus использует вычислительную мощность новейших графических процессоров NVIDIA A100 с тензорными ядрами и процессоров AMD EPYC 2-го поколения. Графические процессоры NVIDIA A100 обеспечивают низкую задержку при высокой пропускной способности, чтобы улучшить эти мощные решения для гибридных вычислений. Благодаря тензорным ядрам третьего поколения NVIDIA A100 может эффективно масштабироваться до тысяч графических процессоров или, с помощью технологии NVIDIA Multi-Instance GPU (MIG), может быть разделена на семь изолированных инстансов графических процессоров для ускорения различных рабочих нагрузок. NVIDIA A100 предлагает значительные улучшения в тензорных ядрах и при работе с числами двойной точности, побив многочисленные рекорды по производительности на задачах ИИ и обеспечивая до 4,2 раза более высокую скорость обработки, чем в предыдущих поколениях ускорителей.

Система HPE Apollo 6500 Gen10 Plus обеспечивает максимальное использование графических процессоров (до 16 ГПУ на сервер) для быстрого сбора данных, их интеллектуального анализа и получения результатов, независимо от требований рабочих нагрузок высокопроизводительных вычислений и искусственного интеллекта. NVIDIA NVLink устанавливает бесшовное соединение между графическими процессорами, поэтому они могут работать вместе как единый мощный ускоритель. Интеконнект NVLink обеспечивает выделенную коммуникационную связь, которая позволяет переносить данные памяти с между ГПУ. Один ускоритель A100 поддерживает до 12 подключений NVLink с общей пропускной способностью 600 ГБ/с.

Процессоры AMD EPYC 2-го поколения предлагают огромную пропускную способность и большое количество ядер для непрерывной обработки требовательных к данным графических процессоров. Эти высокочастотные процессоры, интегрированные с NIVIDIA Mellanox HDR InfiniBand, добавляют до 200 Гб/с для полосы пропускания для каждых двух графических процессоров, поэтому даже продуктивные бизнес-системы, работающие в кластере, могут обмениваться данными с вдвое большей скоростью.

Для системы Apollo 6500 Gen10 Plus, HPE представила:

  • первый сервер оптимизированный для 4-х графических процессоров, который обеспечивает лучшую цену, чем когда-либо для HPC;

  • обновлённый двухпроцессорных сервер на базе процессоров AMD, который может поддерживать до 16 PCIe ГПУ, что в два раза больше, чем HPE поддерживало в прошлом.

Кроме того, система HPE Apollo 6500 Gen10 Plus предлагает обширные варианты организации подсистемы хранения, включая до 16 устройств хранения с доступом с передней панели, твердотельные диски SAS / SATA и до шести накопителей NVMe для более быстрого доступа к данным при меньшем потреблении энергии. HPE планирует дополнить эти возможности новыми решениями, которые будут включать 16 накопителей NVMe для увеличения пропускной способности почти в 6 раз. Теперь заказчики HPE могут использовать высокую мощность, частоту и вычислительную мощность гибридных вычислений, чтобы значительно сократить время, необходимое для получения аналитической информации.

Система HPE Apollo 6500 Gen10 Plus спроектирована с учетом плотности и гибкости для поддержки широкого спектра приложений HPC и ИИ. Наши решения давно признаны в отрасли благодаря высокой пропускной способности памяти, гибкости и безопасности для обеспечения быстрой передачи данных.

Созданные для эры Эксамасштабных вычислений, системы HPE Apollo 6500 Gen10 Plus еще больше увеличивают производительность для выполнения самых сложных рабочих нагрузок высокопроизводительных вычислений и искусственного интеллекта за счет графических процессоров NVIDIA HGX A100 с тензорными ядрами и интерконнектом NVLink или AMD Instinct MI100 с Infinity Fabric Link 2-го поколения. Суммарная производительность может превышать 100 Терафлопс (FP64). Возможность установки одного или двух процессоров позволяет улучшить баланс процессорных ядер, объема памяти и ввода/вывода. Повышение гибкости системы также достигается за счет поддержки 4, 8, 10 или 16 графических процессоров и широкого выбора операционных систем и предлагаемых опций, приближается к заказному (customized) дизайну, что означает для заказчиков снижение затрат, повышение надежности и удобства обслуживания.

Помимо ускорителей NVIDIA HGX A100 и AMD Radeon Instinct MI100, предлагается широкий выбор графических процессоров PCIe для высокопроизводительных вычислительных систем или искусственного интеллекта.

Система HPE Apollo 6500 Gen 10 Plus может содержать серверы следующих типов:

  • До двух серверов HPE ProLiant XL645d Gen10 Plus это однопроцессорный сервер с поддержкой 4-х ускорителей NVIDIA HGX A100 или 4-х ускорителей AMD Instinct MI100 или 4-х ускорителей PCIe двойной ширины или 8-ми ускорителей PCIe стандартной ширины;

  • один сервер HPE ProLiant XL675d Gen10 Plus это двухпроцессорный сервер с поддержкой 8-ми ускорителей NVIDIA HGX A100 или 8-ми ускорителей AMD Instinct MI100 или 10-ти ускорителей PCIe двойной ширины или 16-ти ускорителей PCIe стандартной ширины.

Также поддерживаются различные высокоскоростные фабрики интерконнекта Ethernet, HDR InfiniBand и HPE Cray Slingshot. В качестве опции для повышения эффективности и плотности мощности доступна система прямого жидкостного охлаждения (DLC), которая поставляется с заводов HPE предварительно заполненной, полностью интегрированной, установленной в стойку и готовой к подключению к водопроводу, что способствует сокращению сроков ввода в эксплуатацию, снижению стоимости владения, росту эффективности охлаждения и более высокой плотности по электрической мощности.

Для высокопроизводительных компонентов требуются такие же высокопроизводительные электропитание и охлаждение, обеспечивающие полное резервирование для топовых процессоров и ускорителей с тепловыделением до 500 Вт, благодаря чему ваша система будет готова к текущим и будущим бизнес-задачам.

Удобное для обслуживания и модернизации решение с полным резервированием питания, легкодоступная модульная конструкция, вентиляторы с двойными роторами и возможностью горячей замены, а также фабрика интерконнекта с подключением кабелей к задней панели полностью совместимы со стандартной серверной стойкой глубиной 1075 мм, что обеспечивает быстрое и эффективное развертывание. Доступен и широкий выбор операционных систем, в том числе HPE Cray Operating System, Microsoft Windows Server, Ubuntu, Red Hat или VMware.

В системе HPE Apollo 6500 Gen10 Plus используется технология HPE iLO5 с аппаратным корнем доверия и процессор AMD Secure специализированный процессор для обеспечения повышенной безопасности, встроенный в процессор (систему на кристалле, SOC) AMD EPYC. Конструктивно сервер занимает 6U и изготовлен по модульному принципу. Такая конструкция позволят гибко конфигурировать систему сейчас и дает возможность для будущей модернизации.

Серверная плата позволяет устанавливать процессоры AMD EPYC с термопакетом до 280 Вт и имеет 32 слота для оперативной памяти DDR4-3200. Внутренняя подсистема хранения поддерживает до 16 накопителей малого форм-фактора, либо до 6 SFF NVMe, с удобным доступом на передней панели сервера. Интерфейс PCIe 4.0 позволяет использовать различные высокоскоростные вычислительные фабрики, среди которых Infiniband HDR (200 Гбит/с) и HPE Cray Slingshot.

Система Apollo 6500 Gen10 plus содержит в себе технологии эксамасштабной эры эры в которой производительность систем исчисляется Эксафлопсами (квинтиллионами операций с плавающей точкой). HPE уже строит несколько Эксафлопсных систем в США. Для построения этих систем необходимо было пересмотреть все подходы, которые были применимы для суперкомпьютеров, чтобы преодолеть супер- и выйти за рамки в масштаб Экса. Нами были разработаны продукты для этих суперкомпьютеров и теперь некоторые технологии, которые мы включили в эти продукты, стали доступны для корпоративного рынка, в том числе и в России. Узнать больше про эти продукты и технологии, а также про их применимость в корпоративных ЦОДах можно будет на вебинаре Стимулирование инноваций и инсайты по требованию, который состоится 24 марта в 10:00 по Москве. Зарегистрироваться на него вы можете по этой ссылке.

Подробнее..

Мультиклеточная архитектура тесты и развитие

02.04.2021 18:19:41 | Автор: admin

В этой статье мы поговорим о развитии архитектуры и аппаратной части, покажем проведенные тесты и оценим результаты и перспективы дальнейшей разработки. Если вы впервые слышите о мультиклеточной архитектуре, то можете ознакомиться с ней в предыдущих статьях:

Первое, что необходимо сказать, Мультиклет концептуально переходит от разработки отдельных процессоров к разработке мультиклеточной платформы на основе MultiClet B базового элемента, состоящего из 4 клеток.

Мультиклеточная платформа это набор процессорных компонент, обеспечивающих создание высокоэффективной вычислительной среды современных мультиклеточных процессоров, ориентированных на использование в различных предметных областях.

В мультиклеточную платформу входят два типа ядер, два типа блоков матричной арифметики и два типа блоков доступа к памяти.

Процессоры могут отличаться количеством ядер, системой команд, разрядностью данных, методами доступа к памяти. Конфигурация процессора может быть гомогенной, если процессор состоит из однотипных ядер. Гетерогенной, если в составе процессора присутствуют ядра различных типов. Частным случаем гомогенной конфигурации является матричная организация, когда 1, 4 или 16 ядер объединены блоком матричных операций.

Ядро в мультиклеточном процессоре это четыре клетки объединенные в единый неделимый блок - мультиклетку. Ядра отличаются разрядностью данных. Младшее ядро использует малоразрядные данные 8i, 16if, 32if, где цифры указывают на разрядность используемых данных, а индексы i, f на их тип (i целочисленные, f с плавающей точкой). Старшее данные 16if, 32if, 64if. Каждый тип ядра имеет два варианта реализации внутренней архитектуры:

  1. Первый предназначен для создания процессоров с низким энергопотреблением и имеет внутренние конвейеры с минимальным количеством ступеней.

  2. Второй для процессоров с высокой производительностью, что требует увеличения глубины конвейеров.

Количество мультиклеток и их тип для создания готового процессора выбирается по необходимости, в зависимости от поставленной задачи. Это позволяет создать широкую вариабельность процессоров, сформированных на этой платформе.

Блоки матричной арифметики также отличаются разрядностью, а именно блок, использующий 16-ти битовые данные с плавающей точкой и блок с данными 32f/64f. Каждый из блоков обеспечивает выполнение операции умножения матрицы. Допустимы три варианта размерности матрицы. При использовании одного ядра: 2х2 (64f); 2х4 (32f); 4х4 (16f). При использовании 4-х ядер: 4х4 (64f); 4х8 (32f); 8х8 (16f). Для 16-ти ядер размерности составят: 8х8 (64f); 8х16 (32f); 16х16 (16f).

Блоки доступа к памяти также имеют два типа, которые отличаются организацией кэша. Первый (DMC) использует алгоритм прямого отображения на память, который обеспечивает максимальную производительность. В этом случае адрес нового элемента используется для вычисления местонахождения в кэше (в отведенной для этого области). Все, что было ранее, вытесняется.

Максимальную эффективность метод DMC демонстрирует при решениии расчетных задач, которые отличаются сранительно небольшими объемами программ, но при этом выпоняют большой объем вычислений.

Второй тип использует алгоритм LRU, при котором в первую очередь, вытесняется блок данных неиспользованный дольше всех. Этот алгоритм требует отслеживания того, что и когда использовалось. Общая реализация этого метода требует сохранения бита возраста для строк кэша и за счет этого происходит отслеживание наименее использованных строк (то есть за счет сравнения таких битов. Этот алгоритм более затратный, но его использование оправдано, если данные плохо локализованы, либо выполняемая программа имеет информационно-логический характер, т.е. состоит из большого количества коротких (несколько команд) линейных участков.

При создании MultiClet B была проведена множественная оптимизации ядра, что позволило увеличить тактовую частоту ядра до 2 ГГц на топонорме 28 нм и одновременно на 15-20% ускорить исполнения кода на этой частоте. Ускорение было достигнуто за счет сокращения времени прохождения команд по тракту исполнения. В частности было уменьшено время обработки команд в буфере АЛУ и обеспечена передача адреса нового параграфа клеткам по отдельному тракту. Компилятор был обновлен до LLVM 11.0.0, что также дало ускорение скомпилированного кода.

Бенчмарки

В этой статье мы будем сравнивать производительность отдельно взятых ядер двух архитектур, а не процессоров целиком. В таблицах будет приведено время выполнения одной итерации теста в тактах, что позволяет сравнивать ядра процессоров разных архитектур вне зависимости от их частоты. Так как помимо количества тактов еще очень важны затрачиваемые на выполнение ресурсы, то в таблицы еще будут включены удельные показатели по энергопотреблению и по площади кристалла, которые рассчитываются на основе реального показателя бенчмарка (число выполнений в секунду при заданной частоте).

Данные в таблице, приведенной ниже, будут использоваться для расчетов удельной производительности на Ватт и на мм2 для всех бенчмарков. Характеристики ядра MultiClet B получены по результатам логического синтеза и последующего моделирования.

Процессор

MultiClet B

1 ядро Intel Kaby Lake

Частота

2000 МГц

4500 МГц

Энергопотребление

0.14 W

7 W

Площадь (14 нм)

0.23 мм2

9.5 мм2

CoreMark

CoreMark набор тестов для комплексной оценки производительности микроконтроллеров и центральных процессоров, а также их C-компиляторов. Более подробное его описание и причину использования можно посмотреть в одной из предыдущих статей.

Процессор

MultiClet B, LLVM 11.0.0

1 ядро Intel Kaby Lake

CoreMark, тактов

1 069 416

125 740

CoreMark / с

1870

35788

CoreMark / c / Ватт

13358

5112

CoreMark / c / мм2

8131

3767

DhryStone

Dhrystone синтетический тест производительности компьютеров, разработанный в 1984 году. Он содержит разные конструкции, такие как вызовы процедур, обращение по указателю, присваивание и т. д. Со времен его разработки, оптимизации компиляторов стали гораздо более агрессивными, и компиляторы просто выбрасывают куски бенчмарка, которые не несут полезную нагрузку, например множественные присваивания. Даже при компиляции второй версии бенчмарка, призванной бороться с такими оптимизациями компилятора, некоторый код оказывается выброшенным.

Процессор

MultiClet B, LLVM 11.0.0

1 ядро Intel Kaby Lake

Dhrystone, тактов

730

87

Dhrystone / с

2 739 726

51 724 137

Dhrystone / c / Ватт

19 569 471

7 389 162

Dhrystone / c / мм2

11 911 852

5 444 646

Следующие 3 программы обычно не называются бенчмарками, но их можно использовать с целью оценки скорости определенных свойств процессора.

Задача о 8 ферзях

Задача о восьми ферзях широко известная комбинаторная задача по расстановке фигур на шахматной доске. Исходная формулировка: Расставить на стандартной 64-клеточной шахматной доске 8 ферзей так, чтобы ни один из них не находился под боем другого.

Данный тест интересен тем, что содержит в себе множество ветвлений, которые плохо поддаются предсказанию.

Процессор

MultiClet B, LLVM 11.0.0

1 ядро Intel Kaby Lake

8 ферзей, тактов

3 510 425

700 389

8 ферзей / с

570

6425

8 ферзей / c / Ватт

4069

917

8 ферзей / c / мм2

2477

676

Размерность следующих двух тестов определена разумным количеством времени, за которое можно выполнить моделирование, чтобы не ждать несколько суток для выполнения симуляции.

Бинарные деревья, глубина 6

Задача данного теста состоит в создании бинарных деревьев с использованием минимального количества выделений памяти. Листья дерева и внутренние узлы должны быть одинаковыми. Скорость данного теста во многом определена эффективностью реализации динамического выделения памяти.

Процессор

MultiClet B, LLVM 11.0.0

1 ядро Intel Kaby Lake

Бинарные деревья, тактов

1 166 775

247 511

Бинарные деревья / с

1714

18181

Бинарные деревья / c / Ватт

12243

2597

Бинарные деревья / c / мм2

7452

1913

Множество Мандельброта, размерность 32х32

Данный тест просто генерирует множество Мандельброта с заданной размерностью. Тест интересен тем, что содержит множество операций с плавающей запятой двойной точности, исполняемых в цикле с заранее неизвестным количеством итераций.

Процессор

MultiClet B, LLVM 11.0.0

1 ядро Intel Kaby Lake

Множество Мандельброта 32х32, тактов

905 430

301 888

Множество Мандельброта / с

2208

14906

Множество Мандельброта / c / Ватт

15777

2129

Множество Мандельброта / c / мм2

9603

1569

Все показанные бенчмарки были скомпилированы компилятором LLVM из исходного кода на С. Компилятор для мультиклеточной архитектуры пока генерирует не самый оптимальный код, что видно по количеству тактов, затрачиваемых на выполнение бенчмарков. Не вдаваясь в разницу между мультиклеточной системой команд и x86, количество инструкций, которые исполняет процессор от Интела для выполнения любого из этих бенчмарков в среднем в 2 и более раза ниже, чем количество инструкций, исполняемых мультиклеточным процессором. Это значит, что у компилятора есть перспектива развития, а также что производительность процессора на данных бенчмарках можно значительно ускорить только за счет оптимизации программного обеспечения.

Для оценки теоретической возможности компилятора и, соответственно, процессора, была проведена ручная оптимизации ассемблерного кода, полученного после компиляции программы, генерирующей множество Мандельброта. Было сделано следующее:

  • Удалены лишние пробросы значений инструкцией load, оставшиеся после phi узлов

  • Вместо использования памяти, передача данных между параграфами сделана через коммутатор, где это возможно

  • Где это невозможно, передача данных сделана через регистры общего назначения

  • Объединены некоторые параграфы и/или перенесены некоторые инструкции из следующего параграфа в предыдущий для заполнения простоев, возникающих при переходе с одного параграфа на другой

Эти оптимизации, которые можно внедрить в компилятор и которые требуют разработки, были вручную вписаны в ассемблерный код, что позволило понять какие оптимизации компилятора будут самые эффективные, какие нужно делать в первую очередь, и какую можно ожидать производительность. В итоге, количество тактов уменьшилось с 905,430 до 412,117:

Процессор

MultiClet B, LLVM 11.0.0

MultiClet B, прогноз с оптимизациями

1 ядро Intel Kaby Lake

Множество Мандельброта 32х32, тактов

905 430

412 117

301 888

Множество Мандельброта / с

2208

4852

14906

Множество Мандельброта / c / Ватт

15777

34664

2129

Множество Мандельброта / c / мм2

9603

21099

1569

Полученные данные показывают, что при реализации сугубо последовательных алгоритмов, мультиклеточное ядро по производительности почти эквивалентно одному ядру архитектуры Intel Kaby Lake, но при этом энергопотребление и затраты кремниевых ресурсов получаются в десятки раз меньше.

Ethereum

Ethereum мы тоже используем как бенчмарк, и он очень важен по двум причинам:

  • Алгоритм подсчета хэшей Ethash написан для мультиклеточного процессора на ассемблере как можно более оптимально, поэтому компилятор здесь не играет роли, что позволяет более точно оценить предельную вычислительную мощность процессора.

  • В отличие от других задач, для майнинга очень важно энергопотребление, чем мультиклеточная архитектура действительно отличается от существующих процессоров.

Плата-ускоритель с 16 MultiClet S1

Плата-ускоритель с 16 MultiClet S1

NVIDIA 90HX

NVIDIA RTX 2080 Ti

AMD Radeon RX 5700 XT

AMD Radeon RX Vega 64

Хэшрейт, MHash/s

62

52

86

52.5

51.5

46

TDP

50 W

84 W

320 W

180 W

150 W

200 W

Хэшрейт / TDP

1.24

0.62

0.27

0.29

0.34

0.23

Техпроцесс

7 нм

28 нм

7 нм

12 нм

7 нм

14 нм

Как можно заметить, при сопоставимом хэшрейте энергопотребление в 2-3 раза ниже даже на техпроцессе 28 нм. При переходе на техпроцесс 7 нм энергопотребление сокращается еще сильнее.

Оценка использования мультитклеточной платформы для майнинга проводилась на примере получения криптовалюты Ethereum. Моделирование проводилось для процессора MultiClet S1, состоящего из 16 мультиклеток. Данные по производительности платы получены расчетным путем. Для сравнения была выбрана старшая модель платы компании NVIDIA, которая спроектирована специально для майнинга и выпуск которой намечен на 2021год. Данные по ее планируемой производительности взяты с сайта компании. Результаты показывают, что при близкой производительности, плата использующая процессоры MultiClet S1, по удельным показателям, эффективна более чем в 2 раза по сравнению с NVIDIA 90HX.

Заключение

Анализ полученных результатов определил дальнейшие направления оптимизации программного и аппаратного обеспечения:

  • Во первых, на аппаратном уровне это оптимизация доступа к памяти, аналогичная той, которая реализована для команд, проходящих через буфер АЛУ.

  • Во вторых, это разработка и реализация алгоритмов оптимизации бэкенда для компилятора LLVM. При выполнении всех схем оптимизации (показанные на примере компиляции генератора множества Мандельброта) производительность мультиклеточного ядра на скомпилированном коде будет практически эквивалентно современному ядру Intel, но при этом удельные характеристики по энергопотреблению и кремниевым ресурсом в будут превосходить его в десятки раз.

Если у вас есть желание попробовать скомпилировать и запустить программы на функциональной модели, SDK есть на сайте Мультиклета.

Благодарим за внимание!

Подробнее..

Обновление списка Top50 курс на рост

08.04.2021 08:18:32 | Автор: admin


В конце марта вычислительный центр МГУ имени М.В. Ломоносова и Межведомственный Суперкомпьютерный Центр РАН в очередной, тридцать четвертый раз опубликовали рейтинг российских суперкомпьютеров, где представлена информация об отечественных машинах с наибольшими мощностями. Ниже вы найдете общую сводку изменений за прошедшие полгода.

Прежде всего, следует отметить, что негативная динамика, которая наблюдалась в прошлом выпуске, сменилась положительной: мощности снова стали расти. С зафиксированных в прошлый раз 19.8 PFlop/s на тесте Linpack суммарная производительность поднялась до 20.2 PFlop/s, тем самым превысив показатель не только тридцать третей, но и тридцать второй редакции. Суммарная пиковая производительность также повысилась: теперь она составляет 30.9 PFlop/s (в предыдущей редакции 29.9 PFlop/s). Наконец, порог вхождения в рейтинг установился на уровне 69.6 TFlop/s против 56.95 TFlop/s в предыдущей версии.

С точки зрения изменений в составе участников полугодие прошло довольно спокойно. Тройка лидеров осталась прежней:

  • Лидером рейтинга всё так же остаётся система Кристофари, разработка компаний SberCloud (ООО Облачные технологии) и NVIDIA, установленная в СберБанке (производительность на тесте Linpack 6.7 PFlop/s, пиковая производительность 8.8 PFlop/s).
  • На второй строчке укрепился суперкомпьютер Ломоносов-2 производства компании Т-Платформы из Московского государственного университета имени М.В. Ломоносова (производительность на тесте Linpack 2.5 PFlop/s, пиковая производительность 4.9 PFlop/s).
  • Третье место занимает суперкомпьютер, созданный компаниями T-Платформы и CRAY, который находится в Главном вычислительном центре Федеральной службы по гидрометеорологии и мониторингу окружающей среды (производительность на тесте Linpack 1.2 PFlop/s).

Вместе с тем, в первой десятке топа появился новый участник: апгрейд системы PetaNode 1.2 Cluster (разработчик ООО Компьютерные Экосистемы) позволил ей подняться с пятнадцатого места на девятое за счет сильного роста производительности с 211.6 TFlop/s до 420.1 TFlop/s. Продолжает свое движение вверх также суперкомпьютер cHARISMa, установленный в Высшей школе экономики: за предыдущие месяцы его мощности возросли с 568.5 TFlop/s до 653.7 TFlop/s, что обеспечило перемещение с седьмой позиции на шестую.

Дебютировали в рейтинге на этот раз две разработки. Система Лобачевский, сегмент A100 от группы компаний РСК, установленная в Нижегородском государственном университете им. Н.И. Лобачевского, стартовала с двадцать седьмого места. Суперкомпьютер Олег, созданный компанией Lenovo и находящийся в Сколковском Институте Науки и Технологий, занимает тридцать шестую строку.

Ряд небольших изменений можно отметить в техническом оснащении лучших суперкомпьютеров. Гибридных машин, использующих для вычислений ускорители, стало на одну больше теперь общее их число составляет 27. Напротив, число разработок на основе технологии Intel Omni-Path сократилось: их осталось 5 вместо прежних 6. Удерживают свои старые позиции процессоры Intel (используются в 48 системах), коммуникационные сети InfiniBand (используется в 32 системах) и Gigabit Ethernet (используется в 8 системах).

Основными создателями мощнейших вычислительных комплексов являются те же три компании, что и раньше: Hewlett-Packard Enterprise (13 позиций в рейтинге), группа компаний РСК (12 позиций в рейтинге) и Т-Платформы (10 позиций в рейтинге). При этом Hewlett-Packard Enterprise несколько ухудшила свои показатели по сравнению с предыдущей редакцией.

С точки зрения применения суперкомпьютеров наиболее популярной областью остаются наука и образование количество задействованных в них систем выросло с 26 до 28. В некоторых других сферах, напротив, наблюдается отток: число суперкомпьютеров, применяющихся в прикладных исследованиях, упало с 8 до 7, а число систем, ориентированных на промышленность с 2 до 1. Большая часть отраслей на данный момент представлена единичными специализированными разработками: так, моделирование климата осуществляет суперкомпьютер PetaNode 1.2 Cluster, на задачи, связанные с геофизикой, работают системы НОВАТЭК НТЦ, сейсмологическими расчетами занимается суперкомпьютер PTG-hpSeismic и так далее.
Подробнее..

Самый большой процессор в мире Cerebras CS-1. Разбор

29.01.2021 18:07:40 | Автор: admin
Наверняка вы подумали, что это какой-то очередной кликбейт. Что это за самый большой процессор в мире? Похоже сейчас нам будут рассказывать о процессоре, который на 5 процентов больше других, и то если рассматривать этот процессор только с определенной стороны.И да просмотры и прочтения мы хотим собрать, но

Сегодня мы расскажем вам о процессоре компании Церебро, под названием Cerebras CS-1.И он действительно огромный!


Например, GPU, который считался самым большим раньше это процессор Nvidia V100, а вот новый процессор Церебро. Он почти в 57 раз больше!Площадь самого чипа 462 квадратных сантиметра это почти столько же сколько площадь всей Nvidia 3090, вместе с системой охлаждения и разъемами.







А что вы скажете на то, что этот монстр способен симулировать некоторые физические модели быстрее самих законов физики?Заинтриговали? Что ж тогда присаживайтесь, наливайте чаек. Сегодня будет разбор по-настоящему огромного однокристального процессора!

Итак, что же это за монстр такой и зачем он нужен?Давайте сразу ответим на второй вопрос этот процессор создан для машинного обучения и искусственного интеллекта. Кроме того он сильно расширит возможности для различного сложного моделирования и сможет заглядывать в будущее. Вообще, искусственный интеллект это невероятно интересная и актуальная тема, а ее главные ограничения это слабые вычислительные мощности.А если хотите узнать о реальных проектах с использованием искусственного интеллекта у Илона Маска есть такой в запасе Open UI.

Если вы думали, что закон Мура со своим увеличением количества транзисторов в процессоре каждые 1,5 года это быстро, то посмотрите на потребности в области ИИ, ведь спрос на эти вычисления удваивается каждые 3,5 месяца!

Классический подход это напихать кучу процессоров в серверные стойки, к каждому подвести систему охлаждения и питания, при этом каждый отдельный процессор еще надо связать друг с другом, а это, кстати, неизбежно вызывает задержки.

Скажем так если вы возьмете двигатель от Ferrari и запихнете ее в старые Жигули, то машина конечно поедет быстрее, но как Ferrari все равно не поедет.Поэтому тут нужен принципиально иной подход,ведь для того? чтобы получить настоящий гиперкар надо взять хорошие тормоза, подвеску, рассчитать аэродинамику; с компьютерами точно также.

Компания Церебро это и сделала они решили разработать свою систему с нуля, то есть вообще все от архитектуры самих процессоров, до системы охлаждения и питания.









Это огромная машина, потребляющая 20 килоВатт, и занимающая треть стандартной серверной стойки, то есть можно размещать по три таких компьютера в одной стойке! А сам чип, по своей сути и предназначению, напоминает серверные GPU от NVIDIA, так что давайте их и сравним. Возьмем Nvidia Tesla V100.





Цифр много, приготовьтесь! Кроме размеров самого кристалла, процессор Церебро обладает четырьмя сотнями тысяч ядер, что в 78 раз больше, чем число ядер на NVIDIA Tesla V100! Количество транзисторов взрывает мозг 1,2 триллиона, против 21 миллиарда у NVIDIA.

А сколько там памяти? 18 гигабайт l2 cache memory прямо на чипе! Это в три тысячи раз больше, чем у V100. Кстати у 3090 от той же NVIDIA, памяти на чипе тоже 6 мегабайт, прямо как у V100. Ну а про ширину полосы пропускания даже говорить страшно у V100 это 300 Гигабит в секунду, а у Церебро 100 ПЕТАбит в секунду. То есть разница в 33 тысячи раз!



А чтобы достичь схожей вычислительной мощности они заявляют, что нужна тысяча 100 карт NVIDIA, что суммарно будет потреблять в 50 раз больше мощности и занимать в 40 раз больше места это очень значительная экономия электроэнергии и свободного пространства.





Это конечно прекрасно цифры поражают. Но как удалось их достичь?

Суть в размере. Чип большой, нет, даже огромный. Именно это позволяет разместить столько всего на одном кристалле. И главное, что связь между элементами мгновенная, потому что не нужно заниматься сбором данных с разных чипов.

Однако, размер это одновременно и главный недостаток Церебро.

Давайте по-порядку. Первое и главное нагрев.Разработчики этого монстра прекрасно понимали, что они создают и какая система охлаждения нужна, поэтому она, как и сам процессор, были разработаны с нуля. Она представляет из себя комбинацию жидкостного охлаждения, которое направляется к охлаждаемым медным блокам! Охлаждающая жидкость проходя через мощный насос попадает в радиатор, где с помощью вентилятора происходит ее охлаждение, а горячий воздух уже выдувается наружу четырьмя дополнительными вентиляторами.









При потреблении 20 кВт, которые подаются через двенадцать разъемов питания, четыре уходит только на питание вентиляторов и насосов для системы охлаждения. Но в результате они достигли того, что чип работает при вдвое меньших температурах, чем стандартные GPU, что в конце концов повышает надежность всей системы.

Ну и конечно отдельно хочется сказать, что инженеры создали систему так, что она позволяет быстро менять почти любой компонент, что очень круто, так как в случае поломки это уменьшает время возможного простоя.

Сам же чип собирает TSMC по, вы не поверите, 16 нанометровому техпроцессу. И тут вы можете справедливо возмутится. Как же так? Все уже делают чипы на 5 нм, какой смысл делать на древних 16 нм?

Тут то и скрывается вторая проблема.При производстве классических чипов, неизбежно бывает брак, который приводит к тому, что несколько чипов оказываются негодными и выкидываются или используются для других задач, и чем мельче тех процесс, тем выше процент брака. Но когда у тебя вся кремниевая подложка это один чип, то любая ошибка в производстве приводит к тому, что всю пластину можно выкидывать.А при условии что одна пластина может изготавливаться несколько месяцев и стоит около миллиона долларов, что ж.

Суть в том, что ребята решили, как бы, подстраховаться. Ведь 16 нм техпроцессу уже почти семь лет: детали и тонкости при его производстве отлично изучены. Так сказать уменьшают риски! Но стоит сказать, что уже ведется разработка и тестирование такого чипа на 7 нм, но его выход конечно будет зависеть от спроса на первое поколение! И там цифры просто огромные, только посмотрите на таблицу.





И тут вы можете справедливо заметить, что мы пока что ни слова не сказали о результатах, которых можно достичь с помощью этого монстра.Тут сложно, так как информация, в основном, закрытая, однако какие-то детали все равно просачиваются в медийное пространство.

Национальная лаборатория энергетических технологий Министерства энергетики США заявила, что CS-1 первая система, которая смоделировала работу более миллиона топливных ячеек быстрее, чем в режиме реального времени.

Это означает, что когда CS-1 используется для моделирования, например, электростанции на основе данных о ее текущем состоянии, она может сказать, что произойдет в будущем быстрее, чем законы физики дадут такой же результат.Вы поняли? С помощью этого ПК можно заглянуть в будущее с высокой точностью, и если нужно подкорректировать и изменить его.И еще, например, в симуляции с 500 миллионами переменных Cerebras CS-1 уже обогнал суперкомпьютер Joule, занимающий 69-е место в рейтинге самых мощных суперкомпьютеров мира. Так что похоже со спросом проблем не ожидается.



Церебро планируется использовать для прогнозирования погоды или температуры внутри ядерного реактора или, например, проектирования крыльев самолета. Несомненно, лаборатории и различные исследовательские центры по всему миру найдут для Церебро области применения.Как вы понимаете, компьютер будет дорогим, но точная цена неизвестна.

Из открытых источников мы нашли только что в 2020 году в суперкомпьютерном центре Питтсбурга было куплено 2 компьютера Cerebras CS-1 за 5 миллионов долларов. Но система делается только под заказ и под каждого конкретного клиента, так что цена может варьироваться.

Выводы



Это явно уникальная система. И такого раньше никто не делал! Большинство производителей считают, что гораздо выгоднее и эффективнее наштамповать кучу маленьких процессоров, так как вероятность брака или поломки сильно падает и каждая ошибка сильно дешевле.Разработчики Церебро же решили пойти рискованным путем и, судя по тому, что процессор Cerebras CS-2 уже тестируют, их путь успешен.

И если все что они заявили сбудется, то нас ждет абсолютно новая эра серверных вычислений, невероятные возможности для создания компьютерных моделей, новые мощности искусственного интеллекта. Нет сомнений, что и гиганты рынка, такие как Nvidia, Intel, Google, посмотрев на удачный опыт Церебро займутся разработкой своих огромных однокристальных систем.А вы только представьте, что будет если совместить это с квантовыми вычислениями, о которых мы недавно делали разбор? Ух!

Будем следить за развитием технологий, и продолжим дальше делать для вас такие интересные обзорные материалы про самые современные достижения!



PS. Кстати, лайк если поняли пасхалку в Церебро ведь решетка радиатора выполнена в форме специальной сетки, которая используется в компьютерном моделировании для расчетов. Отсылка к предназначению Церебро!
Подробнее..

Новый японский суперкомпьютер смоделирует Землю для прогнозирования катастроф

01.10.2020 18:11:51 | Автор: admin

Японское агентство морских наук и технологий (The Japan Agency for Marine Earth Science and Technology) заключило контракт с компанией NEC на поставку суперкомпьютера the Earth Simulator (ES) четвертого поколения. Обрабатывая огромные массивы данных об окружающей среде и планете, компьютер сможет решать самые сложные задачи в области науки о жизни на Земле. Запуск суперкомпьютера запланирован на март 2021 года.

Система базируется на SX-Aurora TSUBASA с векторными ускорителями от NEC и на графических процессорах NVIDIA GPU A100 Tensor Core с тензорными ядрами. Сетевое соединение будет выполнено с помощью NVIDIA Mellanox HDR InfiniBand 200 Гбит/с.


Предполагается, что обновленный Earth Simulator займет место в первой части рейтинга топ-500 суперкомпьютеров. Его максимальная теоретическая производительность составит 19,5 петафлопса.

Профиль Earth Simulator исследовательские, опытно-конструкторские проекты в области наук о жизни на планете. Компьютер охватит такие темы, как морские ресурсы, землетрясения, вулканическая активность. Сообщается, что он будет использоваться как платформа для численного анализа и систематизации информации о глобальной среде. ES 4 сможет предсказывать и помогать смягчать последствия чрезвычайных ситуаций и стихийных бедствий.

Сравнительная характеристика ES3 (Current) и ES4 (Next)
Благодаря крупномасштабному моделированию ES 4 будет функционировать на скорости, недоступной предшествующим суперкомпьютерам.

Начало эры ES


Первый суперкомпьютер серии ES, ES1, был создан японским агентством в 2002 году. Тогда же был запущен первый симулятор Земли. В 2002 году ES1 занял первое место в топ-500. Цель проекта изучение проблем глобального потепления и важнейших вопросов геофизики. Производительность ES 1 составляла 35,86 терафлопса. Сегодня подобной производительности можно достичь с помощью четырех графических процессоров А100.

В 2009 году появился ES 2 на 131 терафлопс с архитектурой NEC SX-9/E. Общий объем памяти ES 2 20 Тб.

ES 3
В 2015 году японцы разработали третье поколение ES 3. Его производительность 1,3 петафлопса. Архитектура ES 3 NEC SX-ACE. Объем оперативной памяти 320 Тб. Интересный нюанс ES 3 почти в два раза больше по площади, чем его последователь, но имеет тот же уровень энергопотребления.

Самый мощный суперкомпьютер нашего времени также находится в Японии. Это Fugaku с производительностью 415,53 петафлопса. Правда, сейчас его функциональность ограничена, поскольку не все блоки запущены в работу. Поэтому текущая производительность Fugaku всего лишь 89 петафлопс, остальные вводятся в эксплуатацию. Fugaku разрабатывали в течение 6 лет, потратив 1 млрд долларов. Компьютер оснащен процессорами Fujitsu A64FX, в топ-500 это один из немногих компьютеров на базе ARM. Мощность Fugaku 28,3 МВт. На втором месте в рейтинге американский Summit с производительностью 148,6 петафлопс.

Подробнее..

От легендарного прошлого сквозь настоящее в будущее. История System X

18.02.2021 10:20:32 | Автор: admin
image


В гонке мощностей, которая составляет основную суть хроники развития суперкомпьютеров, истории отдельных проектов по большей части стираются. Лидеры быстро оттесняют друг друга, технологии устаревают, и только переходы на новый порядок пока ещё западают в память. Сегодня мы бы хотели немного исправить эту несправедливость и рассказать об одном уникальном суперкомпьютере, история которого началась восемнадцать лет назад. Назывался он System X и был собран, можно сказать, из подручных средств с неожиданно удачным результатом.

История необычного суперкомпьютера началась весной 2003 года, а к концу осени уже достигла своей кульминации. В то время Политехнический университет Виргинии поставил перед собой цель попасть в тридцатку лучших исследовательских университетов США. В этом местной команде могли помочь, во-первых, дополнительные вычислительные мощности, а, во-вторых, яркий, запоминающийся проект, способный привлечь к себе широкое внимание. Забегая вперед, следует сказать, что суперкомпьютер System X оправдал надежды и сумел дать своим создателям и то, и другое.

Название для вычислительного комплекса было выбрано не просто за благозвучность авторы вложили в него двойной смысл. Во-первых, римская цифра X намекала на рубеж в десять терафлопс, которые они рассчитывали преодолеть первыми среди всех исследовательских центров на базе университетов. Во-вторых, всё та же X, если воспринимать её как букву, перекликалась с названием операционной системы Mac OS X, ненавязчиво подчеркивая главную отличительную черту проекта использование стандартных процессоров Apple при сборке узлов для суперкомпьютера.

По словам исследователей, в мысли о том, что обычных пользовательских компьютеров может быть достаточно для начинки продвинутой вычислительной машины, их утвердила высокая оценка технических характеристик модели Apple Power Mac G5: G5 идеально подходили для нашей системы с точки зрения архитектуры: 64-битный процессор с двумя математическими сопроцессорами для вычислений двойной точности, отличной пропускной способностью памяти и архитектурой ввода-вывода, которая позволяет соединять машины в единый суперкомпьютер.

Суперкомпьютер состоял из 1100 узлов, в каждом узле по два 64-битных процессора с одним ядром и тактовой частотой 2.0 ГГц. Таким образом, система имела 2200 процессоров/ядер). Чуть позже команда усовершенствовала систему за счёт перехода на платформы Apple Xserve G5 и итоговые характеристики узла стали:

  • разрядность х64
  • тактовая частота 2.3 ГГц
  • количество ядер 2
  • количество процессоров 2
  • 4 Гб оперативной памяти
  • 80 Гб на жёстком диске

Суммарно суперкомпьютер располагал 4,4 терабайтами оперативной памяти и 88 терабайтами хранения (HDD); дополнительно к системе было подключено внешнее хранилище объёмом в 53 терабайта. Для коммуникации между узлами была применена сеть InfiniBand (новинка на тот момент) часть успеха проекта авторы приписывали её высокой пропускной способности (20 Gbps на узел) в сочетании с низкой латентностью (менее 8 микросекунд). Технология Gigabit Ethernet использовалась в качестве вспомогательной, для управления системой и запуска операций.

По меркам мира суперкомпьютеров история создания System X разворачивалась очень и очень стремительно. Общая концепция была определена к марту 2003 года, проектирование завершилось в середине лета. В июле исследователи и студенты университета, а также привлечённые ими волонтёры запустили процесс установки и сборки. Пара месяцев ушла на подготовительные работы: установку стоек, проведение всех необходимых коммуникаций для системы охлаждения (гибридной, что тоже было на тот момент инновационным решением), электропитания, кондиционирования и так далее. Сотрудники лаборатории оставили довольно подробную фотохронику событий, по которой можно составить представление о том, как происходит и каких ресурсов требует размещение суперкомпьютера в пределах обычного, функционирующего учреждения. Процессоры и корпуса, которые поступили в университет только в сентябре, были собраны и подключены в единую систему менее чем за три недели работы (по отзывам участников, впрочем, крайне напряженной).

Спешка окупилась тем, что признание пришло к авторам проекта уже к концу года: они успели попасть в ноябрьскую редакцию top500.org мирового рейтинга суперкпомпьютеров. Производительность System X была оценена на тесте HPL (High-Performance Linpack) авторства Джека Донгарра и показала впечатляющие результаты на фоне конкурентов с куда более солидными репутациями и финансированием. Исследователям Политехнического университета Виргинии удалось осуществить задуманное и вывести суперкомпьютер на уровень выше 10 триллионов операций в секунду: производительность System X составила 10,28 терафлопс при пиковой производительности в 20,24 терафлопс.

В мировом рейтинге System X дебютировал с третьего места. На такой результат не рассчитывали даже сами создатели системы: они полагали, что при самом удачном раскладе попадут в середину первой десятки. Однако радовал их не только сам факт произведенного фурора, но и ещё один почётный титул, которого они удостоились: мощнейший и самый дешёвый суперкомпьютер, созданный в обычных условиях.

Авторы надеялись, что разработка даст толчок развитию новой ветви бюджетных суперкомпьютеров. За счёт того, что в качестве строительных блоков использовались готовые машины, System X обошёлся Политехническому университету дёшево: все траты составили 5,2 миллиона долларов. Для сравнения, вычислительный комплекс Лос-Аламосской национальной лаборатории, который расположился в рейтинге одной строкой выше, был на 30% мощнее, но при этом на 210 миллионов долларов дороже (в 41 раз).

Эта система представляет большой шаг вперёд в том, что касается производительности, цены и простоты управления суперкомпьютерами. Она показала, что практически любой, кто располагает 5,2 миллионами долларов, способен создать вычислительную машину того масштаба, который необходим для исследований с высокопроизводительными вычислениями.

Что же было потом? Если говорить о судьбе самого System X, он продолжил и завершил свою карьеру вполне достойно. В 2004 году команда выпустила доработанную версию: заменила серверы и устранила проблему со сбоями из-за влияния космических лучей, которой кластеры были подвержены особенно сильно из-за большого числа микросхем памяти. Обновлённый суперкомпьютер сумел удержаться в первой десятке top500.org ему досталась седьмая строка. К концу того же года вышло ещё одно обновление (стоимостью около 600 000 долларов), которое позволило команде разогнать производительность до 12,25 терафлопс и выйти на четырнадцатое место в рейтинге 2005 года.

В последующие несколько лет позиции суперкомпьютера в общем рейтинге постепенно падали (до сорок седьмой в 2006 и двести восьмидесятой в 2008 году), однако он по-прежнему оставался одной из мощнейших машин, состоящих при университете. В 2012 году System X прекратил функционирование.

Что же касается революции в финансовой и логистической доступности суперкомпьютеров, едва ли можно сказать, что она состоялась. У System X было несколько последователей; так, уже к 2005 году появилась система Xseed от Государственного университета Боуи в Мэриленде, которая попала на сто восемьдесят восьмое место в мировом рейтинге. Политехнический университет также собрал по опробованной схеме вычислительный комплекс System G из трёхсот с лишним компьютеров Mac Pro. Однако, в общем и целом, полуфабрикатные суперкомпьютеры не стали массовым явлением возможно, виной тому ускоряющиеся темпы развития технологий или общая нерентабельность подобных предприятий в обычных условиях. Тем не менее, о том, что прецедент был, забывать нельзя возможно, когда-нибудь найдётся и другая предприимчивая группа энтузиастов.

На сегодняшний день история System X уже перестала быть примером для подражания, но по-прежнему привлекает интерес сообщества. Так, в этом году мы стали свидетелями разработки и релиза приложения Performance Index 64 от EcoComputers, JSC, которое не только измеряет мощность машины, но и позволяет оценить её в исторической перспективе. Основное назначение Performance Index 64 расчёт эффективности различных конфигураций 64-разрядных систем Mac по ряду параметров. В число параметров входит и производительность, измерение которой производится на базе всё того же теста HPL, применяющегося при составлении рейтинга суперкомпьютеров top500.org. Однако результат пользователь получает не только в гигафлопсах, но и в особых условных единицах G5 по этому показателю можно понять, насколько машина производительнее, чем базовая модель компьютера G5, которая была выпущена в 2003 году и стала основой для третьего по мощности суперкомпьютера в мире на тот момент.

Помимо этого, приложение позволяет провести аналогичный тест-сравнение системы пользователя и базовой конфигурации Mac Pro 7.1 на основе процессоров Intel. И, наконец, как логическое завершение измерение производительности машины пользователя в сравнении с новыми инновационными компьютерами Mac на базе чипа М1 (этот тест доступен при оформлении подписки). Таким простым способом разработчик даёт пользователю узнать, насколько мы продвинулись вперёд в вычислительных возможностях всего за пару десятилетий. А заодно и задаться вопросом, на что способны наши современные рабочие лошадки.
Подробнее..

Категории

Последние комментарии

  • Имя: Макс
    24.08.2022 | 11:28
    Я разраб в IT компании, работаю на арбитражную команду. Мы работаем с приламы и сайтами, при работе замечаются постоянные баны и лаги. Пацаны посоветовали сервис по анализу исходного кода,https://app Подробнее..
  • Имя: 9055410337
    20.08.2022 | 17:41
    поможем пишите в телеграм Подробнее..
  • Имя: sabbat
    17.08.2022 | 20:42
    Охренеть.. это просто шикарная статья, феноменально круто. Большое спасибо за разбор! Надеюсь как-нибудь с тобой связаться для обсуждений чего-либо) Подробнее..
  • Имя: Мария
    09.08.2022 | 14:44
    Добрый день. Если обладаете такой информацией, то подскажите, пожалуйста, где можно найти много-много материала по Yggdrasil и его уязвимостях для написания диплома? Благодарю. Подробнее..
© 2006-2024, personeltest.ru