Русский
Русский
English
Статистика
Реклама

Ati

Перевод Как работает рендеринг 3D-игр сглаживание с помощью SSAA, MSAA, FXAA, TAA и других методик

28.05.2021 10:14:13 | Автор: admin
image

3D-игры состоят из тысяч, если не миллионов разноцветных прямых линий и других рёбер. А из-за того, как происходит их обработка для вывода на экран, эти линии иногда могут выглядеть изломанными и искажёнными. В пятой части нашего исследования рендеринга в 3D-играх мы расскажем, какие методики используются для сглаживания рёбер миров, в которые мы играем. Хорошие новости на этот раз математики будет не так много!

Часть 1: обработка вершин

Часть 2: растеризация и трассировка лучей

Часть 3: текстурирование и фильтрация текстур

Часть 4: освещение и тени

Кто виноват


С математической точки зрения, искажение возникает при преобразовании непрерывного сигнала в дискретный набор значений при помощи сэмплирования. Растеризация прямых или искривлённых линий вызывает пространственные искажения эти геометрические формы, по сути, состоят из бесконечного количества точек между двумя точками пространства, и их отображение при помощи фиксированного количества пикселей всегда приводит к аппроксимации этой линии вне зависимости от количества используемых пикселей.

Так как пикселизированная версия линии больше не является истинной линией, её перемещение или размещение рядом с другими фигурами создаёт множество визуальных артефактов, которые мы и называем искажениями (aliasing).

Можно задаться вопросом, действительно ли нужен этот процесс, но он возник из необходимости: отрендеренное изображение должно отображаться на экране. Из чего бы он ни был собран, будь то электронно-лучевая трубка, жидкокристаллический дисплей, или плазменная панель, этот экран отрисовывает изображение при помощи массива разноцветных элементов.


Разрешения 10 x 7 пикселей не совсем хватает для отображения этого треугольника без искажений

Некоторые сигналы меняются не в пространстве, а во времени, и здесь мы тоже получаем искажения при сэмплировании с заданными интервалами. Например, для преобразования аналоговой аудиодорожки в цифровую требуется измерять уровень звука через определённые доли секунды (допустим, в случае CD audio это каждые 0,02 миллисекунды).

Различия между сигналом, созданным из сэмпла, и оригинальным сигналом создают временные искажения, с которыми обычно справляются благодаря повышению частоты сэмплирования. Но что если сигнал на самом деле является последовательностью движений? Когда мы следим за реальным миром, окружающие нас предметы движутся без дискретности, поэтому когда это движение преобразуется в поток снимков, получаются искажения.

В мире кинематографа это приводит к странно выглядящим движениям, например, колёса автомобиля как будто вращаются в обратном направлении. Это проявляется и в 3D-графике, когда частота кадров рендеринга сцены недостаточна для полной передачи движения объектов и персонажей, из-за чего края выглядят размытыми или зазубренными; последний дефект усугубляется пространственным искажением.

Хотя методики, используемые для решения этих проблем, имеют общее название anti-aliasing (AA), способы их решения в фильмах совершенно отличаются от способов в 3D-игре. В последних применяется множество методик, имеющих всевозможные названия. Но прежде чем мы приступим к общему обзору самых популярных алгоритмов, давайте поговорим о разрешении кадра и частоте кадров.

Зачем? Потому, что если бы и то, и другое было чрезвычайно велико, то искажение не представляло бы проблемы. Если взять старый бенчмарк, например 3DMark03, и запустить его на современной системе, то мы сможем сфокусироваться исключительно на пространственных искажениях.


Показанное выше изображение, взятое из первого теста Wings of Fury, сделано с разрешением 1280 x 720 пикселей. Четырнадцать лет назад, когда лучшими графическими картами были ATI Radeon 9800 XT и Nvidia GeForce FX 5900 Ultra, самые большие мониторы имели разрешение примерно 1600 x 1200, поэтому разрешение теста можно считать примерно низким или средним разрешением (сродни современному 1080p).


Но взглянув на крылья самолётов, можно чётко увидеть искажения, и особенно заметны они в движении. Большой контраст между цветом пикселей крыла и фона из неба и облаков создаёт мерцание при перемещении самолёта.

В этом следует винить относительно низкую степень сэмплирования, поэтому логичнее всего будет её увеличить; давайте теперь рассмотрим ту же сцену в 4K (3840 x 2160 пикселей).


Края крыльев стали заметно плавнее, но если увеличить изображение, то мы увидим, что искажения всё равно присутствуют. Можно продолжать увеличивать разрешение вплоть до того, что искажения невозможно будет разглядеть, но это имеет свою цену.

Если в коде не написано иное, обычно обработке должен подвергаться каждый пиксель растра: для вычисления окончательного цвета накладывается множество текстур и выполняется вычисление кучи шейдеров. В большинстве игр это является узким местом, поэтому частота кадров имеет обратную зависимость от разрешения растра.

В случае такой старой программы, как 3DMark03, на современном PC переход от 1280 x 768 к 3840 x 2160 снизил среднюю частоту кадров с 1670 до 1274 FPS, то есть увеличение количества пикселей на 740% снизило производительность всего на 24%. Однако в более новых программах ситуация будет иной.

Это легко продемонстрировать, запустив современный 3DMark при различных разрешениях; на графике ниже показана средняя частота кадров первого теста графики в бенчмарке Time Spy.


Переход с 720p на 4K это повышение разрешения на 800%, но частота кадров упала на 81%. Хотя игры могут и не демонстрировать этот паттерн в точности, но современные AAA-игры не очень от него отличаются. Это говорит нам, что если мы хотим максимально снизить влияние искажений, нам нужен способ получше, чем повышение разрешения растра чем ниже частота кадров, тем хуже становятся временные искажения.

К сожалению, первый алгоритм, разработанный для устранения пространственного искажения, делал именно это, но прежде чем мы приступим к его рассмотрению, надо указать на его особенности, о которых мы поговорим в этой статье. Техники устранения искажений многие годы разрабатывались независимыми научными исследователями, а также разработчиками систем в компаниях наподобие ATi, Intel и Nvidia.

Из-за отсутствия центральной организации, определяющей терминологию, существует большое разнообразие названий. Поэтому мы будем использовать самые общие названия алгоритмов, а также расскажем, как работают лежащие в их основе техники. У каждой из них есть множество модифицированных и расширенных версий со своими названиями.

Supersampling anti-aliasing (SSAA)


Этот способ, часто называемый также full scene anti-aliasing самый старый и простой из всех. Он заключается в рендеринге сцены с повышенным разрешением, с последующим сэмплированием и смешением результата в меньшее количество пикселей. Например, монитор может иметь максимальное разрешение 1920 x 1080, но игра рендерится с разрешением 3840 x 2160, а затем картинка масштабируется и передаётся на экран.

В качестве паттерна сэмплирования обычно используются ближайшие соседние пиксели (по сути, окружающий пиксель квадрат), а математика смешивания заключается в простом арифметическом усреднении сэмплов.

Разумеется, мощности современных GPU позволяют использовать более сложные алгоритмы сэмплирования и смешения. Но давайте вкратце рассмотрим, как это работает. На изображении ниже показано действие классического 4x SSAA. 4x означает, что вычислением арифметического среднего смешивается вместе 4 сэмпла (также называемых taps) для получения окончательного цвета. Для этого растровое разрешение увеличивается по каждой из осей в два раза.


Заметили, что сэмплы в этом примере расположены точно в центрах пикселей? Так как сами пиксели имеют дискретную площадь, позиции сэмплов можно установить в любой точке этой области. Много лет назад AMD и Nvidia экспериментировали со всевозможными паттернами сэмплирования для обеспечения наилучшего сглаживания.

Описанный выше паттерн и способ смешения называется box filter, однако существует его популярное улучшение с использованием повёрнутой сетки позиций сэмплов (RGSS). Проблема SSAA заключается в том, что все эти дополнительные пиксели необходимо обрабатывать, и как мы видели из тестов 3DMark, повышение разрешения растра запросто может сильно снизить частоту кадров.

По большей части суперсэмплирование можно заменить более эффективными алгоритмами, однако оно обрело новую жизнь в качестве параметра драйверов графических карт AMD и Nvidia. AMD называет свою технологию Virtual Super Resolution (VSR), а Nvidia Dynamic Super Resolution (DSR).

Их можно использовать для включения сглаживания в некоторых старых играх без встроенных систем сглаживания, или для улучшения уже имеющейся в игре системы.

Multisample anti-aliasing (MSAA)


Этот способ возник как результат работы исследовательских лабораторий Silicon Graphics в начале 90-х. По сути, это SSAA, но применённая только там, где это на самом деле нужно. Ну, на самом деле, внутри технологии есть не только это, но такое объяснение поможет вам понять, как работает алгоритм.

Основное преимущество суперсэмплирования одновременно является и проблемой, потому что сглаживается всё: края примитивов, плоские текстурированные поверхности, прозрачные полигоны, всё сразу. Учитывая то, что фильтрация текстур уже обработала то, что находится внутри треугольников рендеринга, нам нужна система, применяемая только к рёбрам, потому что они создают наиболее заметную проблему искажений.

Но как это сделать? Оказывается, что необходимая для этого информация уже есть. Когда 3D-мир вершины преобразуется в 2D-плоскость растра, пиксели, создающие форму всевозможных разных примитивов в сцене, содержат не только информацию о цвете и текстурах, но и глубину.


Эту информацию можно сохранить в z-буфер (иногда называемый буфером глубин), а затем использовать для определения видимости рёбер. В приведённом выше примере простой примитив расположен передней поверхностью к камере, поэтому значения глубин центров соответствующих пикселей определить легко: белый это фон, чёрный примитив.

Так как GPU могут получать дополнительные сэмплы внутри пикселя, можно создать версию чёрно-белой сетки из квадратиков в более высоком разрешении. Мы снова просто фиксируем глубину примитива в позициях сэмплов, а готовый результат будет выглядеть примерно так:


Обратите внимание, как множественные сэмплы (multiple samples, вот отсюда и взялось название технологии) дают нам более точную карту глубин примитива. А теперь начинается хитрость. Сохранив эту подробную карту глубин, мы возвращаемся к кадру с исходным разрешением и выполняем все нужные шейдеры для получения окончательного цвета.

Потом мы возвращаемся к детализированному буферу глубин и каждому пикселю, находящемуся внутри примитива (т.е. чёрному), назначаем выходной цвет шейдера. Очевидно, что его нужно где-то хранить, поэтому необходимо создать ещё один буфер высокого разрешения, или же отдельный, но относительно малый буфер для каждой точки сэмпла в пикселе.

Затем, как и в случае с SSAA, мы сэмплируем и смешиваем детализированный буфер, приводя его к требуемому разрешению, и всё! Мы получили кадр без искажений. С точки зрения производительности, мы выполняли пиксельные шейдеры только для относительно малого количества точек, но для этого нам понадобилось создать и хранить пару буферов высокого разрешения.

Поэтому для multisample anti-aliasing требуется много видеопамяти и широкий канал передачи данных (плюс возможность быстрого считывания/записи в z-буферы), зато эта методика не требует большой вычислительной нагрузки на шейдеры. Давайте воспользуемся старым примером кода AMD, чтобы посмотреть, как она выглядит и чем отличается от SSAA.


Код запускает сцену с простыми текстурами и освещением, но со множеством геометрии, поэтому искажения на её рёбрах бросаются в глаза намного сильнее. В верхнем левом углу есть любопытная информация для рендеринга каждого кадра в среднем требуется 0,18 миллисекунд, а для смешивания в окончательный результат всего 0,02 мс. Буфер цвета (тот, который мы видим) занимает 7,4 МБ, как и буфер глубин.

Также можно приблизить отдельные области картинки, чтобы увидеть всю ужасность искажений. Не забывайте, что мы могли бы отрендерить всё это в более высоком разрешении, но это просто увеличит время рендеринга. Но если мы применим к сцене 4x SSAA, то именно это и произойдёт.


Обратите внимание, что в представленном выше изображении время рендеринга увеличилось до 0,4 мс (рост на 122%), а время смешивания (под названием Resolve) удвоилось. Кроме того, размер буферов цвета и глубин увеличился в четыре раза. Такова цена использования SSAA, и хотя любой современный GPU с лёгкостью справится с этой сценой, в новых 3D-играх ситуация окажется ужасной.

Однако посмотрите на увеличенную часть изображения. Заметили, насколько более гладкими стали линии? Да, в изображении ещё довольно много искажений, но оно заметно лучше. Вот если бы эта техника была не такой затратной! Ну, несколькими нажатиями мы можем переключиться на MSAA, и посмотреть, что изменится.


Показатели времени рендеринга сцены почти вернулись к тем, когда не применялось сглаживание, что хорошо, однако ещё больше стало время смешивания. Общий занятый объём памяти тоже находится примерно посередине между отсутствием AA и 4xSSAA, поэтому, похоже, что MSAA определённо стоит использовать.

Даже искажения на рёбрах примитивов кажутся меньшими, однако это больше связано с использованным паттерном сэмплирования, а не с самим принципом работы MSAA. На самом деле, если посмотреть на текстуру стены в увеличенной области, становится очевидным один недостаток multisample AA.

SSAA улучшает всё, а MSAA влияет только на рёбра полигонов, и хотя для статических изображений это не так важно, движение обычно делает разницу между сглаженными линиями и размытыми текстурами чуть более заметной. Ещё одна проблема заключается в том, что алгоритм плохо сочетается с отложенным рендерингом и хотя эту проблему можно обойти, все способы её решения имеют свою цену с точки зрения производительности.

Что же делать, если методики supersampling и multisampling anti-aliasing неидеальны?

Fast approximate anti-aliasing (FXAA)


В 2009 году Nvidia представила другой способ улучшения изломанных краёв фигур в 3D-сцене. SSAA пользуется исключительно грубой силой, MSAA аппаратными функциями и трюками в коде. FXAA спроектирована так, чтобы выполняться исключительно через шейдеры. После появления этой методики её несколько раз совершенствовали и сегодня она активно применяется в играх.

Код выполняется как этап постобработки (т.е. после завершения большинства операций рендеринга, но до наложения элементов наподобие интерфейса), обычно в виде единственного пиксельного шейдера. Первоначальная версия алгоритма работала так: сначала сэмплируем буфер, содержащий отображаемое изображение, и преобразуем sRGB в линейную оценку яркости этого пикселя (это величина количества света, проходящего через заданную площадь в указанном направлении).

Эта часть шейдера состоит всего из нескольких строк, она даже может использовать зелёный канал для вычисления уровня освещения. Зачем ему это нужно? На следующем этапе шейдера выполняется проверка относительного контраста пикселей, окружающих сэмплируемый пиксель если разница велика, то это место с большой вероятностью является ребром.


Последовательность выполнения FXAA: нахождение пикселей на рёбрах, определение ориентации, их сдвиг, размытие готового изображения.

Пиксели, прошедшие тест, проходят ещё одну проверку для определения ориентации ребра. После его вычисления пара пикселей (под углом 90 к ребру), имеющая максимальную разность яркости, используется для сканирования вдоль ребра для поиска его концов. Они определяются по достаточно большому изменению средней яркости этой пары пикселей.

После того, как будут полностью определены все рёбра, все позиции пикселей вдоль этих рёбер сдвигаются: вверх или вниз в случае горизонтальных рёбер, или в стороны для вертикальных. Они сдвигаются на крошечную величину, настолько малую, что новая позиция находится в пределах площади исходного пикселя. После такого незначительного размазывания на основании новых точек сэмплируется исходный буфер кадров пиксели внутри примитивов останутся на прежнем месте, а те, которые задают ребро, будут изменены, способствуя снижению влияния искажений.

FXAA имеет серьёзные преимущества по сравнению с SSAA и MSAA. Во-первых, это настолько простой фрагмент кода, что его способен выполнить практически любой GPU; даже дешёвые модели способны выполнить эту процедуру всего за несколько миллисекунд.

Во-вторых, она сглаживает все рёбра, а не только периметры фигур. Например, текстуры с прозрачностью (часто используемые для дыма, мусора и листвы) будут сглажены, на что MSAA не способна.


Без AA (слева) и FXAA (справа) обратите внимание, что деревья и элероны крыла выглядят намного плавнее

А какие недостатки есть у этой методики? Если в кадре есть множество областей с высокой контрастностью, например, с яркими пикселями на тёмной фоне, они смешиваются, вне зависимости от необходимости.

Точность этого способа не так высока, как у SSAA или MSAA, потому что он не может передавать субпиксельные детали по сути, это просто хитрый фильтр, который может создавать довольно бесформенно выглядящие текстуры. Но благодаря своей малозатратности и создаю достаточно эффективных результатов, FXAA по-прежнему используется спустя 12 лет, хотя и в переработанном виде.

Существуют и другие полноэкранные алгоритмы поиска рёбер. Источником вдохновения для разработчиков FXAA стало созданная Intel Morphological anti-aliasing (MLAA); эта методика была усовершенствована разработчиком игр Crytek и испанским Университетом Сарагосы, которые дали ей название Enhanced Sub-pixel MLAA (сокращённо SMAA).

Лучше всего во всех этих методиках то, что, в отличие от SSAA и MSAA, их можно постоянно обновлять и модифицировать, подстраивая под конкретные приложения или игры.

Temporal anti-aliasing (TAA)


Пока мы рассматривали только методики для устранения визуального влияния пространственных искажений. Для борьбы с временными искажениями (temporal aliasing), возникающими из-за того, что 3D-игры генерируют дискретные сэмплы непрерывного движения, чаще всего используется следующий алгоритм.

Мы начинаем с рендеринга кадра и его отображения; однако также мы сохраняем значения пикселей в блок памяти, называемый буфером истории (history buffer). Затем рендерер переходит к следующему кадру последовательности и обрабатывает его, но перед его отображением сэмплирует буфер истории, а результаты сэмплирования смешиваются с текущим кадром. Затем в буфер истории сохраняется этот результат, скопированный для создания окончательного изображения, а готовый буфер помечается как готовый для отображения на мониторе.


Общая схема временного сглаживания.

Все последующие кадры подвергаются тому же паттерну: рендеринг, сэмплирование буфера истории, смешивание, обновление и отображение. Накопление идущих по порядку кадров обеспечивает сглаживание всей сцены в движении от кадра к кадру, и мы получаем красивое изображение без временных искажений.

Однако если бы он делал только это, то алгоритм был довольно бесполезным например, если между кадрами отсутствуют изменения, то смешивание ничего не исправит. Чтобы обойти эту проблему, каждый кадр изначально рендерится со случайным смещением камеры на крошечную величину (называемую субпиксельными колебаниями). Затем чуть смещённые позиции пикселей используются для сэмплирования буфера истории, после чего колебания устраняются для завершения обработки кадра.

Следовательно, когда дело доходит до смешивания значений из буфера истории с текущими, мы почти всегда получаем слегка отличающиеся сэмплируемые субпиксельные позиции, что повышает степень сглаживания.


Самый популярный алгоритм TAA.

Временное сглаживание (Temporal AA) может создавать избыточное размытие, а также проблему под названием ghosting, при которой края движущихся объектов выглядят размазанными, а не смягчёнными.

Для решения этой проблемы используется методика с вычислительным шейдером, рассчитывающим движение векторов объектов, сохраняющим информацию в память (буфер скоростей), а затем сравнивающим относительные скорости текущих пикселей с сэмплированными если они сильно различаются, то сэмпл истории не используется.

Кроме использования значений скоростей, большинство реализаций алгоритма TAA выполняют ещё один процесс проверки сэмплов истории; это не позволяет использовать значения из предыдущих кадров, не относящиеся к текущему кадру (например, они могут оказаться скрытыми за сдвинувшимся объектом). В этой методике обычно используется ограничивающий параллелепипед, выровненный по координатным осям (axis-aligned bounding box, AABB), в котором по осям отложена хроматичность буфера истории; она отсекает все пиксели, имеющие цвет за пределами этих границ.

В окончательное смешивание истории и текущих пикселей тоже можно добавить веса, используя сравнительные значения цвета, яркости или скорости; наконец, во время последнего копирования обновлённого буфера истории для отображения можно применять различные фильтры размытия, ещё больше снижающие ghosting.


Без AA (слева) и TAA (справа) обратите внимание на размытие деталей на крыле

Для разработчиков кодировать всё это значительно сложнее, чем добавить в игру SSAA или MSAA. Но современные GPU способны быстро вычислять все необходимые шейдеры; в то время как алгоритмы supersampling и multisampling для каждого кадра требуют множества сэмплов, TAA, по сути, распределяет эти сэмплы на несколько кадров. Это означает, что в играх, не сильно ограниченных объёмом вычисляемых шейдеров, TAA можно реализовать ценой относительно малого снижения производительности.

Кроме того, TAA хорошо работает с отложенным освещением и может использоваться с аналогами FXAA и SMAA, что приводит к ещё большему улучшению графики. К сожалению, эта методика подвержена чрезмерному размытию и возникновению артефактов мерцания вдоль рёбер с высокой контрастностью. Однако вычислительная мощь GPU, похоже, ещё долго не выйдет на плато, и подобные техники можно совершенствовать, используя более сложные методы определения способа сэмплирования и проверки буфера истории.

И это ещё не всё!


Четыре описанные выше методики, особенно FXAA и TAA, активно используются в играх для PC и консолей. Но есть и множество других алгоритмов.

Например, когда Nvidia выпустила серию графических карт GeForce 9, то объявила и о создании модифицированной версии MSAA под названием Multi-Frame Sampled Anti-aliasing (MFAA). По сути, GPU изменяет паттерн сэмплирования с каждым последующим кадром, то есть на кадр приходится меньшее количество создаваемых и смешиваемых сэмплов.


Среднее от нескольких кадров и создаваемый эффект практически такие же, как при обычном MSAA, но с меньшим снижением производительности. К сожалению, этот алгоритм можно реализовать в играх, разрабатываемых под руководством Nvidia, и он недоступен во всех проектах. Однако он всё равно существует и его можно включить в панели управления драйвером GeForce.

Позже этот разработчик GPU вложил значительные ресурсы в разработку алгоритма сглаживания с использованием искусственного интеллекта под названием Deep Learning Super Sampling (DLSS), впервые появившегося в 2018 году вместе с выпуском чипов Turing.

В первой версии DLSS компания Nvidia должна была обучать нейросеть глубокого обучения (DNN) на конкретных играх сравнением кадров низкого разрешения с кадрами в высоком разрешении со включенным SSAA. Современная версия использует более обобщённую сеть и получает дополнительную информацию в виде векторов движения для определения того, как должен выглядеть кадр, как если бы он рендерился с более высоким разрешением.


Хотя основное преимущество DLSS заключается в повышении производительности (например, рендеринг выполняется при 1080p, но нейросеть повышает разрешение до 1440p), система, по сути, применяет AA, потому что её целевыми данными является изображение.

AMD сейчас работает над собственной версией такой системы и после её выпуска мы можем наконец увидеть, как алгоритмы AA с глубоким обучением постепенно заменяют традиционные, но пока этого не случилось. Такие системы реализовать не проще, чем, допустим, TAA, а визуальные результаты не всегда идеальны.

Исследования более совершенных техник сглаживания продолжаются, но мы и так уже проделали длинный путь со времён Riva TNT и Half-Life, когда нам приходилось мириться с зазубренными полигонами, потому что на их устранение не хватало производительности.

Итак, когда в следующий раз вы будете настраивать параметры графики в новой игре и увидите различные варианты доступных способов AA, поблагодарите про себя инженеров и программистов, придумавших всё это.
Подробнее..

Перевод Расцвет, падение и возрождение AMD

15.07.2020 14:22:53 | Автор: admin
image

AMD один из старейших производителей массовых микропроцессоров, в течение почти пятидесяти лет остающийся темой ожесточённых споров фанатов технологий. История компании превратилась в захватывающее повествование, полное героических успехов, отчаянных ошибок и близости разорения. Пока другие полупроводниковые компании возникали и уходили, AMD выдержала множество бурь и сразилась во множестве битв в залах заседаний, судах и на полках магазинов.

В этой статье мы расскажем о прошлом компании, изучим её извилистые пути к современному состоянию и спрогнозируем, что же ждёт дальше этого ветерана Кремниевой долины.

Поход за славой и богатством


Чтобы начать нашу историю, нужно вернуться назад во времени и отправиться в Америку конца 1950-х. Страна, расцветшая после тяжёлых лет Второй мировой, стала местом передовых технологических инноваций.

Такие компании, как Bell Laboratories, Texas Instruments и Fairchild Semiconductor, нанимали лучших инженеров и одна за другой выпускали продукты, становившиеся первыми в своей области: биполярный транзистор, интегральная схема, MOSFET (МОП-транзистор).


Инженеры Fairchild, примерно 1960 год: слева Гордон Мур, на переднем плане в центре Роберт Нойс

Эти молодые специалисты хотели изучать и разрабатывать ещё более удивительные продукты, но из-за опасливого высшего руководства, помнящего ещё те времена, когда мир вселял страх и был нестабильным, у инженеров возникло желание попробовать счастья самим.

Поэтому в 1968 году два инженера Fairchild Semiconductor, Роберт Нойс и Гордон Мур, уволились из компании и пошли своей дорогой. Тем летом появилась N M Electronics, которую спустя всего неделю переименовали в Integrated Electronics, или Intel, для краткости.

За ними последовали другие, и менее чем год спустя ещё восемь человек ушли из Fairchild, вместе организовав собственную компанию по разработке и производству электроники: Advanced Micro Devices (естественно, это была AMD).

Группу возглавил бывший директор по маркетингу Fairchild Джерри Сандерс. Они начали с перепроектирования продуктов Fairchild и National Semiconductor, не пытаясь напрямую конкурировать с компаниями наподобие Intel, Motorola и IBM (которые тратили значительные суммы на исследования и разработки новых интегральных схем).

Начав так скромно, всего за несколько месяцев AMD, перебравшаяся из Санта-Клары в Саннивейл, приступила к созданию продуктов, которые могли похвастаться повышенной эффективностью, устойчивостью к нагрузкам и высокой скоростью. Эти микрочипы разрабатывались таким образом, чтобы соответствовать стандартам качества Вооружённых сил США, что обеспечило компании значительное преимущество во всё ещё молодой компьютерной индустрии, где надёжность и стабильность производства сильно варьировались.


Первый процессор-копия AMD Am9080. Изображение: Wikipedia

К моменту выпуска Intel в 1974 году первого 8-битного микропроцессора (8008), AMD уже была открытой акционерной компанией с портфолио из более чем 200 продуктов, четверть из которых была её собственными конструкциями, в том числе чипами ОЗУ, логическими счётчиками и регистрами сдвига. В следующем году появилось множество новых моделей: собственное семейство интегральных схем (ИС) Am2900 и 2-мегагерцовый 8-битный процессор Am9080 клон потомка Intel 8008, полученый реверс-инжинирингом. Последний был набором компонентов, которые сегодня полностью интегрированы в CPU и GPU, но 35 лет назад арифметико-логические устройства и контроллеры памяти оставались отдельными чипами.

Вопиющий плагиат архитектуры Intel по современным стандартам может показаться довольно шокирующим, но он вполне соответствовал эпохе зарождения микрочипов. Позже процессор-клон был переименован в 8080A, потому что AMD и Intel подписали в 1976 году соглашение о перекрёстном лицензировании. Можно было бы предположить, что оно стоило копейки, но его цена составила 325 тысяч долларов (1,65 миллиона по современным ценам).

Эта сделка позволила AMD и Intel заполонить рынок ужасно выгодными чипами, продававшимся чуть дороже 350 долларов (для моделей военного уровня цена была вдвое большей). В 1977 году появился процессор 8085 (3 МГц), за которым вскоре последовал 8086 (8 МГц). Усовершенствования в конструкции и производстве привели к появлению в 1979 году 8088 (от 5 до 10 МГц); в том же году началось производство на предприятии AMD в Остине, штат Техас.

Когда IBM начала 1982 году переход от мейнфреймов к нак называемым персональным компьютерам (PC), компания решила отдать создание устройств на аутсорс, а не производить их самостоятельно. Для этого был выбран первый процессор x86 компании Intel под названием 8086; при этом оговаривалось, что AMD будет являться вторичным поставщиком, чтобы гарантировать непрерывность поставок процессоров для IBM PC/AT.


Покупатель мог выбрать любой цвет, при условии, что это бежевый. IBM 5150 PC образца 1981 года

В феврале того же года был подписан контракт между AMD и Intel, по которому первая получала право на создание процессоров 8086, 8088, 80186 и 80188 не только для IBM, но и для множества клонов IBM (одним из них был Compaq). Ближе к концу 1982 года AMD также начала изготавливать 16-битный Intel 80286, получивший маркировку Am286.

Позже он станет первым действительно значимым процессором для настольных PC, и хотя модели Intel обычно имели частоту от 6 до 10 МГц, AMD начала с 8 МГц и достигла целых 20 МГц. Без сомнения, это ознаменовало начало битвы за доминирование на рынке CPU между двумя мощными силами Кремниевой долины: то, что Intel разрабатывала, AMD пыталась усовершенствовать.

В этот период произошёл огромный рост молодого рынка PC, поэтому обратив внимание на то, что AMD предлагала Am286 со значительно увеличенной по сравнению с 80286 скоростью, Intel попыталась остановить AMD. Она достигла этого, отказав ей в получении лицензии на следующее поколение процессоров 386.

AMD подала иск, но для завершения разбирательств потребовалось четыре с половиной года. И хотя суд постановил, что Intel не обязана передавать каждый новый продукт AMD, было принято решение о нарушении компанией Intel подразумевавшейся презумпции добросовестности.

Intel отказалась от предоставления лицензии в критический период, как раз в тот момент, когда рынок IBM PC увеличился с 55% до 84%. Оставшись без доступа к спецификациям новых процессоров, AMD потратила более пяти лет на реверс-инжиниринг 80386, чтобы выпустить его под названием Am386. После выпуска процессора он снова доказал, что превосходит модель Intel. Оригинальный 386 был выпущен в 1985 году с частотой всего 12 МГц, а позже смог достичь 33 МГц, а самая мощная версия Am386DX появилась в 1989 году, имея частоту 40 МГц.


За успехом Am386 последовал выпуск в 1993 году очень привлекательного Am486 на 40 МГц, обеспечивавшего приблизительно на 20% больше производительности, чем Intel i486 на 33 МГц, имея при этом ту же цену. Ситуация повторялась для всей линейки 486: Intel 486DX достиг максимума в 100 МГц, однако AMD предлагала более быструю альтернативу на 120 МГц. Чтобы лучше проиллюстрировать успехи AMD в тот период, скажем, что доход компании удвоился: с 1 миллиарда долларов в 1990 году до двух с лишним миллиардов в 1994 году.

В 1995 году AMD выпустила процессор Am5x86 в качестве наследника 486, позиционируя его как апгрейд для старых компьютеров. Am5x86 P75+ мог похвастаться частотой 150 МГц, а маркировка P75 означала, что по производительности он сравним с Intel Pentium 75. Знак "+" означал, что чип AMD был чуть быстрее в целочисленной математике, чем его конкурент.

В ответ на это Intel изменила маркировку своей продукции, чтобы дистанцироваться от конкурентов и других изготовителей. Am5x86 обеспечил AMD значительный доход, как в новых продажах, так и в апгрейдах машин с процессорами 486. Как и в случае с Am286, 386 и 486, AMD продолжила наращивать рыночную долю своих изделий, позиционируя их как встроенные системы.

В марте 1996 года состоялся выпуск первого процессора, целиком разработанного инженерами AMD: 5k86, позже переименованного в K5. Чип должен был конкурировать с Intel Pentium и Cyrix 6x86, поэтому правильная реализация проекта была критически важной для AMD он должен был получить гораздо более мощный математический сопроцессор для обработки чисел с плавающей запятой, чем у Cyrix, примерно равный по производительности сопроцессору Pentium 100, в то время как целочисленная производительность должна была достичь уровня Pentium 200.


Снимок кристалла K5 в условном цвете. Изображение: Wikipedia

В конечном итоге шанс был потерян, потому что проект страдал от архитектурных и производственных проблем. В результате этого процессоры не достигли требуемых частот и производительности, появившись на рынке позже, из-за чего получили низкие объёмы продаж.

К тому времени AMD потратила 857 миллионов долларов на NexGen, небольшую компанию-проектировщика чипов, не имевшую собственных производственных мощностей. Процессоры этой компании изготавливала IBM. AMD K5 и находившийся в разработке K6 испытывали проблемы масштабирования до более высоких тактовых частот (от 150 МГц и выше), а NexGen Nx686 уже демонстрировал скорость ядра в 180 МГц. После покупки компании процессор Nx686 превратился в AMD K6, а проект разработки оригинального чипа отправился на свалку.


В K6-2 появился набор инструкций AMD 3DNow!, построенный по принципу SIMD (single instruction, multiple data одиночный поток команд, множественный поток данных).

Рост AMD отразил спад Intel, начавшийся с появления архитектуры K6, конкурировавшей с Intel Pentium, Pentium II и Pentium III. Благодаря K6 движение к успеху AMD ускорилось; за это стоит отдать должное уму и таланту бывшего сотрудника Intel Виноду Дхаму (отца Pentium), в 1995 году ушедшего из Intel в NexGen.

Когда в 1997 году K6 появился на полках, он представлял собой вполне достойную альтернативу Pentium MMX. K6 шёл от победы к победе от 233 МГц в первой модели к 300 МГц в ревизии Little Foot января 1998 года, за которыми последовали 350 МГц в Chomper K6-2 (май 1998 года) и поразительные 550 МГц в ревизии Chomper Extended (сентябрь 1998 года).


В K6-2 появился набор инструкций AMD 3DNow!, построенный по принципу SIMD. По сути своей он был таким же, как и Intel SSE, однако обеспечивал более простой доступ к функциям обработки чисел с плавающей запятой процессора; недостаток этого заключался в том, что программистам приходилось встраивать новую команду в каждый новый код; кроме того, для использования этой функции необходимо было переписывать патчи и компиляторы.

Как и первый K6, процессор K6-2 являлся гораздо более выгодной покупкой, чем конкурент, и часто стоил в два раза дешевле, чем чипы Intel Pentium. Последняя версия K6, названная K6-III, была более сложным процессором, количество транзисторов в котором увеличилось до 21,4 миллиона (в первом K6 8,8 миллиона, в K6-II 9,4 миллиона).

В него была встроена функция AMD PowerNow!, динамически изменявшая скорость в соответствии с нагрузкой. K6-III, тактовая частота которого со временем достигла 570 МГц, был довольно дорог в производстве и имел довольно короткий срок жизни, уменьшенный появлением K7, который лучше подходил для конкуренции с Pentium III и последующими моделями.


1999 год стал зенитом золотой эпохи AMD появление процессора K7 под брендом Athlon показало, что теперь её продукция не является более дешёвой клонированной альтернативой.

Процессоры Athlon, частота которых начиналась с 500 МГц, устанавливались в новый Slot A (EV6) и использовали новую внутреннюю системную шину, лицензированную у DEC. Она работала на частоте 200 МГц, значительно превосходя шину в 133 МГц, которую использовала Intel. В июне 2000 года появился Athlon Thunderbird ЦП, который многие хвалили за его разгоняемость; он обладал встроенной поддержкой модулей ОЗУ DDR и полнофункциональным кэшем Level 2 на чипе.


2 гигагерца 64-битной процессорной мощи. Изображение: Wikipedia

Thunderbird и его наследники (Palomino, Thoroughbred, Barton и Thorton) сражались с Pentium 4 на протяжении первых пяти лет нового тысячелетия, обычно имея меньшую цену, но всегда более высокую производительность. В сентябре 2003 года Athlon проапгрейдился благодаря выпуску K8 (кодовое имя ClawHammer), лучше известного как Athlon 64, потому что этот процессор добавил в набор команд x86 64-битное расширение.

Этот эпизод многими считается решающим моментом для AMD: стремление добиться мегагерцев любой ценой превратило архитектуру Netburst компании Intel в классический пример тупика разработки.

И прибыль, и операционные доходы были превосходными для такой относительно небольшой компании. Хоть её уровни доходов и не дотягивали до доходов Intel, AMD гордилась своим успехом и жаждала большего. Но когда находишься на самой вершине высочайших из гор, приходится прилагать максимальные усилия, чтобы оставаться там, иначе путь у тебя только один.

Потерянный рай


Не было какой-то конкретной причины, приведшей AMD к падению со своего высокого положения. Глобальный экономический кризис, внутренние ошибки руководства, плохое финансовое прогнозирование, головокружение от собственных успехов, удачи и оплошности Intel все они в той или иной мере сыграли свою роль.

Но давайте посмотрим, как складывалась ситуация в начале 2006 года. Рынок CPU был насыщен продуктами AMD и Intel, но у первой были такие процессоры, как выдающаяся серия Athlon 64 FX на основе K8. FX-60 это двухъядерный процессор частотой 2,6 ГГц, а FX-57 одноядерный, работавший на частоте 2,8 ГГц.

Оба процессора обгоняли все остальные продукты на рынке, что видно из обзоров того времени. Они были очень дорогими FX-60 в рознице продавался за тысячу с лишним долларов, но такую же цену имел и самый мощный процессор Intel 3,46-гигагерцовый Pentium Extreme Edition 955. Казалось, что AMD имеет преимущество и на рынке рабочих станций/серверов чипы Opteron обгоняли по производительности процессоры Intel Xeon.

Проблема Intel заключалась в архитектуре Netburst сверхглубокой структуре конвейера, для конкурентоспособности которой требовались очень высокие тактовые частоты, что в свою очередь повышало энергопотребление и тепловыделение. Архитектура достигла своего предела и больше не могла обеспечивать должный уровень, поэтому Intel закрыла её разработку и для создания наследника Pentium 4 обратилась к своей старой архитектуре процессоров Pentium Pro/Pentium M.


В рамках программы сначала был спроектирован Yonah для мобильных платформ, а затем, в августе 2006 года, двухъядерная архитектура Conroe для десктопов. Intel настолько сильно стремилась сохранить лицо, что оставила название Pentium только низкобюджетным моделям, заменив его на Core 13 лет доминирования бренда завершились в одно мгновение.

Переход к высокопроизводительному чипу с низким энергопотреблением идеально совпал с появлением множества рынков, и практически моментально Intel вернула себе корону, вырвавшись вперёд в производительности в секторе мейнстримных и мощных систем. К концу 2006 года AMD столкнули с пика максимальной производительности, но причиной её падения послужили катастрофические решения руководства.

За три дня до выпуска Intel Core 2 Duo компания AMD опубликовала заявление, полностью одобренное CEO Гектором Руисом (Сандерс отправился на покой за четыре года до этого). 24 июля 2006 года AMD заявила, что намеревается приобрести производителя графических карт ATI Technologies. Сделка стоила 5,4 миллиарда долларов (4,3 миллиарда наличными средствами и займами, 1,1 миллиарда было получено от продажи 58 миллионов акций). Эта сделка была большим финансовым риском, её сумма составила 50% рыночной капитализации AMD, и хотя такая покупка имела смысл, цена совершенно её не оправдывала.

ATI была чрезвычайно переоценена, потому что (как и Nvidia) совершенно не обеспечивала подобный уровень доходов. У ATI также не было производственных мощностей, её цена почти полностью состояла из интеллектуальной собственности.

Со временем AMD признала свою ошибку, зафиксировав понижение своей цены на 2,65 миллиардов из-за переоцененной стоимости ATI.

Чтобы оценить недосмотр руководства, сравним эту ситуацию с продажей подразделения ATI под названием Imageon, занимавшегося графикой для портативных устройств. Оно было продано Qualcomm всего лишь за 65 миллионов. Теперь это подразделение называется Adreno (анаграмма слова Radeon) и её продукт стал интегральным компонентом SoC Snapdragon.

Xilleon, 32-битная SoC для цифровых телевизоров и телевизионных кабельных приставок, была продана Broadcom за 192,8 миллиона.


Кроме неосмотрительно потраченных денег, потребителей сильно разочаровал ответ AMD на обновлённую архитектуру Intel. Спустя две недели после выпуска Core 2 президент и исполнительный директор AMD Дирк Мейер объявил о завершении создания нового процессора AMD K10 Barcelona. Это стало решительным ходом компании на рынке серверов, потому что устройство представляло собой мощный четырёхъядерный процессор. Intel же в то время производила только двухъядерные чипы Xeon.

Новый чип Opteron с шумом появился в сентябре 2007 года, но он не смог украсть славу у Intel: компания официально завершила производство процессора, обнаружив баг, который в редких случаях мог приводить к зависаниям при вложенных записях в кэш. Несмотря на редкость возникновения, баг TLB положил конец производству AMD K10; со временем был выпущен патч BIOS, устранявший проблему на выпускаемых процессорах, хоть и ценой потери примерно 10% производительности. К моменту выпуска процессоров новой версии B3 stepping спустя 6 месяцев, ущерб уже был нанесён, как денежный, так и репутационный.

Годом позже, ближе к концу 2007 года, AMD вывела на десктопный рынок четырёхъядерный K10. К тому времени Intel вырвалась вперёд и выпустила знаменитый сегодня Core 2 Quad Q6600. Теоретически, K10 обладал более совершенной конструкцией все четыре ядра находились на одном кристалле, в отличие от Q6600, использовавшего два отдельных кристалла. Однако AMD с трудом удавалось достичь заявленных тактовых частот, и лучшая версия нового CPU имела частоту всего 2,3 ГГц. Процессор был медленнее, чем Q6600, хоть и на 100 МГц, зато оказался чуть дороже него.


Однако наиболее загадочным аспектом всего этого стало решение AMD о создании нового названия модели: Phenom. Intel перешла на Core, потому что Pentium стал синонимом чрезвычайно высокой цены и энергопотребления, имея при этом довольно низкую производительность. С другой стороны, всем компьютерным энтузиастам было хорошо известно название Athlon, и оно ассоциировалось со скоростью. Первая версия Phenom была не так уж плоха, просто оказалась не столь хороша, как Core 2 Quad Q6600, который уже присутствовал на рынке; кроме того, у Intel уже появились более быстрые продукты.

Это выглядело странным, но AMD, похоже, намеренно отстранялась от рекламы. Кроме того, компания совершенно не участвовала в программной части бизнеса; весьма любопытный способ ведения дел, не говоря уже о конкурентной борьбе в сфере полупроводников. Обзор этой эпохи в истории AMD был бы неполным без упоминания антиконкурентных шагов Intel. На этом этапе AMD приходилось бороться не только с чипами Intel, но и с действиями этой компании по продвижению монополии, в том числе плате OEM-производителям огромных средств (в сумме составивших миллиарды долларов), чтобы те активно противостояли использованию процессоров AMD в новых компьютерах.

В первой четверти 2007 года Intel заплатила Dell 723 миллиона долларов, чтобы остаться единственным поставщиком процессоров и чипсетов, что составило 76% от общего операционного дохода компании в 949 миллионов. Позже AMD выиграла в мировом соглашении 1,25 миллиарда; кажется, что это на удивление мало, но, вероятно, был учтён тот фактор, что когда Intel занималась своими кознями, сама AMD не могла продать достаточное количество процессоров своим покупателям.

Нельзя сказать, что Intel обязательно было всё это делать. В отличие от AMD, компания имела жёстко заданные цели, а также более широкое разнообразие продуктов и интеллектуальной собственности. Также она обладала несравнимыми ни с кем денежными резервами: к концу первого десятилетия века Intel удалось достичь выручки в более 40 миллиардов и 15 миллиардов операционных доходов. Это позволило выделить огромные бюджеты на маркетинг, исследования и разработку ПО, а также на производства, идеально подстроенные под собственные продукты и графики компании. Уже только эти факторы гарантировали, что AMD придётся бороться за свою долю на рынке.

Многомиллиардная переплата за ATI и сопутствующие проценты по кредиту, неудачный наследник K8 и проблемы с выпуском чипов на рынок были тяжкими ударами. Но вскоре ситуация должна была стать ещё хуже.

Один шаг вперёд, один вбок и несколько назад


В 2010 году мировая экономика продолжала бороться с последствиями финансового кризиса 2008 года. Несколькими годами ранее AMD отказалась от своего подразделения по разработке флеш-памяти вместе со всеми предприятиями по изготовлению чипов в конечном итоге они превратились в GlobalFoundries, которую AMD до сих пор использует для некоторых из своих продуктов. Было уволено примерно 10% сотрудников, и из-за всей этой экономии и вложения средств AMD пришлось умерить амбиции и целиком сосредоточиться на проектировании процессоров.

Вместо совершенствования дизайна K10 AMD приступила к созданию нового проекта, и ближе к концу 2011 года была выпущена новая архитектура Bulldozer. K8 и K10 были истинно многоядреными процессорами с одновременной многопоточностью (simultaneous multithreaded, SMT), а новая схема классифицировалась как кластерная многопоточность.


Четырёхмодульная структура Bulldozer. Изображение: Wikipedia

При разработке Bulldozer AMD решила использовать модульный подход каждый кластер (или модуль) содержал два целочисленных ядра, но они не были по-настоящему независимыми. У них имелись общие кэши L1 (команд) и L2 (данных), устройство получения/декодирования команд и блок обработки чисел с плавающей запятой. AMD зашла настолько далеко, что отказалась от названия Phenom и вернулась к дням славы Athlon FX, дав первым процессорам Bulldozer простое название AMD FX.

Смысл всех этих изменений заключался в уменьшении общего размера чипов и повышении их энергоэффективности. При уменьшении площади кристалла увеличивается количество изготавливаемых чипов, что приводит к повышению прибыли, а повышение энергоэффективности позволяет увеличить тактовые частоты. Кроме того, благодаря своей масштабируемости архитектура должна подойти для большего количества рыночных ниш.

Лучшая модель на момент выпуска в октябре 2011 года FX-8510 могла похвастаться четырьмя кластерами, но при маркетинге позиционировалась как 8-ядерный, 8-потоковый процессор. К тому времени процессоры обладали несколькими тактовыми частотами: базовая частота FX-8150 составляла 3,6 ГГц, а турбочастота 4,2 ГГц. Однако чип имел площадь 315 квадратных миллиметра и максимальное энергопотребление более 125 Вт. Intel уже выпустила Core i7-2600K: традиционный четырёхъядерный, 8-потоковый CPU, работавший на частоте до 3,8 ГГц. Он был значительно меньше нового чипа AMD, всего 216 квадратных миллиметров, и потреблял на 30 Вт меньше.

Теоретически, новый FX должен был доминировать, но его производительность оказалась довольно разочаровывающей иногда проявлялась его способность одновременной обработки нескольких потоков, однако однопотоковая производительность часто оказывалась не лучше, чем у линейки Phenom, несмотря на более высокие тактовые частоты.

AMD, вложившая миллионы в долларов в исследования и разработку Bulldozer, не собиралась отказываться от этой архитектуры, и в этот момент начала приносить плоды покупка ATI. В предыдущем десятилетии первый проект AMD комбинированного ЦП и GPU в одном корпусе под названием Fusion появился на рынке слишком поздно и оказался очень слабым. Но этот проект позволил AMD выйти на другие рынки. В начале 2011 года была выпущена ещё одна новая архитектура под названием Bobcat.


Чип AMD с совмещёнными CPU+GPU в PlayStation 4. Изображение: Wikipedia

Эта архитектура была нацелена на устройства с низким энергопотреблением: встроенные системы, планшеты и ноутбуки; её структура была диаметрально противоположной структуре Bulldozer: просто несколько конвейеров и больше ничего лишнего. Спустя несколько лет Bobcat получил долгожданное обновление, превратившееся в архитектуру Jaguar, которая в 2013 году была выбрана Microsoft и Sony для использования в Xbox One и PlayStation 4.

Хотя прибыли должны были получиться относительно небольшими, потому что консоли обычно создаются с прицелом на максимально низкую цену, обе платформы продались миллионами экземпляров, и это подчеркнуло способность AMD создавать специализированные SoC.

В течение последующих лет AMD продолжала совершенствовать архитектуру Bulldozer первым проектом стал Piledriver, давший нам FX-9550 (монстра с частотой 5 ГГц и потреблением 220 Вт), однако Steamroller и последняя версия, Excavator (разработка которой началась в 2011 году, а выпуск четырьмя годами позднее), были больше озабочены снижением энергопотребления, чем реализацией новых возможностей.

К тому времени структура наименований процессоров стала довольно запутанной, если не сказать большего. Phenom уже давно превратился в историю, а FX имел довольно плохую репутацию. AMD отказалась от всех этих названий и просто назвала десктопные процессоры проекта Excavator A-series.

Графический отдел компании, занимавшийся продуктами Radeon, испытывал и взлёты, и падения. AMD сохраняла название бренда ATI до 2010 года, потом заменив его собственным. Кроме того, в конце 2011 года компания полностью переписала созданную ATI архитектуру GPU, выпустив Graphics Core Next (GCN). Эта архитектура продолжала развиваться ещё в течение восьми лет, найдя своё место на консолях, настольных PC, рабочих станциях и серверах; она по-прежнему используется сегодня как интегрированные GPU в так называемых процессорах APU компании.


Первая реализация Graphics Core Next Radeon HD 7970

Процессоры GCN развивались, получив впечатляющую производительность, но их структура не позволяла с лёгкостью выжать из неё максимум. Самая мощная версия, созданная AMD GPU Vega 20 в карте Radeon VII, могла похвастаться 13,4 TFLOPS вычислительной мощи и пропускной способностью 1024 ГБ/с, но в играх она просто не могла достичь тех же высот, что и лучшие карты Nvidia.

Продукция Radeon часто получала репутацию горячей, шумной и очень энергоёмкой. Первая итерация GCN, работавшая в HD 7970, требовала при полной нагрузке сильно больше 200 Вт мощности, но она была произведена по достаточно крупному 28-нанометровому техпроцессу компании TSMC. Ко времени достижения GCN зрелости в чипе Vega 10 процессоры уже производились в GlobalFoundries по 14-нанометровому техпроцессу, но энергопотребление было не лучше, чем у карт типа Radeon RX Vega 64, максимально потреблявших примерно 300 Вт.

Хоть у AMD и был приличный выбор продуктов, компании не удавалось добиться высоких показателей, а также заработать достаточно денег.

Финансовый год Выручка (млрд долларов) Валовая прибыль Операционные доходы (млн долларов) Чистый доход (млн долларов)
2016 4,27 23% -372 -497
2015 4,00 27% -481 -660
2014 5,51 33% -155 -403
2013 5,30 37% 103 -83
2012 5,42 23% -1060 -1180
2011 6,57 45% 368 491

К концу 2016 года балансовая ведомость компании четвёртый год подряд фиксировала убыток (финансовое положение в 2012 году ухудшилось на 700 миллионов из-за окончательного расставания с GlobalFoundries). Долг по-прежнему был высоким, даже с учётом производств и других филиалов, и даже успех с Xbox и PlayStation не обеспечил достаточную помощь.

В целом, AMD испытывала большие трудности.

Новые звёзды


Больше продавать было нечего, и на горизонте не виднелось никаких крупных инвестиций, способных спасти компанию. AMD могла сделать только одно: удвоить усилия и реструктурироваться. В 2012 году компания наняла двух людей, которые сыграют жизненно важную роль в её возрождении.

Бывший ведущий архитектор линейки K8 Джим Келлер вернулся после 13-летнего отсутствия и приступил к руководству двумя проектами: архитектурой на основе ARM для серверных рынков и стандартной архитектурой x86, а Майк Кларк (ведущий проектировщик Bulldozer) стал главным архитектором.

К ним присоединилась Лиза Су, раньше работавшая старшим вице-президентом и генеральным руководителем Freescale Semiconductors. В AMD она заняла такую же должность; общепризнанно, что именно она вместе с президентом компании Рори Ридом стала причиной перехода на другие рынки, кроме PC, особенно на рынок консолей.


Лиза Су (в центре) и Джим Келлер (справа)

Два года спустя после возвращения Келлера в отдел исследований и разработок генеральный директор Рори Рид ушёл из компании, а Лиза Су получила повышение. Имея докторскую степень по электронике, полученную в MIT, а также опыт исследований производства МОП-транзисторов по технологии кремний на изоляторе (SOI, silicon-on-insulator), Су обладала и научными знаниями, и опытом в производстве, необходимыми для возвращения AMD её славы. Однако в мире крупносерийных процессоров ничто не происходит мгновенно проектирование чипов в лучшем случае занимает несколько лет. Пока такие планы смогут дать плоды, AMD придётся выдержать бурю.

Пока AMD боролась за выживание, Intel шла от победы к победе. Архитектура Core и техпроцессы изготовления постепенно совершенствовались, и к концу 2016 года компания сообщила о выручке почти в 60 миллиардов. В течение нескольких лет использовала в разработке процессоров схему "тик-так", тик это новая архитектура, а "так" усовершенствование производства, обычно принимавшее вид уменьшения техпроцесса.

Однако, несмотря на огромные доходы и почти полное доминирование на рынке, за кулисами всё было не так радужно. В 2012 году ожидалось, что Intel в пределах трёх лет начнёт выпускать процессоры с передовым 10-нанометровым техпроцессом. Этот "так" никогда не настал на самом деле, и "тик" тоже не было. Первый 14-нанометровый CPU, основанный на архитектуре Broadwell, появился 2015 в году, после чего техпроцесс и фундаментальная структура оставалась в течение пяти лет неизменной.

Инженеры на производствах постоянно сталкивались с проблемами выпуска на 10 нанометрах, что заставляло Intel каждый год совершенствовать старый техпроцесс и архитектуру. Тактовые частоты и энергопотребление становились всё выше, но новых архитектур не ожидалось; вероятно, это стало эхом эпохи Netburst. У пользователей PC появился неприятный выбор: или приобретать продукты из мощной линейки Core по приличной цене или покупать более слабые и дешёвые FX/A-series.

Однако AMD потихоньку собирала выигрышную комбинацию карт, сыграв свою партию в феврале 2016 года на ежегодной ярмарке E3. Воспользовавшись в качестве платформы объявлением о долгожданном перезапуске Doom, компания сообщила о совершенно новой архитектуре Zen.


Кроме общих фраз об одновременной многопоточности, кэше с высокой пропускной способностью и энергоэффективной конструкции finFET, о новой архитектуре было сказано мало. Больше подробностей было раскрыто на Computex 2016, в том числе и о стремлении превысить производительность Excavator на 40%.

Назвать такие заявления амбициозными было бы преуменьшением, особенно в свете того, что в каждой новой версии архитектуры Bulldozer компания в лучшем случае обеспечивала прирост на скромные 10%.

До появления самого чипа оставалось ждать ещё двенадцать месяцев, но после его выпуска наконец стал очевидным долго подготавливавшийся план AMD.


Чтобы продавать любое новое железо, нужно подходящее ПО, но многопотоковые ЦП вели неравный бой. Несмотря на то, что консоли могли похвастаться 8-ядерными процессорами, большинству игр вполне хватало всего четырёх. Основными причинами этого были рыночное доминирование Intel и архитектура чипов AMD в Xbox One и PlayStation 4. Intel выпустила свой первый 6-ядерный CPU ещё в 2010 году, но он был очень дорогим (почти 1 100 долларов). Вскоре появились и другие, но по-настоящему недорогой шестиядерный процессор Intel смогла представить только спустя семь лет. Это был Core i5-8400 по цене ниже 200 долларов.

Проблема с консольными процессорами заключалась в том, что схема CPU состояла из двух четырёхъядерных CPU на одном кристалле, и между двумя частями чипа существовала высокая задержка. Поэтому разработчики игр стремились выполнять потоки движка в одной из частей, а вторую использовать только для общих фоновых процессов. Только в мире рабочих станций и серверов существовала необходимость процессоров с серьёзной многопоточностью пока AMD не решила иначе.

В марте 2017 года обычные пользователи десктопом смогли обновить проапгрейдить свои системы, выбрав один из двух восьмиядерных 16-потоковых процессоров. Совершенно новая архитектура обязана была получить собственное название, и AMD отказалась от брендов Phenom и FX, дав нам Ryzen.

Ни один из CPU не был особо дешёвым: Ryzen 7 1800X (3,6 ГГц, после разгона 4 ГГц) продавался в розницу за 500 долларов, а на 0,2 ГГц более медленный 1700X продавался на 100 долларов дешевле. Этим AMD частично хотела избавиться от того, чтобы её воспринимали как бюджетную альтернативу, но в основном такая цена была вызвана тем, что Intel за свой восьмиядерный процессор Core i7-6900K просила 1 000 долларов.



Zen взял всё самое лучшее от всех предыдущих архитектур и соединил их все в структуру, задача которой заключалась в максимальной загруженности конвейеров; а для этого требовались значительные усовершенствования систем конвейеров и кэшей. В новой конструкции разработчики оказались от общих кэшей L1/L2, использовавшихся в Bulldozer каждое ядро теперь было полностью независимым, имело больше конвейеров, улучшенное прогнозирование ветвления и повышенную пропускную способность кэшей.

Подобно чипу, работавшему в консолях Microsoft и Sony процессор Ryzen тоже являлся системой на чипе; единственное, чего ему не хватало это GPU (в более поздних бюджетных моделях Ryzen появился процессор GCN).

Кристалл разделили на два так называемых CPU Complex (CCX), каждый из которых был четырёхъядерным, 8-потоковым модулем. Также на кристалле расположился процессор Southbridge CPU, обеспечивающий контроллеры и соединения с PCI Express, SATA и USB. Теоретически это означало, что материнские платы можно изготавливать без южного моста, но почти во всех платах для расширения количества возможных подключений устройств южные мосты всё-таки устанавливались.


Но все эти усилия пропали бы впустую, если бы Ryzen не обеспечивал нужной производительности, и после многих лет отставания от Intel компании AMD многое пришлось доказывать. 1800X и 1700X не были идеальными: в профессиональных областях аналогичны продуктам Intel, но медленнее в играх.

На руках у AMD были и другие карты: месяц спустя после выпуска на рынок первого процессора Ryzen появились шести- и четырёхъядерные модели Ryzen 5, за которыми ещё через два месяца последовали четырёхъядерные чипы Ryzen 3. Они конкурировали с продукцией Intel так же, как и их более мощные собратья, но были гораздо более выгодными по цене.

А потом на столе появились тузы 16-ядерный, 32-потоковый Ryzen Threadripper 1950X (с начальной ценой в 1 000 долларов) и 32-ядерный, 64-потоковый процессор EPYC для серверов. Эти монстры состояли, соответственно, из двух и четырёх чипов Ryzen 7 1800X в одном корпусе и использовали для передачи данных между чипами новую систему соединений Infinity Fabric.


За полгода AMD продемонстрировала, что она, по сути, нацеливается на все возможные ниши рынка десктопов x86 с единой архитектурой процессоров.

Год спустя архитектура была обновлена до Zen+; усовершенствования заключались в изменениях системы кэшей и переходе от техпроцесса GlobalFoundries 14LPP, созданного совместно с Samsung, к обновлённой, более мелкой системе 12LP. Размер кристаллов процессоров остался таким же, однако новый техпроцесс изготовления позволил процессорам работать с повышенными тактовыми частотами.

Ещё спустя 12 месяцев, летом 2019 года, AMD выпустила Zen 2. На этот раз изменения стали более значительными и в моду вошёл термин чиплет. Вместо использования монолитной конструкции, в которой каждая часть CPU является одинаковыми кусками кремния (как это было в Zen и Zen+), инженеры отделили модули Core Complex от системы соединений.

Модули Core Complex изготавливались TSMC по техпроцессу N7 и стали полными кристаллами, отсюда и название Core Complex Die (CCD). Структура ввода-вывода производилась GlobalFoundries, в десктопных моделях Ryzen использовался чип 12LP, а в Threadripper и EPYC более крупные версии на 14 нанометров.


Инфракрасные изображения Zen 2 Ryzen и EPYC. Заметно, что чиплеты CCD отделены от чипа ввода-вывода. Изображение: Fritzchens Fritz

Дизайн чиплета был сохранён и усовершенствован в Zen 3, выпуск которого запланирован на конец 2020 года. Скорее всего, CCD не внесут ничего нового в 8-ядерную и 16-потоковую структуру Zen 2, скорее, усовершенствования будут в стиле Zen+ (то есть, улучшение кэша, энергоэффективности и тактовых частот).

Стоит подвести итоги тому, что AMD смогла достичь при помощи Zen. За срок в 8 лет архитектура прошла путь от чистого листа до обширного портфолио продуктов, в котором есть 4-ядерные, 8-потоковые бюджетные предложения по 99 долларов и 64-ядерные, 128-потоковые серверные CPU за четыре с лишним тысячи долларов.

Также значительно изменилось финансовое положение AMD: в прошлом её убытки и долги доходили до миллиардов долларов; теперь AMD движется к избавлению от долгов и сообщает о том, что операционные доходы за следующий год составят 600 миллионов долларов. Хоть Zen и не был единственной причиной финансового возрождения компании, он сильно ему способствовал.


Графическое подразделение AMD тоже постигла похожая судьба в 2015 году ему была предоставлена полная независимость и название Radeon Technologies Group (RTG). Наиболее значительным достижением его инженеров стал RDNA сильно переработанный GCN. Изменения, внесённые в структуру кэша, а также улучшения размеров и группировки вычислительных блоков, приблизили архитектуру к использованию в играх.

Первые модели, использующие эту новую архитектуру, Radeon RX 5700 series, продемонстрировали серьёзный потенциал дизайна. Он не остался незамеченным для Microsoft и Sony: обе компании выбрали Zen 2 и обновлённый RDNA 2 для установки в свои новые консоли Xbox и PlayStation 5.

Хотя Radeon Group не обрела такого же уровня успеха, как подразделение разработки CPU, и его графические карты, вероятно, по-прежнему рассматриваются как бюджетный вариант, AMD вернулась к тому положению, в котором она была в эпоху Athlon 64, с точки зрения разработки архитектур и технологических инноваций. Компания добралась до вершины, пала, и как мифическое существо, восстало из пепла.

С опаской глядя в будущее


Вполне разумно будет задать простой вопрос: может ли компания вернуться к тёмному времени провальных продуктов и отсутствия средств?

Даже если 2020 год окажется превосходным для AMD (положительные финансовые результаты за первый квартал демонстрируют рост на 40% по сравнению с предыдущим годом), доход в 9,4 миллиарда по-прежнему оставляет её позади Nvidia (10,7 миллиарда в 2019 году) и на расстоянии световых лет от Intel (72 миллиарда). Разумеется, портфолио продуктов последней гораздо более обширно, к тому же она владеет собственными производствами, зато прибыль Nvidia почти полностью зависит от графических карт.


Бестселлеры AMD

Очевидно, что и прибыли, и операционные доходы для полной стабилизации будущего AMD обязаны расти, но как этого можно достичь? Основная часть дохода компании по-прежнему поступает от того, что она называет сегментом вычислений и графики, то есть от продаж Ryzen и Radeon. Без сомнений, он продолжит расти, ведь Ryzen очень конкурентоспособен, а архитектура RDNA 2 обеспечивает общую платформу для игр, работающих как на PC, так и на консолях следующего поколения.

Сравнительная мощь новых десктопных процессоров Intel в гейминге стабильно снижается. Кроме того, им не хватает широты функций, предоставляемых Zen 3. Nvidia по-прежнему сохраняет корону в области производительности GPU, но столкнулась с упорным сопротивлением со стороны Radeon в секторе средней ценовой категории. Возможно, это просто совпадение, но хоть RTG и является полностью независимым подразделением AMD, его прибыли и операционные доходы объединены с сектором CPU из этого можно сделать вывод, что несмотря на популярность его графических карт, продаются они не такими же тиражами, как продукты Ryzen.

Вероятно, ещё более серьёзной проблемой для AMD является то, что её сегмент корпоративных, встроенных и полузаказных продуктов составил всего менее 20% от прибылей первого квартала 2020 года, и привёл к операционным убыткам. Это можно объяснить тем фактом, что в свете успеха Nintendo Switch и приближающегося выпуска новых моделей консолей Microsoft и Sony продажи текущего поколения Xbox и PlayStation стагнируют. Кроме того, на корпоративном рынке доминирует Intel и никто, владеющий многомиллионным датацентром не избавится от него просто потому, что появился новый потрясающий CPU.


Nvidia DGX A100, оснащённая двумя 64-ядерными процессорами AMD EPYC

Но ситуация может измениться в течение следующих двух лет: частично это может быть вызвано новыми игровыми консолями, а также неожиданным альянсом. Nvidia для своих вычислительных кластеров глубокого обучения/ИИ DGX 100 выбрала процессоры AMD, а не Intel. Причина проста: процессор EPYC имеет больше ядер и каналов памяти, а также более быстрые линии PCI Express по сравнению с тем, что может предложить Intel.

Если Nvidia более чем устраивают продукты AMD, то за ней точно последуют и другие. AMD придётся карабкаться на крутую гору, но сегодня кажется, что у неё есть для этого нужные инструменты. Пока TSMC продолжает совершенствовать и настраивать свой техпроцесс N7, все использующие этот процесс чипы AMD будут тоже становиться всё лучше.


Если посмотреть в будущее, то есть несколько областей, в которых AMD определённо следует совершенствоваться. Во-первых, это маркетинг. Крылатая фраза и джингл Intel Inside были на протяжении 30 лет повсеместны, и хотя AMD потратила какие-то деньги на продвижение Ryzen, ей в конечном итоге нужны такие производители, как Dell, HP и Lenovo для продажи устройств, демонстрирующих её процессоры в том же свете и с теми же спецификациями, как это происходит с продуктами Intel.

В области ПО проделана большая работа по созданию приложений, повышающих удобство для пользователей, в частности, Ryzen Master, но совсем недавно драйверы Radeon имели обширные проблемы. Разработка драйверов для игр невероятно сложный процесс, но их качество может создать или разрушить репутацию аппаратного продукта.


Сегодня AMD находится в самой сильной позиции за всю свою 51-летнюю историю. Благодаря амбициозному проекту Zen, в ближайшем будущем которого не видно никаких пределов, возрождение компании подобно фениксу стало огромным успехом. Однако она ещё не на вершине, и, вероятно, это к лучшему. Говорят, что история повторяется, но будем надеяться, что этого не случится. Сильная и конкурентная AMD, вполне способная соревноваться с Intel и Nvidia, означает для пользователей одну только выгоду.

Что вы думаете об AMD, о её взлётах и падениях был ли у вас чип K6, или, может быть, Athlon? Какая видеокарта Radeon вам больше всего нравится? Какой процессор Zen впечатлил сильнее всего?
Подробнее..

For Those Who Do! или ультимативная платформа для игр эпохи Windows XP

27.04.2021 08:19:43 | Автор: admin
Квадратиш, практиш, айбиэмишКвадратиш, практиш, айбиэмиш

Очень много фотографий и скриншотов.

Несколько лет назад я загорелся идеей раздобыть себеThinkPad, и не в последнюю очередь, из-за частых статей об этой серии ноутбуков на Хабре. Особенно, меня сподвигла к покупке статья про ноутбуки на орбите. Там были замечательные фотографии строгих черных квадратов в невесомости, после которых я понял - оно, беру, мне надо.

Наш герой по центру сверхуНаш герой по центру сверху"Правильная" клавиатура, датчик отпечатка пальца, аппаратные кнопки звука"Правильная" клавиатура, датчик отпечатка пальца, аппаратные кнопки звука

Я не писатель, не админ, и не программист. Я даже не знаю доподлинно, какая модель действительно отличилась чем-то, а какая ЛЕГЕНДАРНАЯ только по мнению её владельцев. К 6 или 7 этажным рядным клавиатурам я тоже совершенно спокоен, так как блоки допкнопок мне нужны примерно один раз в никогда.

Так что, я мог позволить себе выбрать свой чёрный квадрат, отталкиваясь исключительно от характеристик.

Рука поставить стандартные луга не поднялась, долой аутентичностьРука поставить стандартные луга не поднялась, долой аутентичность

Идея была сразу в сторону чего-то не приспособленного к повседневному использованию, чтобы не возникало желание пристроить ноут к какому либо делу кроме игрового. Так совпало, что в момент выбора и поискаThinkpad`а, у меня была свободна ниша игрового ноутбука эпохиWindowsXP.

Тут стоит отдельно отметить, что я считаю эпохой WindowsXP временной отрезок от выпускаXPдо релиза Висты. Я понимаю, что есть вполне объективные причины, в соответствии с которыми осуществлялась миграциия пользователей через ступеньку, но мы тут вроде об истории, а не о бюджетах компа под Висту в актуальное время. И не о страданиях в то же актуальное времемя, пытаясь вставить висту в п4 1.7мгц 512мб.

ХР нинуженХР нинужен

Посему, в моей голове ХР кончилась в день выхода Висты, равно как и мои запросы к ноутбуку на котором хочется играть в актуальные ему игры. Поиск нужно с чего-то начинать, и я пошел на финкпадапедию, читать спеки и прикидывать что из модельного ряда переходного периода IBM/Lenovoсможет закрыть мои потребности.

Выбирал я из следующего списка принципиальных параметров:

  1. Экран 4:3

  2. Штатная Windows XP, или заводская возможность отката на неё сVista

  3. На столько мощная видеокарта, на сколько это возможно в рамкахThinkPadтого временного периода

  4. Центральный процессор не умеющий вх64

  5. Видеокарта с 128 битной шиной видеопамяти и минимум 128мб оной

Исходя из вышеописанных хотелок, моим клиентом удовлетворяющим все основные хотелки становится Т60Р. Давайте разберем, что же Ленова по заветам ИБМ завернула в предпоследний квадратный Финкпад.

Камень с ядром Йонах является предпоследним из серииCentrinoDuoперед переходом на 64 битныеCore2Duo, и является последователем в ветке камней, берущих своё начало от легендарногоTualatin. Который в свою очередь, базируется на архитектуреIntelP6 (PentiumPro). Камень в моём т60п имеет примечательные 2 метра кэша л2, что для того времени было весьма похвально. Отдельно хочу отметить его энергопотребление. Если вы читали статью про Сони ВАИО Си-серии на камне т5600 от Трансметы, то могли заметить что в режиме 300мгц его энергопотребление равнялось 1.3 вольта. Хочу обратить внимание, что всего через каких-то 6 лет Интел смогла на такой же вольтаж посадить весьма производительный процессор. Прогресс, однако.

В ноутбуке установлены 2 модуляDDR667мгц по 1гб в двухканальном режиме, хотя чипсет поддерживает максимум 4гб. Сделано это осознанно я не хочу ломать двухканальность, и в 32 битной ОС всё равно не будет доступен весь объём в 4гб. Собственно, исходя из моего сценария использования, и эти 2гб редко бывают задействованы полностью.

По правой стороне с разъёмами всё скудно - kensington, 2 USB 2.0, и CD/DVD-RWПо правой стороне с разъёмами всё скудно - kensington, 2 USB 2.0, и CD/DVD-RWSATA3 поддерживает сам SSD, фактически он работает на SATA2SATA3 поддерживает сам SSD, фактически он работает на SATA2

А вот с накопителем я немного поработал. Во первых, стоит поделиться радостью что у меня не была залочена замена комплектующих (ноут не окирпичился от замены диска). Во вторых, я не встретил на пути апгрейдов ограничений блэклиста, что однозначно говорит об его отсутствии в моём конкретном случае. Сам ноут прибыл ко мне с хардом Тошиба на 60гб 7200рпм, иWindows7. Она на нём работала, и бывший владелец даже работал под ней с .cad. Но так как я собираюсь делать игрища- под игрища требуется много места не каждый раз же образы дисков или гоговские экзешники тянуть по сети с домашнего файлохранилища. Так что, я воспользовался залежавшимся у меня диском от собрата этого Финкпада Т400, с ёмкостью в 2 раза больше! Аж 120гб (как же сейчас смешно это звучит), от производителя Сигейт, тоже 7200рпм. Кстати, именно после многоразовых рабочих встреч с этим представителем линейки у меня появилось целенаправленное желание обзавестись своим собственным. Ещё через какое-то время я решил провести ещё один апгрейд, и что характерно, опять в 2 раза. Но, уже наSSDсMLCпамятью. И с этим апгрейдом странное дело вышло я не почувствовал разницу. Ну, т.е., да, от нажатия на кнопку включения до полной загрузки трея теперь проходит меньше времени Но вот всё остальное работает абсолютно также. Отзывчивость системы, игры, всё осталось на том же уровне, как и при жестком диске. Это вызвало у меня искреннее удивление, честно говоря. Никогда не думал, что упрусь в какой-то спеке в скорость шины сата.

У V5200 и X1600 различается BIOS, который позволяет V5200 использовать профессиональные драйвера для CAD и других 3D-приложенийУ V5200 и X1600 различается BIOS, который позволяет V5200 использовать профессиональные драйвера для CAD и других 3D-приложений

Ну и, собственно, виновница нашей встречи FireGLV5200, она же,Radeonx1600. Тут особо говорить нечего характеристики с картинки говорят сами за себя. И мне на столько нечего добавить кроме тянет все игори, что я даже драйвер не переставлял с Файергльного на Радеоновский- и так всё требуемое летает (Да, можно подшаманить видеокарты .кад-овой направленности, и превратить их в их прародителей. Это даст лишние 5-10 фпс в играх).

VGA, RJ11, RJ45, mic, audio, usb2.0, 2 PCMCIAVGA, RJ11, RJ45, mic, audio, usb2.0, 2 PCMCIA

Попутно с апгрэйдом винтов я заказал Питателовскую усиленную батарею, и новый кулер системы охлаждения. Теперь у меня не просто Финкпадn*летней давности, но бесшумный Финкпад! По крайней мере, если не заставлять его выпрыгивать из штанов. А я заставлял! Все эти манипуляции были проведены ещё до закрытия винапдейта ХР, так что я обновил систему полностью, и это позволило использовать ноутбук даже в интернетах частый кейс - зайти с него на трекер, найти нужное (патч к игре, о чём вы подумали!), и поставить на закачку на него же. Это добавляло какой-то совершенной беспроблемности и лёгкости в использовании.

С непрямым конкурентом от DELL - мером, 2гб, 160гб 7200 и х1400 128мбС непрямым конкурентом от DELL - мером, 2гб, 160гб 7200 и х1400 128мбх1, т42, йога х260, т60пх1, т42, йога х260, т60п

Вообще, Финкпады я считаю самыми беспроблемными некробуками из всех, которые у меня есть. Особенно велик контраст с Вайо от Сори. Более того, я считаю, что полюбившиеся многим т42\43 являются лучшей точкой входа в хобби технонекромантии, ибо, их коммюнити огромно, машины изучены до последнего болта, и драйверы или образы штатных рекавери дисков найти труда не составляет. Зато, сразу можно получить на низкой сложности впечатления от этого занятия: и пострадать немного, и поапгрэйдить железо, и порадоваться тому, что в Диспетчере устройств больше нету ненавистных желтых знаков вопросиков. И даже поиграть (если это модель не со встройкой отIntel, а сATI7000\7500)! Ну а после всего этого решить стоит ли углубляться в это хобби.

Т60Р в разборе прост как 3 копейки (впрочем, как и любой другой финкпад), обслуживать или чинить его удобно и приятно. Например, для замены термопасты нужно выкрутить немного винтов снизу (все с маркировкой о том, что именно они крепят), вынуть клавиатуру, сдвинуть палмрест с тачпадом, и вуаля- можно снимать, дуть и мазать. Замена накопителя происходит и того проще открутили болтик на крышечке, вынули накопитель, открутили 4 болта крепящих накопитель в кредле, вынули-вставили, повторили в обратном порядке. Просто сказка, на фоне японских собратьев. И так с этим ноутбуком во всём, он везде продуманный. Те же дренажные отверстия для отвода пролитого на ноутбук в обход платы и диска, акселерометр паркующий принудительно считывающие головки жесткого диска при опасном ускорении, нормально работающий рекавери, всё это создаёт ощущение какого-то бессмертия этого ноутбука. Ощущение надёжности просто зашкаливает, и это очень приятно.

Диод подсветки клавиатуры в верхней рамке дисплеяДиод подсветки клавиатуры в верхней рамке дисплея

Однако, давайте уже посмотрим как там игры. Для хвастовства тестов создания скриншотов с уровнем графики, которая нормально работает на 30 кадрах в секунду я воспользуюсь несколькими играми. Вышли они все за год, или в тот же год, когда вышла Виста 2006-2007.Doom 3, Half-Life 2: Episode One, Star Wars Republic Commando, Star Wars Empire at war, Warhammer 40k: Dawn of War, Need For Speed: Underground 2,и Need For Speed: Most Wanted.

Первое что бросается в глаза, причём буквально, это матрица. Отвратительная матрица с разрешением 1400:1050, от которой лично у меня вытекают глаза примерно после часа сидения за ней. Однажды, я закажуIPS. Впрочем, если убрать мою персональную реакцию на неё, и сфокусироваться на играх, настройках иfps-ах, то всё становится весьма хорошо:

*Под спойлерами по паре-тройке скринов работоспособной графики, и краткие комментарии

DOOM 3
Нет бы сразу БФГ отдатьНет бы сразу БФГ отдатьКПК теперь уже ретрофутуризмКПК теперь уже ретрофутуризмПохоже, что на разлетевшуюся индейку даётся 2-3 кадра- не поймать скриншотомПохоже, что на разлетевшуюся индейку даётся 2-3 кадра- не поймать скриншотом

Третий Дум работает отлично, но без сглаживания. Собственно, именно полноэкранное сглаживание создаёт максимальную нагрузку, которую эта видеокарта не всегда может переварить. Из хороших новостей я, как раз, очень люблю пиксели, об которые можно порезаться, так что настраиваю графику всегда на максимальные текстуры и детализацию, но без блёра и свечений. По крайней мере, я так делаю в играх той временной эпохи.

Half Life 2: Episode One
Фестиваль странных лиц АлексФестиваль странных лиц АлексФестиваль продолжался. HDR работалФестиваль продолжался. HDR работал

Халфа2 Эпизод 1 достаточно требовательная игра за счёт активного использования всяких постобработок. Свечения,hdr, вот это вот всё. Очень красиво, и даже не тормозит, к моему удивлению. Я точно помню, что уже проходил всю хл2 с эпизодами на этом ноутбуке, но выбирая игры для скриншотов слегка усомнился, будет ли его мощности достаточно для комфортной игры на тех же настройках, на каких можно делать красивые скриншоты. Зря =)

Star Wars: Empire at war Forces of Corruption
Трынь тын тын, тын тыдынь, тынь тыдыньТрынь тын тын, тын тыдынь, тынь тыдынь

Ничего нового, эта ртс по Звездным Войнам работает на максималках в нативном разрешении, и играть можно бесконечно. Собственно, это одна из тех игр, под который этот ноутбук вообще и искался- собраться с друзьями на даче, развернуть ноуты, и устроить стратегическую ланпати в Еав, Казаков или Форс Коммандер. Милое дело!

Warhammer 40,000: Dawn of War

Совершенно та же история, что и с Эмпаер эт вар отлично работает на максималках. Однако, может фризиться когда на экране 100500 юнитов, которых обсчитывает игровой движок на предмет правильной баллистики полёта оторванных конечностей.

Star Wars: Republic Commando

Репаблик Коммандо тоже работает отлично, и радует своей постановкой. Сейчас, конечно, он выглядит простовато, но в момент релиза это была отличная игра.

Need for Speed: Most Wanted

А вот с Мост Вонтедом интересная история. Собственно, как и с НФС3 на каком нибудь актуальном ему железе дым из под колёс вызывает фризы. В остальном, всё отлично.

Need for Speed: Underground 2

Этот нфс старее Мост Вонтеда, и естественно, всё с ним отлично. Эрон-дон-дон, так сказать.

Итого, мне следует признать, что под мои задачи и желания данный ноутбук подходит почти полностью. Замена матрицы, это не замена распаянной видеокарты. Производительность полностью покрывает мои запросы к портативной железке эпохиWinXP, и даже немножечко с горкой. Тот редкий момент, когда занимаясь некротой, удаётся найти такой экземпляр, буквально руками выкапывая его из песков времён, который полностью соответствует твоим ожиданиям. Короче говоря, 10/10, всем рекомендую, пошел перепроходить Фиар.

З.. Шпойлер алёрты по темам следующих статей:
а22п - люблю рабочие станции, ими можно отмахиваться от всякогоа22п - люблю рабочие станции, ими можно отмахиваться от всякогоНаш сегодняшний подопытный, и его антипод, который всё ещё воскрешаетсяНаш сегодняшний подопытный, и его антипод, который всё ещё воскрешается
Подробнее..

Перевод Когда дефицита GPU ещё не было

09.04.2021 12:18:12 | Автор: admin


Большую часть времени GPU были не важны


Как, наверно, понимает большинство людей, компьютеры считают числа. Обычно интуитивным способом работы с компьютерами является взаимодействие с какой-нибудь графикой. Или, что более важно, с более красивым отображением чисел.


Реклама Tektronix Interactive Graphics, предполагаемого предшественника технологий GPU. Но так ли это на самом деле?

Пока Windows и Apple приучали публику к своим заточенным под мышь интерфейсам, хардкорным пользователям компьютеров, то есть геймерам, нужно было, чтобы действия мыши регистрировались намного быстрее. А ещё они хотели, чтобы графика была более реалистичной. Затем они стали просить такие функции, как онлайн-мультиплеер, мгновенный обмен сообщениями и множество других возможностей, которые сегодня воспринимаются как должное, но в первой половине 90-х казались чем-то значительным.

Можно было бы заявить, что технически сложному геймплею мы обязаны классическому Doom 1993 года, а также его потомку Quake, вызвавшему интерес пользователей к специализированным графическим картам. Однако пообщавшись со специалистом, наблюдавшим за развитием этой отрасли с самого начала, можно прийти к выводу, что история GPU не была такой уж простой.

Доктор Джон Педди впервые занялся компьютерной графикой в 1960-х. Он находился в составе команды, создававшей топографические 3D-карты по снимкам аэрофотографии, что в дальнейшем привело к созданию его собственной компании Data Graphics. К началу 1980-х он задумался об уходе на пенсию и карьере писателя научной фантастики, но заметил в этой отрасли бум, который сложно было игнорировать. Практическое применение высокопроизводительной графики изначально развивали компании, занимавшиеся CAD и GIS, однако взрывной рост популярности видеоигр в 80-х изменил эту ситуацию.

Игры были (и остаются) локомотивом отрасли благодаря количеству потребителей, сообщил мне Педди в электронном письме. Среди пользователей 3D и GPU были инженерные компании (CAD и молекулярное моделирование), а также киноиндустрия. Но в 80-х и 90-х на этом рынке было примерно 100 тысяч покупателей. А рынок потребительского 3D исчислялся миллионами пользователей. Однако рынок профессионалов платил больше тысячи или десятки тысяч долларов, в то время как потребители платили всего несколько сотен. То есть задача заключалась в том, чтобы встроить достаточную мощь в чип, который в готовом продукте продавался бы за сотни долларов.

На этом этапе истории компьютеров в техническом лексиконе появилась аббревиатура GPU. В статье в журнале Computerworld за 1983 год подробно описывается линейка графических терминалов Tektronix. Но если приглядеться, GPU пока расшифровывается не как graphic processing unit, а как graphic processor unit. Есть ли какая-то разница? На самом деле, GPU не существовало до 1997 года, пусть даже и использовалась похожая аббревиатура. Оказывается, для настоящего GPU обязателен движок трансформации и освещения (transform and lighting, T&L).

Почему термином GPU нельзя называть графический чип или плату, разработанную до 1997 года? Он отрисовывает графику (хоть и только в 2D-пространстве). Обрабатывает ли он графику? Да, в каком-то смысле. Он отрисовывает отрезки и окружности это и есть обработка (processing). Важное отличие заключается в том, что GPU должен быть способен на истинное 3D (а для этого требуется T&L).


Графический 3D-чип Glint компании 3Dlabs, по мнению некоторых, первой создавшей истинный GPU. Он был выпущен в ноябре 1994 года и активно применялся в "мощных 3D-приложениях CAD" (по-прежнему не первый настоящий GPU, но всё равно интересный графический чип). Несмотря на то, что 3Dlabs первой появилась на рынке, она не смогла воспользоваться экономическими масштабами, доступными для её конкурентов, например, Nvidia.

Право первопроходца забирают себе победители


Давайте для начала разберём распространённую ошибку. Оборудование первой PlayStation не было первым GPU на массовом рынке. Такое мнение возникло благодаря мощному маркетингу Sony и Toshiba. Как говорит Педди, У первой PlayStation был движок трансформации геометрии (geometry transformation engine, GTE), являвшийся сопроцессором 2D-чипа, и ошибочно названый (маркетологами) GPU.

Маркетинг был важным элементом той эпохи, то есть незадолго до того, как GPU впервые начали появляться. Создание истинного GPU для 3D было далёким горизонтом, и многие компании хотели добраться до него первыми. Однако эту честь первой получила небольшая контора из Великобритании под названием 3Dlabs. Инновацией, давшей продукту 3Dlabs титул первого настоящего GPU, стала разработка графического процессора из двух чипов, содержавшего обработчик геометрии, называемый движком трансформации и освещения (T&L). В отличие от своих конкурентов, 3Dlabs делала упор на рынок CAD, хоть и пыталась вторгнуться на крупный потребительский рынок, заключив партнёрское соглашение с Creative Labs.


Технологическое демо с показом возможностей чипсета 3Dlabs Glint.

Малый размер 3Dlabs и её специализация на профессиональном рынке означали, что на рынке потребительских GPU появится множество первопроходцев.

Сектор графических карт в тот период был невероятно активен, за благосклонность игроков в Quake сражались такие крупные компании, как Matrox, S3 и 3Dfx.

Но историю пишут победители, и в этот период возник лидер рынка. К концу 1999 года Nvidia была готова выпустить свой первый массовый потребительский GPU с интегрированным T&L, называвшийся GeForce 256.

Так, по мифологии Nvidia, появился GPU, и компания утверждает, что именно она изобрела его, говорит Педди. То есть историю можно перекраивать, как тебе угодно. Nvidia стоит 10 миллиардов долларов и на пути к 50 миллиардам, а о 3Dlabs никто не помнит.

Примечание: название Nvidia всегда было и является существительным, а не сокращением, несмотря на распространённое заблуждение.

Довольно скоро рынок заполнился конкурирующими GPU, каждый из которых стремился занять собственную рыночную нишу. Канадский производитель ATI Technologies, которого позже приобрёл крупнейший конкурент Nvidia компания AMD, попытался обособить свою продукцию на рынке, назвав свои GPU аббревиатурой VPU (video processor unit), хотя на практике они ничем не различались. Но это название не прижилось.

ATI сдалась, она не могла противостоять превосходящим маркетинговым навыкам, масштабам, привлекательности и безжалостному напору Nvidia, рассказывает Педди.

К началу 2000-х на потребительском рынке начали доминировать крупные игроки наподобие Nvidia, быстро ставшие злодеями в глазах геймеров всего мира. Любопытно, что именно эта консолидация рынка позволяет объяснить, почему сегодня так трудно найти и купить мощные графические карты.


Узрите! Один из самых желанных продуктов в мире. И это ведь даже не самая мощная карта в линейке.

Так кого же винить в этом дефиците GPU?


Если вы так далеко углубились в статью об истории и названиях GPU, то вам наверняка интересно, когда я доберусь до Великого дефицита GPU 2020 года (который, вероятно, будет длиться и дальше).

Вкратце для тех, кто не понимает, о чём я говорю: за последние месяцы цена мощных GPU взлетела до небес и их даже невозможно найти в продаже.

Например, у Nvidia есть три модели графических карт, которые обычно стремятся приобрести геймеры:

  • RTX 3090: рекомендуемая производителем розничная цена 1499 долларов
  • RTX 3080: рекомендуемая цена 699 долларов
  • RTX 3070: рекомендуемая цена 499 долларов

Можно спорить о соотношении цены и производительности этих моделей. Однако дефицит вызвал рост стоимости этих GPU на рынке перепродажи. На данный момент цена средней по мощности из трёх карт RTX 3080 равна 1499 долларов, в то время как 3090 и 3070 практически невозможно найти. Один из лотов 3090 продаётся на eBay за более чем 3000 долларов.

Здесь также стоит упомянуть линейку графических карт AMD. Несмотря на не столь высокий спрос, поскольку традиционно они были не такими мощными, на карты AMD тоже повлияли ограничения цепочки поставок производства GPU. Как и в случае с линейкой Nvidia, модели AMD RX 6700, 6800 и 6900 тоже выросли в цене на вторичном рынке в два с лишним раза.

Немного забавного контекста в моём старом Xeon установлена refurbished-версия AMD RX 570, за которую я в середине 2019 года заплатил чуть больше 100 долларов. Та же самая карта, которая, по сути, является бюджетной моделью и уже слегка устарела на момент моей покупки, сейчас продаётся за 599 долларов.

Очевидно, что существует огромный спрос, и капитализм обычно неплохо справляется с устранением таких пробелов. Как и за многие другие проблемы 2020 года, большую часть вины можно возложить на COVID-19. Производственные хабы в Китае и Тайване, как и почти весь остальной мир, были вынужденно закрыты. Хотя многие операции в производстве оборудования можно автоматизировать, тонкая природа GPU требует определённой степени вмешательства человека.


График, описывающий текущее состояние отрасли GPU. (Автор Джон Педди)

Тем не менее, такое объяснение слишком упрощает тенденции процессов, начавшихся в отрасли графических карт ещё задолго до COVID-19. Послушаем доктора Педди:

Примерно пятнадцать лет назад сложился конвейер производства GPU: разрезание кремниевых пластин, тестирование, упаковка в корпуса, повторное тестирование и доставка заказчику. Все компании в этом конвейере, а также ниже по потоку (OEM-клиенты, имевшие похожий конвейер), искали способы более быстрого реагирования и в то же время минимизации своих материально-технических ресурсов. Так была разработана модель производства JIT (just in time, точно в срок). Она предполагала, что все в цепочке поставок дают точные прогнозы, а значит, и делают точные заказы. Если сломается одно звено цепи, то пострадают и все последующие Когда правительства объявили карантин в своих странах, всё производство остановилось, перестали поставляться детали, конвейер был сломан. И когда (если) производство восстановится, то для полной синхронизации потребуется ещё несколько месяцев.

В то же время людей отправили работать из дома, а у них не оказалось необходимых для этого инструментов. Так возник спрос на PC, и в особенности на ноутбуки. В 30-40% PC установлено два GPU, то есть спрос на GPU увеличился ещё сильнее.

А затем начался рост стоимости криптовалют Теперь майнеры (люди, использующие GPU для зарабатывания крипто) стремились скупить каждый доступный им GPU. Это вызвало спекуляции люди покупали все графические карты и продавали их по как можно более высокой цене.

То есть по цепочке поставок ударил спрос, а предложение не увеличивалось.

И такова краткая история. Изготавливающие GPU компании работали с очень малым допуском на погрешность, не имея возможности предсказывать будущее. Это относится и к рынку GPU в целом, но частично касается крупных заказчиков.

Ещё одним фактором разочарования стало время появления в 2020 году нового поколения видеоигровых консолей, а значит, и нового поколения видеоигр. Долгожданная PlayStation 5 вместе с Cyberpunk 2077 встретились в момент выпуска со множеством технических проблем и проблем с поставками. Игроки в Cyberpunk жаловались на то, что производительность игры сильно зависела от оборудования, на котором она была запущена. О различиях игрового процесса на PS4 и на PS5 один ютубер сказал так: По крайней мере, на PS5 она играбельна.

Хотя доктор Педди ожидает, что проблема дефицита разрешится к первому кварталу 2022 года (ура), он не особо оптимистичен относительно того, будет ли отрасль избегать подобных накладок в будущем.

Ещё одной проблемой будет происходящее сейчас удвоение заказов, которое в перспективе приведёт к огромному падению спроса на рынке полупроводников из-за избыточного предложения, заключает он.

Многому научиться можно даже у относительно новой истории. Хотя можно обвинить в неудовлетворении спроса ошибки рынка, очевидно, в целом ситуация намного сложнее. Несмотря на то, что GPU внезапно стали необходимы миллиардам людей для повседневной работы, высокопроизводительные устройства нужны только малой их доле, обладающей нишевыми интересами.

Тем не менее, рынок в целом должен уделить внимание разочарованным геймерам. Именно их потребности толкают отрасль к инновациям, которые становятся стандартом в более широко распространённых устройствах. С каждой итерацией устройства получают всё больше расширенных графических возможностей, которые постепенно достигают людей, не знавших о них, а теперь считающих их обязательными.

В конце концов, сегодня устройство, не обладающее реалистичной 3D-графикой, и телефоном-то мало кто назовёт.



На правах рекламы


VDSina предлагает эпичные серверы это виртуальные серверы с новейшими CPU AMD EPYC. Огромный выбор операционных систем для автоматической установки, есть возможность установить любую ОС с собственного образа. Обязательно попробуйте!

Подробнее..

Категории

Последние комментарии

  • Имя: Макс
    24.08.2022 | 11:28
    Я разраб в IT компании, работаю на арбитражную команду. Мы работаем с приламы и сайтами, при работе замечаются постоянные баны и лаги. Пацаны посоветовали сервис по анализу исходного кода,https://app Подробнее..
  • Имя: 9055410337
    20.08.2022 | 17:41
    поможем пишите в телеграм Подробнее..
  • Имя: sabbat
    17.08.2022 | 20:42
    Охренеть.. это просто шикарная статья, феноменально круто. Большое спасибо за разбор! Надеюсь как-нибудь с тобой связаться для обсуждений чего-либо) Подробнее..
  • Имя: Мария
    09.08.2022 | 14:44
    Добрый день. Если обладаете такой информацией, то подскажите, пожалуйста, где можно найти много-много материала по Yggdrasil и его уязвимостях для написания диплома? Благодарю. Подробнее..
© 2006-2024, personeltest.ru