Русский
Русский
English
Статистика
Реклама

Nvidia rtx

Перевод Что такое тензорные ядра вычисления со смешанной точностью

29.07.2020 10:12:50 | Автор: admin
image

В течение последних трёх лет Nvidia создавала графические чипы, в которых помимо обычных ядер, используемых для шейдеров, устанавливались дополнительные. Эти ядра, называемые тензорными, уже есть в тысячах настольных PC, ноутбуков, рабочих станций и дата-центров по всему миру. Но что же они делают и для чего применяются? Нужны ли они вообще в графических картах?

Сегодня мы объясним, что такое тензор, и как тензорные ядра используются в мире графики и глубокого обучения.

Краткий урок математики


Чтобы понять, чем же заняты тензорные ядра и для чего их можно использовать, нам сначала разобраться, что такое тензоры. Все микропроцессоры, какую бы задачу они ни выполняли, производят математические операции над числами (сложение, умножение и т.д.).

Иногда эти числа необходимо группировать, потому что они обладают определённым значением друг для друга. Например, когда чип обрабатывает данные для рендеринга графики, он может иметь дело с отдельными целочисленными значениями (допустим, +2 или +115) в качестве коэффициента масштабирования или с группой чисел с плавающей точкой (+0.1, -0.5, +0.6) в качестве координат точки в 3D-пространстве. Во втором случае для позиции точки требуются все три элемента данных.

Тензор это математический объект, описывающий соотношения между другими математическими объектами, связанными друг с другом. Обычно они отображаются в виде массива чисел, размерность которого показана ниже.


Простейший тип тензора имеет нулевую размерность и состоит из единственного значения; иначе он называется скалярной величиной. При увеличении количества размерностей мы сталкиваемся с другими распространёнными математическими структурами:

  • 1 измерение = вектор
  • 2 измерения = матрица

Строго говоря, скаляр это тензор 0 x 0, вектор 1 x 0, а матрица 1 x 1, но ради простоты и привязки к тензорным ядрам графического процессора мы будем рассматривать тензоры только в виде матриц.

Одна из самых важных математических операций, выполняемых над матрицами это умножение (или произведение). Давайте взглянем на то, как перемножаются друг на друга две матрицы, имеющие по четыре строки и столбца данных:


Окончательным результатом умножения всегда будет то же количество строк, что и в первой матрице, и то же количество столбцов, что и во второй. Как же перемножить эти два массива? Вот так:


На пальцах это посчитать не удастся

Как вы видите, вычисление простого произведения матриц состоит из целой кучи небольших умножений и сложений. Так как любой современный центральных процессор может выполнять обе эти операции, простейшие тензоры способен выполнять каждый настольный компьютер, ноутбук или планшет.

Однако показанный выше пример содержит 64 умножений и 48 сложений; каждое небольшое произведение даёт значение, которое нужно где то хранить, прежде чем его можно будет сложить с другими тремя небольшими произведениями, чтобы позже можно было сохранить окончательное значение тензора. Поэтому, несмотря на математическую простоту умножений матриц, они затратны вычислительно необходимо использовать множество регистров, а кэш должен уметь справляться с кучей операций считывания и записи.


Архитектура Intel Sandy Bridge, в которой впервые появились расширения AVX

На протяжении многих лет в процессорах AMD и Intel появлялись различные расширения (MMX, SSE, а теперь и AVX все они являются SIMD, single instruction multiple data), позволяющие процессору одновременно обрабатывать множество чисел с плавающей запятой; это как раз то, что требуется для перемножения матриц.

Но существует особый тип процессоров, который специально спроектирован для обработки операций SIMD: графические процессоры (graphics processing unit, GPU).

Умнее, чем обычный калькулятор?


В мире графики одновременно необходимо передавать и обрабатывать огромные объёмы информации в виде векторов. Благодаря своей способности параллельной обработки GPU идеально подходят для обработки тензоров; все современные графические процессоры поддерживают функциональность под названием GEMM (General Matrix Multiplication).

Это склеенная операция, при которой перемножаются две матрицы, а результат затем накапливается с другой матрицей. Существуют важные ограничения на формат матриц и все они связаны с количеством строк и столбцов каждой матрицы.


Требования GEMM к строкам и столбцам: матрица A(m x k), матрица B(k x n), матрица C(m x n)

Алгоритмы, используемые для выполнения операций с матрицами, обычно лучше всего работают, когда матрицы квадратные (например, массив 10 x 10 будет работать лучше, чем 50 x 2) и довольно небольшие по размеру. Но они всё равно будут работать лучше, если обрабатываются на оборудовании, которое предназначено исключительно для таких операций.

В декабре 2017 года Nvidia выпустила графическую карту с GPU, имеющим новую архитектуру Volta. Она была нацелена на профессиональные рынки, поэтому этот чип не использовался в моделях GeForce. Уникальным он был потому, что стал первым графическим процессором, имеющим ядра только для выполнения тензорных вычислений.


Графическая карта Nvidia Titan V, на которой установлен чип GV100 Volta. Да на ней можно запустить Crysis

Тензорные ядра Nvidia были предназначены для выполнения по 64 GEMM за тактовый цикл с матрицами 4 x 4, содержащими значения FP16 (числа с плавающей запятой размером 16 бит) или умножение FP16 со сложением FP32. Такие тензоры очень малы по размеру, поэтому при обработке настоящих множеств данных ядра обрабатывают небольшие части больших матриц, выстраивая окончательный ответ.

Менее года спустя Nvidia выпустила архитектуру Turing. На этот раз тензорные ядра были установлены и в модели GeForce потребительского уровня. Система была улучшена для поддержки других форматов данных, например, INT8 (8-битное целочисленное значение), но во всём остальном они работали так же, как в Volta.


В начале этого года архитектура Ampere дебютировала в графическом процессоре дата-центра A100, и на этот раз Nvidia повысила производительность (256 GEMM за цикл вместо 64), добавила новые форматы данных и возможность очень быстрой обработки разреженных тензоров (sparse tensor) (матриц со множеством нулей).

Программисты могут получить доступ к тензорным ядрам чипов Volta, Turing и Ampere очень просто: код всего лишь должен использовать флаг, сообщающий API и драйверам, что нужно применять тензорные ядра, тип данных должен поддерживаться ядрами, а размерности матриц должны быть кратными 8. При выполнении всех этих условий всем остальным займётся оборудование.

Всё это здорово, но насколько тензорные ядра лучше в обработке GEMM, чем обычные ядра GPU?

Когда появилась Volta, сайт Anandtech провёл математические тесты трёх карт Nvidia: новой Volta, самой мощной из линейки Pascal и старой карты Maxwell.


Понятие точности (precision) относится к количеству бит, использованных для чисел с плавающей запятой в матрицах: двойная (double) обозначает 64, одиночная (single) 32, и так далее. По горизонтальной оси отложено максимальное количество операций с плавающей запятой, выполняемое за секунду, или сокращённо FLOPs (помните, что одна GEMM это 3 FLOP).

Просто взгляните на результаты при использовании тензорных ядер вместо так называемых ядер CUDA! Очевидно, что они потрясающе справляются с подобной работой, но что же мы можем делать при помощи тензорных ядер?

Математика, делающая всё лучше


Тензорные вычисления чрезвычайно полезны в физике и проектировании, они используются для решения всевозможных сложных задач в механике жидкостей, электромагнетизме и астрофизике, однако компьютеры, которые использовались для обработки подобных чисел, обычно выполняли операции с матрицами в больших кластерах из центральных процессоров.

Ещё одна область, в которой любят применять тензоры это машинное обучение, особенно её подраздел глубокое обучение. Его смысл сводится к обработке огромных наборов данных в гигантских массивах, называемых нейронными сетями. Соединениям между различными значениями данных задаётся определённый вес число, выражающее важность конкретного соединения.


Поэтому когда нам нужно разобраться, как взаимодействуют все эти сотни, если не тысячи соединений, нужно умножить каждый элемент данных в сети на все возможные веса соединений. Другими словами, перемножить две матрицы, а это классическая тензорная математика!


Чипы Google TPU 3.0, закрытые системой водяного охлаждения

Именно поэтому во всех суперкомпьютерах глубокого обучения используются GPU, и почти всегда это Nvidia. Однако некоторые компании даже разработали собственные процессоры из тензорных ядер. Google, например, в 2016 году объявила о разработке своего первого TPU (tensor processing unit), но эти чипы настолько специализированные, что не могут выполнять ничего, кроме операций с матрицами.

Тензорные ядра в потребительских GPU (GeForce RTX)


Но что если я куплю графическую карту Nvidia GeForce RTX, не являясь ни астрофизиком, решающим задачи римановых многообразий, ни специалистом, экспериментирующим с глубинами свёрточных нейронных сетей...? Как я могу использовать тензорные ядра?

Чаще всего они не применяются для обычного рендеринга, кодирования или декодирования видео, поэтому может показаться, что вы потратили деньги на бесполезную функцию. Однако Nvidia встроила тензорные ядра в свои потребительские продукты в 2018 году (Turing GeForce RTX), внедрив при этом DLSS Deep Learning Super Sampling.


Принцип прост: рендерим кадр в довольно низком разрешении, а после завершения повышаем разрешение конечного результата так, чтобы он совпадал с родными размерами экрана монитора (например, рендерим в 1080p, а затем изменяем размер до 1400p). Благодаря этому повышается производительность, ведь обрабатывается меньшее количество пикселей, а на экране всё равно получается красивое изображение.

Консоли имели такую функцию уже многие годы, и многие современные игры для PC тоже обеспечивают эту возможность. В Assassin's Creed: Odyssey компании Ubisoft можно уменьшить разрешение рендеринга до всего 50% от разрешения монитора. К сожалению, результаты выглядят не так красиво. Вот как игра выглядит в 4K с максимальными настройками графики:


В высоких разрешениях текстуры выглядят красивее, потому что сохраняют в себе больше деталей. Однако для вывода этих пикселей на экран требуется много обработки. Теперь взгляните на то, что происходит при установке рендеринга на 1080p (25% от предыдущего количества пикселей), с использованием шейдеров в конце для растягивания картинки до 4K.


Из-за сжатия jpeg разница может быть заметной не сразу, но видно, что броня персонажа и скала вдали выглядят размытыми. Давайте приблизим часть изображения для более детального изучения:


Изображение слева отрендерено в 4K; изображение справа это 1080p, растянутые до 4K. Разница гораздо заметнее в движении, потому что смягчение всех деталей быстро превращается в размытую кашу. Частично чёткость можно восстановить благодаря эффекту резкости драйверов графической карты, но лучше бы нам вообще не приходилось этим не заниматься.

Именно здесь в ход идёт DLSS в первой версии этой технологии Nvidia анализировались несколько выбранных игр; они запускались в высоких разрешениях, низких разрешениях, со сглаживанием и без него. Во всех этих режимах был сгенерирован набор изображений, загруженный затем в суперкомпьютеры компании, которые использовали нейронную сеть, чтобы определить, каким образом лучше всего превратить изображение в разрешении 1080p в идеальную картинку в более высоком разрешении.


Нужно сказать, что DLSS 1.0 не был идеальным: детали часто терялись и в некоторых местах возникало странное мерцание. К тому же он не использовал сами тензорные ядра графической карты (он выполнялся в сети Nvidia) и каждой игре с поддержкой DLSS для генерации алгоритма повышения масштаба требовалось отдельное исследование компанией Nvidia.


Когда в начале 2020 года вышла версия 2.0, в неё были внесены серьёзные улучшения. Самым важным стало то, что суперкомпьютеры Nvidia теперь использовались только для создания общего алгоритма увеличения масштаба в новой версии DLSS для обработки пикселей с помощью нейронной модели (тензорными ядрами GPU) используются данные из отрендеренного кадра.


Нас впечатляют возможности DLSS 2.0, но пока его поддерживает очень мало игр на момент написания статьи их было всего 12. Всё больше разработчиков хочет реализовать его в своих будущих играх, и на то есть причины.

Благодаря любому увеличению масштаба можно добиться серьёзного роста производительности, поэтому можно быть уверенными, что DLSS продолжит эволюционировать.


Хотя визуальные результаты работы DLSS не всегда идеальны, освободив занятые рендерингом ресурсы, разработчики смогут добавить больше визуальных эффектов или обеспечить один уровень графики на более широком диапазоне платформ.

Например, DLSS часто рекламируют вместе с трассировкой лучей (ray tracing) в играх с поддержкой RTX. Карты GeForce RTX содержат дополнительные вычислительные блоки, называемые RT-ядрами, это специализированные логические блоки для ускорения вычислений пересечения луча с треугольником и обхода иерархии ограничивающих объёмов (bounding volume hierarchy, BVH). Эти два процесса являются очень длительными процедурами, определяющими способ взаимодействия света с другими объектами сцены.

Как мы выяснили, ray tracing очень трудоёмкий процесс, поэтому чтобы обеспечить в играх приемлемый уровень частоты кадров, разработчики должны ограничить количество лучей и выполняемых в сцене отражений. При выполнении этого процесса могут создаваться зернистые изображения, поэтому необходимо применять алгоритм устранения шумов, что повышает сложность обработки. Ожидается, что тензорные ядра повысят производительность этого процесса благодаря устранению шумов с использованием ИИ, однако это ещё предстоит реализовать: большинство современных приложений по-прежнему использует для этой задачи ядра CUDA. С другой стороны, благодаря тому, что DLSS 2.0 становится вполне практичной техникой повышения размера, тензорные ядра можно будет эффективно использовать для повышения частоты кадров после применения в сцене трассировки лучей.

Существуют и другие планы по использованию тензорных ядер карт GeForce RTX, например, улучшение анимаций персонажей или симуляция тканей. Но как и в случае с DLSS 1.0, пройдёт ещё немало времени, прежде чем появятся сотни игр, использующие специализированные матричные вычисления на GPU.

Многообещающее начало


Итак, ситуация такова тензорные ядра, отличные аппаратные блоки, которые, однако, встречаются только в некоторых картах потребительского уровня. Изменится ли что-то в будущем? Так как Nvidia уже значительно улучшила производительность каждого тензорного ядра в своей архитектуре Ampere, есть большая вероятность того, что они будут устанавливаться и в модели нижнего и среднего ценового уровня.

Хотя таких ядер пока нет в GPU компаний AMD и Intel, возможно, в будущем мы их увидим. У AMD есть система повышения резкости или улучшения деталей в готовых кадрах ценой небольшого снижения производительности, поэтому компания, возможно, будет придерживаться этой системы, особенно учитывая то, что её не нужно интегрировать разработчикам, достаточно включить её в драйверах.

Существует также мнение, что пространство на кристаллах в графических чипах лучше было бы потратить на дополнительные шейдерные ядра так поступила Nvidia при создании бюджетных версий своих чипов Turing. В таких продуктах, как GeForce GTX 1650, компания полностью отказалась от тензорных ядер и заменила их дополнительными FP16-шейдерами.

Но пока, если вы хотите обеспечить сверхбыструю обработку GEMM и воспользоваться всеми её преимуществами, то у вас есть два варианта: купить кучу огромных многоядерных CPU или просто один GPU с тензорными ядрами.
Подробнее..

Анонс Nvidia Ampere Как Хуанг всех приятно удивил

06.09.2020 12:06:19 | Автор: admin
Никто не станет отрицать 2020 год толком не успел начаться, как сразу же вошел в историю. Сложная обстановка в мире, где политические амбиции пересекаются с экономическими антирекордами, сильно усложнила привычный расклад вещей. Но несмотря на все невзгоды, текущий год не потерял статуса самого захватывающего года новинок в сфере компьютерного железа. Новое поколение консолей, новые видеокарты и процессоры ближайшие месяцы будут жаркими и интересными для каждого энтузиаста нашей сферы. И буквально в первый же день осени, 1 сентября, в 19:00 по московскому времени неподражаемый Дженсен Хуанг на своей уютной кухне представил всему миру Ampere долгожданное семейство новых игровых видеокарт nVidia.

image

Слухи об Ampere ходили еще с начала года, но по большей части не сулили фанатам зеленых ничего хорошего. Многолетнее партнерство NVidia с TSMC, лидером рынка наиболее совершенных кремниевых пластин, оказалось под угрозой после череды ударных успехов AMD. Красный гигант занял на будущее рекордный объем будущих 7-нм пластин, оставив Дженсену Хуангу лишь толику необходимых объемов. Переговоры между компаниями длились долго, но соглашения достичь не вышло. Оставив на балансе старого партнера производство чипов для карт серии Quadro, nVidia обратилась к единственной доступной альтернативе корейскому Samsung.

В итоге в основу линейки Ampere легли чипы, произведенные по 8-нм техпроцессу Samsung не слишком энергоэффективные и уступающие изделиям TSMC, но несравнимо дешевые, а потому крайне выгодные nVidia. Впрочем, о производственных проблемах корейских фабрик знали далеко за пределами рынка, и поэтому Big Navi в очередной раз казалась куда интереснее.

Перейдем к самому мероприятию. Заметим, что 21 день. 21 год можно было воспринять как смелую попытку смены парадигмы в названиях Дженсен много издевался над любителями смаковать утечки во времена Turing, но RTX 2180 все же не случилось. Трансляцию открывал красивый ролик с ключевыми достижениями графики, отчет которых начинался с GeForce 256 и заканчивался последними картами семейства Turing. Дженсен Хуанг с улыбкой и явным удовольствием рассказывал и о трассировке лучей, и о тензорных ядрах на основе продвинутых AI-алгоритмов, и даже о том, что традиционная растеризация вот-вот достигнет потолка, после которого на сцену выйдут другие технологии. Очевидно, речь идет именно про RTX переходя к сути, Дженсен Хуанг представил ключевые преимущества Ampere.

image

RTX 2.0 В 2 раза больше производительности


Ключевой фишкой поколения Turing стало появление технологии RTX трассировки лучей в реальном времени. Кинематографичные презентации Nvidia на некоторые время пленили всех красотами отражений, но уже совсем скоро стало понятно, что мощности RT-ядер недостаточно для комфортной игры с новыми плюшками. На примере недавней демонстрации Cyberpunk 2077, где нас тоже ожидают RTX-чудеса, поколение Turing снова будет не у дел 2080Ti не обеспечивает в будущей новинке даже 60 кадров в секунду в разрешении Full HD, что уж говорить о 4К. Остается только посочувствовать тем, кто успел недавно разориться на карты уходящего поколения.

Ampere же совсем другая история. Следующее поколение RTX обещает решить проблему низкой производительности с трассировкой лучей, из-за чего старые проблемы канут в лету. Больше никаких 40 кадров в Control с RTX ON а всё благодаря серьезному росту всех компонентов системы (тензорных ядер, SM-блоков и RT-ядер). Дженсен Хуанг обещает геймерам прирост по меньшей мере в 80%, но в некоторых играх можно без труда увидеть и двухкратный рост производительности в сравнении с RTX в исполнении Turing.

На практике двухкратный рост производительности RTX 3080 на фоне RTX 2080 продемонстрировали специалисты Digital Foundry, очень независимый hands-on которых вышел практически сразу после презентации Хуанга.

image
image
image
image

И на первый взгляд это серьезное достижение, но серьезное ли? Во-первых, презентация скрыла от зрителей самое важное число FPS, ограничившись процентами. Во-вторых, скоро на рынок выйдут консоли, в которых будет собственный RTX, и их красные лучи могут оказаться не сильно хуже зеленых лучей Ampere. Само собой, такую катастрофу, как Turing, nVidia просто не могла себе позволить перед релизом новых платформ Sony и Microsoft. Снова не завидуем тем, кто купил 2080Ti в надежде на светлое будущее.

RTX I/O Догнать и перегнать фишки PlayStation 5


Помните, как Марк Церни, ведущий архитектор PS5, при каждом удобном случае подчеркивал преимущества совершенной системы консоли, которая работает с данными в разы быстрее среднего современного ПК? Забудьте теперь над такими заявлениями можно будет только посмеяться.

Для достойного ответа кудесникам из Sony NVidia презентовала технологию RTX I/O своеобразный подход к обработке данных, заточенный под будущие релизы. Дженсен справедливо отметил, что современные ААА-хиты (да и другие знаковые проекты) с каждым годом становятся всё объемнее, и загружать те же 200 Гб текстур с жесткого диска уже просто невозможно. Даже современные SSD испытывают трудности с такими массивами данных, и именно здесь на помощь накопителям приходит хитрая технология nVidia.

image

Во время презентации Дженсен Хуанг продемонстрировал преимущества RTX I/O одной незамысловатой схемой согласно ей, данные с накопителя кэшируются напрямую в видеопамять карты Ampere, минуя процессор и подсистему памяти. При этом главным недостатком традиционного подхода Хуанг назвал отнюдь не узкую шину, а высокую нагрузку на CPU. Так, NVME-накопители последнего поколения способны загрузить целых 24 потока, что не пройдет бесследно в тяжелых игровых сценариях. По сути, в PS5 будет реализована похожая система, но nVidia предлагает её преимущества в более упрощенном формате.

Программные новинки NVidia Reflex, Broadcast, Omniverse Machinima



Вместе с красивыми графиками Дженсен Хуанг рассказал и о новых программных технологиях, призванных сделать покупку Ampere еще выгоднее. К примеру, киберспортсмены оценят преимущества nVidia Reflex, сводящей на нет большую часть задержек компонентов ПК на уровне драйвера обычно это значение составляет 30 мс, но с помощью Reflex его можно сократить более чем наполовину. Для уверенного доминирования над противником Хуанг рекомендовал использовать технологию в паре с новеньким монитором. Такие, с частотой обновления в 360 Гц должны выйти на рынок уже в ближайшие месяцы.

image

NVidia Broadcast прекрасный инструмент для стримеров, ведущих подкастов и других творческих личностей, покоряющих YouTube или Twitch. С его помощью можно убрать посторонние шумы, локализовав источники звука, размыть, заменить или вовсе убрать задний фон с веб-камеры всего в два клика. Всё это стало возможным благодаря появлению совершенных алгоритмов на базе машинного обучения.

Не забыли NVidia и о разработчиках, для них был представлен уникальный в своем роде инструментарий для создания эффектных роликов и презентаций, а также работы с ассетами. Он получил название Omniverse Machinima в честь тех самых легендарных машиним из светлого прошлого. В рамках анонса примером работы Omniverse послужила Mount & Blade 2: Bannerlord, на базе ассетов которого всего за несколько дней был создан кинематографичный ролик с полностью анимированным персонажем. С помощью Omniverse станет возможным моделирование мимики и анимации рта героя по голосу актера озвучки, построение общих анимаций моделей и многое другое. Этот интересный набор инструментов станет доступным для общего тестирования уже в октябре. Возможно, на горизонте маячит новый золотой век машиним.

Остается лишь один вопрос где же новая графическая оболочка драйвера для обладателей видеокарт nVidia? Почему Radeon Adrenalin всё еще является более совершенным и продвинутым, а Дженсен не спешит шагнуть в XXI век? К сожалению, ответа на эти вопросы мы не знаем до сих пор. А теперь поговорим об изменениях.

Позиционирование RTX 3000. Упрощенные названия, низкие цены


Поколение Ampere стало первым за долгие годы, в рамках которого компания NVidia отошла от традиции выпуска флагмана с индексом Ti. У такого неожиданного решения было несколько причин. Самой весомой из них стала серьезная путаница в модельном ряде, из-за чего бесконечные Ti, SUPER и модели с разной конфигурацией памяти то и дело портили настроение людям, пришедшим в магазин за видеокартой. Уложить в памяти то, какая карта быстрее и почему, было сложно и поэтому nVidia протянула руку помощи, создав максимально простую, интуитивно понятную линейку RTX 3000.

Флагманскую роль на этот раз исполнила классическая вторая карта линейки RTX 3080. Имея 10 Гб сверхбыстрой памяти GDDR6X и целых 8704 CUDA-ядра (что вдвое больше 2080Ti), новинка готова свернуть горы и заявленная двукратная производительность 2080 делает серьезную заявку на лидерство. Но зрителей анонса шокировало даже не это, а цена всего $699!

image

И нет, это не ошибка сам Дженсен признал, что Turing не смог склонить к апгрейду владельцев блестящих видеокарт семейства Pascal, но Ampere способен приятно удивить, причем сделать это недорого. И речь далеко не только о RTX 3080.
Та же RTX 3070, младшая модель из стартовой линейки, всего за $499 предлагает производительность выше 2080Ti! Да, у неё на борту всего 8 Гб обычной GDDR6 видеопамяти, но это не слишком умаляет очевидных достоинств. Вся мощь флагмана прошлого поколения за 40% от цены?

image

Но и это еще не всё. Отказавшись от бренда Titan, nVidia представила видеокарту для тех, кому важно не только играть, но и заниматься контентом на новом уровне. RTX 3090, которую даже Дженсен с трудом вытащил из печки, несет на борту 24 Гб памяти GDDR6X, и предлагает забыть о любых компромиссах.

image

На презентации nVidia для намека на мощность новинки даже показывали каких-то людей, играющих в разрешении 8К с 60 FPS. И эти люди были серьезно впечатлены! Вопросов нет, 3090 для серьезных людей. И владельцев 8К-телевизоров.
И всё же презентация состояла не только из светлого и прекрасного. Стоило снять зеленые очки и отвести взгляд от портрета Дженсена Хуанга на столе, как вопросы возникли сами собой. И сейчас мы разберем всё, что осталось за кадром анонса Ampere.

О чем умолчали на презентации Ampere? Подводные камни предзаказа


Любой анонс всегда стоит воспринимать со здравой долей скептицизма. Вспомните презентацию Turing, где слова Дженсена It just works и несколько красивых демо заставили людей до хрипоты доказывать друг другу, что за RTX будущее. И если в этом они не совсем ошиблись, то с покупкой карт поколения Turing многие допустили ошибку. Игр с поддержкой RTX в заявленном количестве так и не вышло, а те, что все-таки получили поддержку перспективной технологии, работали из рук вон плохо владельцы флагманских видеокарт продолжали играть с отключенными RTX, надеясь на будущее. И вот оно наступило и после анонса Ampere некогда счастливые владельцы 2080 SUPER или 2080Ti в спешке сбывают свои карты на Ebay по 400 долларов релиз всё ближе, и скоро былые флагманы превратятся в тыкву, обесценившись в разы.

Но что же графики? Дженсен Хуанг продажник от бога, мастер презентаций и душевный мужик, которому хочется верить всем сердцем. Но увы, в этот раз красивые значения не показывали нам самого главного, а именно значений FPS (которые были продемонстрированы позже на других каналах и только в определённых сценария и играх). Будь то множители (как в случае с RT-производительностью) или проценты (как в случае с демонстрацией от Digital Foundry) всё это никак не демонстрирует нам чистую производительность, и просто вводит в заблуждение. Не говоря уже о том, что многие цифры были получены с использованием DLSS 2.0 прекрасной технологии апскейлинга, которая творит чудеса с производительностью и картинкой но лишь там, где поддерживается. Ярким примером (показанным на презентации) был недавний ПК-релиз Death Stranding Кодзима прекрасно реализовал технологию в своем проекте, но опять же далеко не каждый разработчик на это способен, и общую картину это никак не показывает. Насколько же 3080 бодрее той же 2080 без RTX и DLSS? Ответ на этот вопрос знает лишь сам Дженсен Хуанг но вам не скажет, а то вдруг еще не предзакажете 3080.

Энергопотребление новинок тоже упоминалось только вскользь. Довольно жуткие цифры в 90% производительности на ватт могли создать у зрителей впечатление, что перед нами монстры, да еще и не слишком прожорливые, но это не так. Умеренной из трех карт является лишь RTX 3070 (с TDP в 220 Вт) её игрушечную систему охлаждения можно сразу заметить на фоне двух старших моделей. А там экспериментальная система, инновационный дизайн, внушительные габариты, и TDP, значения которых могут уходить за пределы 400 Вт (в разогнанных партнерских моделях). Такие цифры серьезно угнетают, но говорят они лишь об одном из двух или техпроцесс Samsung всё еще очень сырой, или же nVidia выжала из своих чипов всё, что могла, опасаясь то ли консолей, то ли таинственной Big Navi. В любом случае, если ваш интерес сосредоточен на 3080 или 3090, позаботьтесь и о покупке дорогого, хорошо зарекомендовавшего себя блока питания мощностью минимум на 650 Вт. KSAC не покупать!
Наконец, остается вопрос доступности. Новые видеокарты могут сильно задержаться на всех рынках за пределами США. Случай 2080Ti, которая добиралась до некоторых счастливых предзаказавших целых три месяца после релиза, намекает на то, что на этот раз картина будет как минимум схожей, а некоторые ретейлеры, почувствовав жажду наживы, будут предлагать новинки по таким ценам, что офигеет даже сам Дженсен Хуанг. Увы, современная ситуация в мире только способствует всякого рода перегибам.

К тому же никто не может сказать, какими окажутся партнерские наценки на карты семейства Ampere. Если самые дешевые 2080Ti можно было купить чуть дороже 1000 долларов, то лучшие модели продавались уже за $1200 и даже больше. Тысяча баксов за 3080? Не исключено, поэтому мы рекомендуем вам переждать релизный шторм, и купить видеокарту чуть позже по более приятной цене. Продажи Ampere стартуют совсем скоро. RTX 3080 за $800 появится в магазинах уже 17 сентября, RTX 3090 за $1500 ограниченным тиражом начнет продаваться 24 сентября, а RTX 3070 за вкусные $500 попадет на прилавки только в октябре.

image

Выводы. Ampere круто!


Что же в итоге? Дженсен Хуанг начал вещание с кухни, и поразил весь мир так, как этого не ожидал никто. Новое поколение оказалось не только существенно дешевле предыдущего, но и обещает самый крутой рывок производительности за поколение в истории, как заявляет сама nVidia. Фанаты ликуют, хейтеры ненавидят, а мы похвалим Дженсена за очередной прекрасный анонс смотреть трансляцию было одно удовольствие. А вам, друзья, советуем не отключать голову и не принимать поспешных решений. Дождитесь независимых тестов, не верьте в громкие заявления авансом.

Наш видеоролик по Анонсу nVidia Ampere:
image

Автор статьи Александр Лис.
Подробнее..

Категории

Последние комментарии

  • Имя: Макс
    24.08.2022 | 11:28
    Я разраб в IT компании, работаю на арбитражную команду. Мы работаем с приламы и сайтами, при работе замечаются постоянные баны и лаги. Пацаны посоветовали сервис по анализу исходного кода,https://app Подробнее..
  • Имя: 9055410337
    20.08.2022 | 17:41
    поможем пишите в телеграм Подробнее..
  • Имя: sabbat
    17.08.2022 | 20:42
    Охренеть.. это просто шикарная статья, феноменально круто. Большое спасибо за разбор! Надеюсь как-нибудь с тобой связаться для обсуждений чего-либо) Подробнее..
  • Имя: Мария
    09.08.2022 | 14:44
    Добрый день. Если обладаете такой информацией, то подскажите, пожалуйста, где можно найти много-много материала по Yggdrasil и его уязвимостях для написания диплома? Благодарю. Подробнее..
© 2006-2024, personeltest.ru