Русский
Русский
English
Статистика
Реклама

Компьютерное железо

Перевод Mitsubishi VisiTel общение в Zoom в стиле 1980-х

06.10.2020 12:23:44 | Автор: admin
За окном 2020 год. Удалённая работа это уже совершенно нормально. Десятилетия рекламы ведущих телекоммуникационных компаний наконец сделали своё дело научили мою маму совершать видеозвонки. Правда, события последних месяцев, вызвавшие неожиданный интерес общественности к видеосвязи, привели к небывалому дефициту веб-камер. Но мы не можем допустить того, чтобы это помешало бы нам вести нормальную жизнь. Ведь каждому из нас надо много кому позвонить. У меня есть решение проблемы нехватки веб-камер. Это Mitsubishi VisiTel!


Mitsubishi VisiTel

В 1988 году, когда появилось это устройство, оно, определённо, олицетворяло собой будущее. А при его низкой цене всего $399 как могло оно мгновенно не стать популярным? В журнале Популярная механика, вышедшем в феврале 1988, Mitsubishi VisiTel была посвящена целая страница. Там устройство было описано с упоминанием неожиданно большого объёма технических деталей. А ведущие передачи Gadget Guru на телеканале WSMV, сразу после того, как завели разговор о VisiTel, задались невероятно важным вопросом: Можно ли продолжить пользоваться обычным телефоном в то время, когда эта штука подключена к линии?.

Для того чтобы мы наконец приняли тот неизбежный факт, что перед звонком коллегам надо принять душ и привести себя в порядок, понадобились 30 лет и глобальная пандемия. Сейчас, как ни крути, от видеотелефонии уже никуда не деться.

Я не первый, кто полагает, что в VisiTel есть что-то особенно китчевое. Люди уже давно возятся с этим устройством. Несмотря на то, что оно не передаёт видеосигнал, а лишь позволяет обмениваться фотографиями, это один из тех продуктов, которые относятся к выдающимся достижениями инженерной мысли. Это разработка, которая серьёзно опередила своё время.

Мой интерес к VisiTel появился после этого видео. Его автор показал, как, замедляя или ускоряя захват изображения, отправляемого VisiTel, можно сделать так, чтобы изображение на экране исказилось бы. Узнав это, я тут же понял, что устройство использует простую схему амплитудной модуляции. Зная об этом, я отправился на eBay и нашёл там подходящий мне экземпляр VisiTel. Моей целью было сделать так, чтобы эта удивительная капсула времени с техническими достижениями конца 1980-х заработала бы в связке с выбранными мной современными технологиями. В частности, мне хотелось организовать общение с коллегами в Zoom. Более того, мне хотелось достичь этого без необходимости модификации аппаратной части VisiTel. Есть в этом устройстве что-то особенное, такое, что хочется оставить в его первозданном виде.

Шаг 1. Подключение



Начало экспериментов с VisiTel

VisiTel до смешного легко привести в рабочее состояние. Из задней части устройства выходит длинный кабель с Y-образным разветвителем, находящимся ближе к концу (подробнее об этом ниже), и с парой разъёмов. Один из них это разъём питания диаметром 2,1 мм. Устройству нужно 15 вольт. Несколько странно то, что разработчики устройства решили написать число 15 таким шрифтом, что надпись читается как IS Volts. Второй разъём это обычный RJ-11, в котором задействованы два контакта. Это стандартный разъём для подключения телефонов. Если вы помните обычные проводные телефоны, то вы можете вспомнить ещё и о том, что трубка подключается к аппарату с помощью разъёма RJ-9, а телефон подключается к линии с помощью разъёма RJ-11. Смысл этого в том, чтобы к телефону можно было бы подключить не только трубку, но и что-то ещё, а так же в том, чтобы можно было бы заменить кабель или трубку в том случае, если с ними что-то случится. Правда, нельзя сказать, что с кабелями, идущими от телефонов к трубкам, часто что-то случалось, так как при их изготовлении использовались особые, очень гибкие провода.


Сведения о VisiTel


Кабель, выходящий из задней части VisiTel

Если вернуться к задней части VisiTel, то там, помимо кабеля, есть разъём RJ-11. После того, как я некоторое время размышлял о том, зачем он там нужен, меня осенило. Устройство играет роль посредника между обычным телефонным аппаратом и телефонной линией. Это позволяет VisiTel прослушивать линию или передавать изображения во время обычных телефонных звонков. Это ведёт к очевидной проблеме. А именно, речь идёт о том, что, так как VisiTel пользуется телефонной линией одновременно с телефоном, абонент будет слышать звуки, сопутствующие приёму и отправке изображений. Но инженеры Mitsubishi об этом позаботились. Перед отправкой или получением изображения можно услышать громкий щелчок, указывающий на то, что какое-то реле отключает на некоторое время телефон. Мы собираемся применять VisiTel так, что получаемый с устройства аудиосигнал нам не интересен, поэтому мы не будем ничего подключать к разъёму RJ-11, который находится на задней стенке устройства. Это делает соответствующее реле ненужным, а значит, его можно убрать ради избавления от щелчков, сопутствующих отправке изображения.

Как организовать обмен данными с этим устройством? На моём компьютере, например, нет разъёма RJ-11. Правда, это не страшно, так как в продаже имеются переходники для подключения телефонных трубок с разъёмами RJ-9 к смартфонам. Один из вариантов подключения заключается в том, что можно отрезать разъём RJ-11 и припаять к проводу 3,5-мм штекер, организовав монофонический режим передачи звука. Обратите внимание на то, что я изначально полагал, что у VisiTel имеется разъём RJ-9, а не RJ-11.

При использовании 3,5-мм штекера подключить VisiTel к компьютеру до крайности просто. А именно, надо раздобыть USB-адаптер с отдельными выходами для подключения микрофона и наушника (не TRSS) и подключить VisiTel к подходящему разъёму.

Выше я говорил о том, что ещё вернусь к Y-образному разветвителю. У моего VisiTel была какая-то проблема с проводами около этого разветвителя. Причём, провод был не разорван, когда всё просто отказывается работать, и когда проблема совершенно очевидна. Это была одна из тех неприятных неисправностей, когда вечером всё работает, а на следующее утро уже нет. Хорошо было бы, если бы создатели VisiTel использовали в своём изделии особые гибкие провода. Эта проблема, которая то появлялась, то исчезала, стоила мне многих дней, проведённых в бессмысленном поиске её решения. Я, без особого успеха, искал проблемы с перегревом устройства, трижды проверял настройки аудиокарты. В итоге я обнаружил проблему, когда, в ходе испытаний, приподнял устройство. После этого я нашёл в записи характерные признаки повреждения соединения. Из этой истории я вынес один урок, касающийся работы со старым аппаратным обеспечением. Он заключается в том, что, во время работы устройства, его надо немного подвигать и посмотреть, всё ли в это время функционирует так же, как прежде.


Место повреждения проводов отмечено кружком

Шаг 2. Исследование механизма передачи изображений


После того, как мы решили проблему с хитрыми проводами и соединили устройство с компьютером, пришло время разобраться с тем, какой протокол используется для кодирования передаваемых изображений. Видеоматериалы и статьи о VisiTel позволяют сделать вывод о том, что изображения кодируются с использованием амплитудной модуляции звукового сигнала. Амплитудная модуляция это кодирование данных, выполняемое путём изменения амплитуды несущего сигнала. Обычно амплитудную модуляцию используют для кодирования звука, передаваемого с помощью радиоволн, но такой же подход можно использовать для передачи изображений с использованием радиоволн или даже звуковых волн. Тут можно найти прекрасное подробное описание этого процесса с примерами кода на Python, предназначенное для тех, кто привык учиться новому через практику.

Зная о том, что данные закодированы с использованием механизма амплитудной модуляции звукового сигнала, мы можем сделать первый шаг к раскодированию этих данных. Этот шаг заключается в записи модулированного сигнала, передающего изображение-образец с заранее известными свойствами. Для захвата аудиосигнала я воспользовался Audacity моей привычной программой для работы со звуком.


Графическое представление аудиосигнала

Выше показано, как я, стремясь лучше понять то, как именно кодируются данные, отправил с VisiTel очень простое, специально подготовленное изображение. Это изображение, показанное ниже, представляло собой пару карточек, чёрную и белую, которые я держал перед камерой устройства. Сигнал, соответствующий ему, отмечен в программе как blackWhiteV.


Изображение, используемое в эксперименте

Присмотримся к полученному аудиосигналу поближе.


Более пристальное исследование аудиосигнала

Послушать этот сигнал можно здесь.

Как видите, в начале каждого блока имеется некий заголовок, или последовательность, указывающая на инициализацию (с 17,55 до 17,80 в данном примере). Это позволяет принимающему устройству узнать о том, что другое устройство собирается передать изображение и определить максимальную амплитуду сигнала. Этот показатель потом, при декодировании изображения, используется как коэффициент масштабирования. В результате недостатки телефонной линии не приведут к потере изображением контраста или яркости. Сигнал, передаваемый по некоторым линиям, может оказаться зашумлённым или ослабленным. Обратите внимание на то, что сигнал до 17,55 это просто шум, он неважен для протокола передачи данных, используемым VisiTel.

Для того чтобы убедиться в том, что обнаруженная мной заголовочная последовательность действительно указывает VisiTel на то, что другое устройство собирается отправить ему изображение, я дал устройству послушать лишь этот небольшой фрагмент записи и был вознаграждён щелчком реле. Очевидно было то, что эта последовательность приводит в действие некие механизмы. Но, отправив устройству лишь 30 миллисекунд заголовка, я понял, что устройство обнаруживает то, что изображение после заголовка не передаётся. Реле выключается через несколько миллисекунд после окончания передачи заголовка. Если же проиграть заголовок и первые несколько миллисекунд звука, идущего за ним, то VisiTel начинает выводить изображение на экране. Если выключить звук в то время, когда устройство выводит изображение на экран, то работа продолжается, VisiTel продолжает получать какие-то данные до заполнения буфера, используемого для хранения изображения. Это в очередной раз доказывает то, что после того, как VisiTel начинает обрабатывать графические данные, устройство не полагается на внешний осциллятор для того чтобы узнать о том, где именно в сигнале закодированы нужные ему данные. У него имеется собственный генератор тактовых импульсов, который указывает ему на то, где именно находится то, что ему нужно.

Так как заголовочная часть сигнала отвечает лишь за установку соединения, и учитывая то, что она не зависит от передаваемого изображения, у меня не возникло желания углубляться в исследование её особенностей. Нам, для достижения наших целей, достаточно знать о том, что заголовок отвечает за установление соединения, а так же достаточно иметь примерное представление о том, как он выглядит.

А теперь пришло время переходить к самому сложному к выяснению того, как именно закодирована графическая информация, как звучат пиксели. Для начала мне нужно было разобраться с тем, как пиксельные данные представлены в звуковом сигнале. Моя первая догадка заключалась в том, что каждая полная волна представляет один пиксель. Я проверил эту идею, подсчитав количество волн между повторами тестового паттерна. То, что у меня получилось, соответствовало характеристикам VisiTel из старой рекламы. А именно это 96x96 пикселей, при этом несколько строк выводятся до начала вывода самого изображения.

Всё это значит, что устройство анализирует амплитуду каждой волны и записывает данные в виде пикселя буфера, представляющего в VisiTel цифровое изображение. Из маркетинговых материалов по VisiTel мы знаем о том, что каждый пиксель выводимого им изображения имеет 16 градаций серого. Но я, анализируя пиксели из аналогового сигнала, не ощутил необходимости применять эффект постеризации их при декодировании или кодировании.

Интересно то, что яркость пикселей перед модуляцией инвертируется. В итоге самые большие волны соответствуют самым тёмным пикселям. Кроме того, изображение отражается слева направо, то есть формируется зеркальное изображение. Мне хотелось бы узнать о том, что читатели этого материала думают о причине инвертирования яркости пикселей перед передачей сигнала. Я подозреваю, что дело тут в том, что человеческое зрение спокойнее воспринимает случайным образом разбросанные чёрные пиксели, чем такие же белые. Ведь шум в телефонных линиях это проблема, с которой, VisiTel, определённо приходилось бороться в 1988 году.


Исследование сигнала

Правда, в вышеописанной схеме кодирования изображений было одно исключение, которое ускользало от меня несколько недель. При использовании такой вот инвертированной схемы кодирования совершенно белые пиксели должны быть представлены тишиной. Сигнал, представляющий такие пиксели, должен попросту отсутствовать. Но у меня возникло такое ощущение, что создателям VisiTel эта идея не понравилась. Вместо этого для кодирования полностью белых пикселей выполнялось смещение несущего сигнала на 1/4 длины волны, в результате такие волны не совпадали по фазе с обычными. Сигнал при этом, как и прежде, можно было отправить другому устройству. Устройство-приёмник, получая такой сигнал, сохраняло синхронизацию с обычным сигналом и брало сведения об амплитуде сигнала там же, где обычно, но теперь в эти моменты волна проходила через 0, что давало белый цвет пикселей. Как я уже говорил, если отключить звук в процессе передачи изображения, то VisiTel продолжает выводить изображение до заполнения буфера. Это белые пиксели. В результате оказывается, что тишина, и без присутствия в линии полезного сигнала, воспринимается устройством как белый цвет. Не знаю, для чего создатели устройства решили усложнить схему модуляции, введя в неё такой вот режим смещения по фазе. Как по мне, так усилий на это было потрачено много, а пользы от такого шага или вовсе нет, или она весьма несущественна.

Я, не зная о модуляции со сдвигом фазы, изначально пытался найти максимум каждой из волн и представить полученное значение в виде пикселя. Переходы на новую строку выполнялись с шагом, вычисляемым по формуле 96*(число семплов на волну). Это вело к тому, что в некоторых строках оказывалось или немного больше, или немного меньше пикселей. Кроме того, такой вот грубый подход к анализу сигнала был весьма чувствительным к шуму, так как даже маленькие пики на волнах могли приводить к появлению лишних пикселей. Правда, такой механизм декодирования изображений было очень просто реализовать. Реализация этой простой идеи могла бы декодировать изображения без необходимости синхронизации приёмника и источника сигнала. Но у меня, после применения такой системы декодирования сигнала, ничего пристойного не получилось.

Для того чтобы более точно декодировать изображения, нам нужно поступать так же, как поступает VisiTel. А именно, нужно синхронизироваться с сигналом в момент обработки заголовка, а затем семплировать сигнал через равные промежутки времени. Неудивительно то, что для такой обработки сигнала нужно очень точно подбирать время. В моём случае, при записи звука с частотой 44100 Гц, имеется 25,23158 семплов на волну (это значит, что частота несущей волны 1747,80968929 Гц). В результате каждый раз, когда мы считываем информацию о пикселе, мы будем искать в аудиобуфере данные по следующему пикселю на расстоянии 25,23158 семплов от предыдущего. Так как позиции семплов описываются целочисленными значениями, мы просто округляем соответствующее число до ближайшего целого и используем его. Самое главное здесь не позволить ошибкам округления накапливаться, так как это приведёт к тому, что позиция семплинга быстро сместится по фазе относительно звуковой волны. А если при декодировании изображения произойдёт подобное смещение, пусть и небольшое, готовое изображение окажется наполненным артефактами.


Изображение, полное артефактов

К моему счастью, число семплов на волну оказалось весьма стабильным. Оно не менялось после прогрева устройства, хотя меня беспокоило то, что это может стать проблемой. Такая стабильность позволила мне попросту жёстко задать соответствующее значение в коде декодирования изображений. В идеале количество семплов на волну нужно узнавать из заголовка, но я обнаружил, что тут недостаточно семплов для достижения точности в 5 знаков после запятой. А значение, жёстко заданное в коде, позволило добиваться стабильных результатов. Благодаря такой, более точной реализации системы декодирования сигнала, переходы на новую строку просто выполнялись после того, как функция, формирующая 1 пиксель, вызывалась 96 раз.

До сих пор я работал с заранее записанными фрагментами звука, декодированными из WAV-файлов. Для того чтобы работать в интерактивном режиме и декодировать изображения, поступающие на аудиоинтерфейс компьютера, декодер нужно было оснастить возможностью обнаружения заголовка и нахождения начала данных изображения. Если взглянуть на заголовок, то окажется, что в нём имеется три чётко различимых фрагмента.


Анализ заголовка: несущая волна тишина несущая волна

Для того чтобы это обнаружить, я реализовал простой детектор, основанный на FFT, и конечный автомат. Сначала осуществляется обработка исходного материала, а затем детектор исследует каждый блок аудиосигнала до тех пор, пока не найдёт сильный сигнал частоты 1747 Гц. Затем блоки исследуются до нахождения места, где сигнал исчезает, а потом снова появляется. Это означает нахождение момента начала передачи. После этого для нахождения момента начала передачи данных изображения используется простое статическое смещение, а для декодирования изображения применяются вышеописанные механизмы. После завершения декодирования изображение выводится, а конечный автомат сбрасывается к исходному состоянию и ожидает начала следующей передачи.

Шаг 3. Представление VisiTel в виде веб-камеры


Теперь, когда мы смогли декодировать изображение, принимаемое с VisiTel, осталось поставить на место последний кусок нашего паззла. Нам надо представить декодированные изображения в форме видеокадров и передать видеопоток программе для видеоконференций. В Linux это делается на удивление просто. Видео-вход абстрагируется с помощью интерфейса V4L2, но это, к сожалению, происходит в пространстве ядра. Для того чтобы не связываться со сложностями, сопутствующими созданию модуля ядра, можно воспользоваться готовым решением v4l2loopback. Этот модуль представляет собой и устройство ввода, и устройство вывода. Входные графические данные, которые ему передают, становятся выходными, которые могут принять другие программы, вроде Zoom. Есть даже Python-пакеты, которые абстрагируют всё это ещё сильнее, позволяя работать с подобными данными с помощью OpenCV и NumPy. Я воспользовался одним из таких пакетов pyfakewebcam. Он отличается чрезвычайно простым интерфейсом. Для создания виртуальной веб-камеры достаточно сделать следующее:

importpyfakewebcamself.camera=pyfakewebcam.FakeWebcam(self.v4l2_device, 640, 480)

А при получении нового кадра надо сделать так:

self.camera.schedule_frame(output)

Теперь, после этого небольшого дополнения к декодеру, всё заработало как надо. Zoom может получать изображения с VisiTel, а мы можем организовать видеочат в стиле 1980-х.


Видеочат в духе 1980-х

Мне ещё хотелось бы установить Linux-драйвер Direct Rendering Manager, что позволит не только получать изображения с VisiTel, но и выводить их на него. Но пока, чтобы признать этот проект успешным, мне достаточно того, что я могу общаться в Zoom, пользуясь устройством из 1988 года. Вот, если интересно, код проекта на GitHub.

А вы пытались дать вторую жизнь каким-нибудь устройствам из далёкого прошлого?



Подробнее..

Из песочницы Сборка очень компактного планшетного ПК на базе Core i7

06.10.2020 16:11:14 | Автор: admin
Привет, Хабр! Хочу рассказать о своем порядком затянувшемся пет-проекте по сборке самодельного достаточно мощного планшетного ПК. Процесс еще не завершен, текущее состояние можно назвать работающим прототипом. Но некоторые предварительные результаты достигнуты, и я хочу поделиться основными идеями.



Зачем это нужно


Идея собрать самодельный планшетный компьютер пришла мне в голову еще несколько лет назад. В конце нулевых были популярны так называемые UMPC устройства на базе процессоров архитектуры x86, способные выполнять все обычные программы для настольных компьютеров (ну, не все, а те, которые мощность железа позволит) но при этом помещающиеся если не в кармане брюк, то хотя бы в кармане зимней куртки. Часто подобные устройства помимо сенсорного экрана имели QWERTY-клавиатуру, причем в форм-факторе, оптимизированном под работу на весу, а также тачпад или трекбол для точного позиционирования курсора мыши (что было особенно важно при низкой точности сенсорных экранов того времени и интерфейса настольных программ, не расчитанных на маленькие экраны и сенсорный ввод). В то время многие думали, что за подобными устройствами будущее. Они должны были стать настоящими помощниками в работе, позволяющими работать не только в офисе и дома, но вообще где угодно, и даже не обязательно, чтобы при этом имелась бы в наличии горизонтальная поверхность, на которую можно поставить свой гаджет. Я сам являлся счастливым владельцем одного из таких устройств. Мой UMPC был выполнен в форм-факторе горизонтального слайдера, с QWERTY-клавиатурой, тачпадом и сенсорным экраном диагональю 7 дюймов. И это устройство реально помогало экономить время. С его помощью была сделана значительная часть моей дипломной работы причем не только написана пояснительная записка, но и написан, скомпилирован и отлажен программный код. Все это я делал прямо в метро по дороге в институт, на работу, и потом домой, и для этого даже не обязательно было искать сидячее место размеры и форм-фактор устройства позволяли спокойно работать стоя. Часы дороги уже не тратились впустую, и вернувшись домой, я мог позволить себе потратить вечер на другие занятия.

Однако, вечных устройств не бывает, электронная техника стремительно устаревает. Мой UMPC изначально имел очень слабое железо даже по меркам своего времени, а спустя несколько лет его уже невозможно было использовать даже для самых простейших задач. Я долго пытался найти ему замену, но подобные устройства вышли из моды, и их перестали производить. Тогда (спустя уже несколько лет) я решил собрать подобное устройство самостоятельно. В итоге процесс сборки очень сильно затянулся, я занимался им урывками, одновременно прокачивая скилл работы с паяльником. Сейчас от многих вещей пришлось отказаться, а внешний вид устройства пока оставляет желать лучшего. Но как ни странно, несмотря на абсолютно дилетантский подход к проектированию, в общем и целом устройство оказалось работоспособным.

Что главное в самодельном портативном ПК


В Интернете можно найти много описаний различных самодельных портативных компьютеров. В качестве базы для них часто используются промышленные материнские платы различных компактных форм-факторов. На таких платах, как правило, находится CPU с низким или сверхнизким энергопотреблением, слот(ы) оперативной памяти ноутбучного форм-фактора SO-DIMM либо уже распаянная память, и разъем LVDS, позволяющий подключить ноутбучный экран. Я пошел тем же путем. Но основная проблема, которую я долго не мог решить, заключалась в том, как добиться, чтобы собранный компьютер считал себя портативным, то есть на уровне операционной системы знал о наличии у него батареи, отображал бы ее текущее состояние и прогноз оставшегося времени работы на экране, поддерживал различные режимы энергопотребления (в том числе режим максимальной экономии энергии) и переключение этих режимов парой кликов, а не сложной последовательностью действий, и при критическом снижении уровня заряда автоматически переходил бы в режим гибернации до того, как напряжение упадет настолько, что работа будет прервана аварийным порядком. Во всех описаниях самодельных носимых устройств, которые мне удалось найти, эта проблема либо обходилась стороной, либо использовалась операционная система c максимально открытым исходным кодом и большими возможностями для разработки драйверов устройств, модификации ключевых системных модулей или создании новых (зачастую на базе Arduino). Мне же надо было обеспечить поддержку традиционных настольных операционных систем, в том числе, Windows. Как ни странно, никакой подходящей информации о том, как сделать Windows-совместимое управление батареей, я не нашел. Мне это до сих пор удивительно, возможно, я просто не там искал, но тем не менее, описанная далее идея пришла мне в голову самостоятельно, и поэтому я рассказываю про нее здесь.

Итак, я понял, что мне нужен какой-либо контроллер батареи, поддерживающий стандарт ACPI. И я знал, что существуют некоторые источники беспребойного питания, поддерживающие этот стандарт. В компьютерах, к которым подключен такой UPS (через USB-порт), появляется стандартный значок батареи Windows на панели задач, и вместе с ним также появляются все описанные выше функции. Я уже думал купить себе подобный UPS, выковырять из него плату управления и попытаться перепрошить ее под новые характеристики батареи, но нашел более легкий способ использовать устройство под названием OpenUPS. Это устройство представляет собой плату универсального контроллера батареи, легко настраиваемого под самые разные потребности. В нем поддерживаются различные типы батарей (как свинцовые, так и литий-полимерные), и различное количество ячеек батареи. Есть также функция балансировки ячеек при заряде, а задавать все требуемые параметры очень легко с помощью специальной программы с графическим интерфейсом. Это было то, что мне нужно.

Набор компонентов


Таким образом, общая концепция устройства сложилась. В нем должны быть следующие обязательные компоненты:

  • материнская плата формата PicoITX;
  • контроллер батареи OpenUPS;
  • литий-полимерная батарея из 4 ячеек, соединенных последовательно (чтобы обеспечить напряжение питания не меньше 12 вольт даже при минимальном заряде);
  • экран с разъемом LVDS, встроенная в него или отдельная сенсорная панель с контроллером, поддерживающая режим multitouch.

Кроме этого возможны дополнительные компоненты насколько хватит размеров устройства и емкости батареи. Очень желательно наличие встроенного GSM-модуля, причем по возможности с голосовыми функциями, чтобы устройство можно было использовать и в качестве смартфона. И еще хотелось бы снабдить устройство физической QWERTY-клавиатурой, либо располагающейся под экраном (сдвигающимся в виде горизонтального слайдера) либо состоящей из двух половин с двух сторон от экрана. Это ведь должно быть устройство для работы, а не только для того, чтобы фоточки в соцсетях смотреть?

При этом также:

  • процессор обязательно должен быть архитектуры x86-64, ноутбучной серии со сниженным энергопотреблением, но при этом максимально мощный из доступных;
  • устройство должно нормально помещаться в ладони, если взять его за узкую сторону экрана (т.е. как показано на заголовочном фото), а еще хотя бы как-нибудь запихиваться по крайней мере в самый большой карман всех моих курток как зимних, так и летних. С зимними куртками проще у них, как правило, есть большие карманы. С летними сложнее.

Вот что примерно я хотел получить:



Что ж, граничные условия определены, некоторые детали уже подобраны. Вперед, за работу!

Процесс сборки


Поискав по различным материнским платам стандарта PicoITX, я нашел модель Axiomtek PICO512. Она снабжена процессором Intel Core i7-7600U, и по крайней мере, на то время это был самый мощный вариант, который мне удалось найти. На плату можно было поставить один модуль оперативной памяти форм-фактора SO-DIMM емкостью до 16 ГБ. Я захотел собрать максимально мощное устройство, и купил сразу 16 гигабайт оперативной памяти, а также терабайтный SSD стандарта mSATA.

Сразу же возникла проблема с охлаждением. Штатно плату охлаждал огромный алюминиевый радиатор, размеры которого позволяли считать плату удовлетворяющей стандарту PicoITX лишь формально: габариты радиатора существенно выступали за габариты самой платы. Мне такой вариант по понятным причинам не годился. Поэтому я решил использовать совсем маленький медный радиатор, установленный на процессоре, а другой стороной этот радиатор через термопасту должен крепиться к общей раме устройства, сделанной из алюминия. Рама при этом должна стать таким дополнительным эрзац-радиатором. Сбоку от медного радиатора должен располагаться маленький ноутбучный вентилятор.Вариант с жидкостным охлаждением ноутбучного типа у меня, к сожалению, не получился. Термотрубку просто было некуда отвести устройство должно быть очень маленьким, и единственное свободное место оказалось прямо над процессором. Я боялся, что новая система охлаждения вообще не будет справляться. Но оказалось, что все не так страшно, хотя и далеко от идеала. В офисном режиме система охлаждения справляется с тепловыделением процессора. При полной нагрузке ее хватает где-то на пару минут потом начинается перегрев и троттлинг. Для игр это не годится, но в повседневной работе программиста (долго пишем код, при этом процессор большей частью простаивает, потом максимально быстро этот код компилируем) такая система охлаждения проявляет себя нормально. А в некоторых отдаленных планах попробовать использовать испарительную камеру. Быть может, она поможет довести теплоотвод до идеала.

Что касается вентилятора с ним возникла дополнительная проблема. От материнской платы к вентилятору отходило всего два провода. Никакие программы управления вентилятором вообще не видели его наличия в системе. А значит, его обороты никак не регулируются и, он всегда вращается с одинаковой максимальной скоростью, даже когда это не требуется. С точки зрения расходования энергии батареи и шумности устройства это никуда не годилось. Но я решил, что просто подключу вентилятор через транзистор, управляемый терморезистором, и это должно решить проблему.

Экран я выбрал с диагональю 5.6 дюймов. Я нашел модель с разъемом LVDS и разрешением 1280 на 800 точек. По современным меркам это разрешение совсем маленькое, но для такого небольшого экрана оно кажется мне достаточным (особенно для настольной операционной система, не рассчитанной на маленькие экраны). С учетом размеров экрана, материнской платы (10 x 7 см) и платы контроллера батареи (на самом деле она оказалось слишком большой для моих целей, аж 10 x 5 см, и с огромными торчащими вверх конденсаторами) примерно определились общие габариты устройства. Длина будет чуть больше 21 см, ширина 9 см. Что касается толщины Да, тут все плохо. Никак не меньше 3 см, а скорее ближе к 4. По сравнению с современными смартфонами, про которые уже кто-то говорил, что ими сыр можно резать, это просто катастрофа. Но по стандартам UMPC рубежа нулевых-десятых это нормальные размеры. И в ладонь подобное устройство должно было ложиться вполне себе комфортно.

Вот так выглядит алюминиевая рама, к которой крепятся все остальные компоненты устройства. Раму я сложил из обычных уголков, купленных в магазине строительных материалов. Это позволило мне собрать работающий прототип, но впоследствии я попробую заказать изготовление новой рамы каким-либо фабричным способом.



Сверху и снизу к раме крепятся две пластиковые крышки. Верхняя является рамкой экрана, нижняя корпусом батарейного отсека. Пластиковые детали я заказал в компании, занимающейся 3D-печатью. Экран содержал в своем составе сенсорную панель, но она была резистивной, поэтому мне пришлось искать отдельную емкостную панель. Выбор готовых панелей нужного размера практически отсутствовал, и единственный найденный более-менее подходящий экземпляр оказался чуть шире экрана. Панель удалось откалибровать под фактический размер видимой области экрана, но ее края сильно торчат в стороны, занимая ценную поверхность, где можно было бы разместить еще что-нибудь.

Батарея сделана легкосъемной. Ее 4 ячейки вставлены в отдельный пластиковый корпус, на котором с одной стороны находятся плоские контакты. Ответные контакты для них закреплены на раме. На задней крышке планшета находится защелка, позволяющая легко отсоединить батарею от устройства.



Каждая ячейка батареи представляет собой обычный литий-полимерный аккумулятор заявленной емкостью 3500 мАч. По расчетам, этого должно было хватить примерно на 5 часов работы устройства в офисном режиме. Но к сожалению, реальная емкость батареи оказалось ниже заявленной раза в два. И еще обнаружился баг контроллера он не умеет нормально учитывать возможность снижения емкости батареи. Сколько задали в настройках на столько и расчитываем. По мере разрядки батареи драйвер OpenUPS, как я понял, вычисляет текущий заряд по израсходованной энергии (т.е. интегрируя мощность и вычитая полученное значение из исходного жестко прописанного значения полной емкости) а потом внезапно оказывается, что батарея полностью ушла в ноль. Неудобно. Что с этим делать, я пока не знаю.

Текущий результат


К сожалению, дальше процесс создания затянулся на несколько лет. Свободного времени постоянно не хватало, возникало огромное количество технологических проблем. Большинство этих проблем сводилось к тому, как засунуть огромное количество компонентов в очень компактный корпус. Я изначально хотел спроектировать и изготовить тем или иным способом некоторую общую плату периферии, на которой будут распаяны все дополнительные компоненты. Но пока что времени на это у меня совершенно не хватает. Поэтому для создания прототипа пришлось в лучших традициях начинающих самодельщиков просто напихать в корпус все возможные готовые платы, которые смогут туда поместиться. В качестве некоторого оправдания могу сказать, что мой старый UMPC был хоть и фабричной сборки, но тоже состоял из большого количества мелких платок.

Вот полный вид устройства снаружи по состоянию на текущий момент. Сбоку виден единственный порт USB (надеюсь, потом их будет больше, но для этого будет нужен дополнительный hub), а также стандартный комбинированный аудиовход/выход 3.5 мм. Еще на этом же ребре расположена кнопка включения устройства. По краям под верхней крышкой видны вентиляционные щели.



Противоположное ребро лучше видно на фото рамки без верхней крышки, показанном выше. На этом ребре расположен разъем HDMI. Рядом с ним на материнской плате располагается разъем LAN, который мне не нужен, и даже откровенно мешает без него удалось бы сделать конструкцию на несколько миллиметров тоньше. Я не стал делать под него отверстие в корпусе. И разъем питания, который торчит рядом с HDMI, тоже абсолютно лишний и даже вредный в текущей конфигурации. Питание теперь заходит через плату контроллера батареи и далее по проводам, которые припаяны к отверстиям на материнке рядом с ее штатным разъемом. Штатный же разъем надо полностью выпаять, и это в моих ближайших планах.

Вот так устройство выглядит во включенном состоянии:



Аппаратную клавиатуру пока что сделать не вышло, но я надеюсь все же реализовать этот важный элемент в обозримом будущем. Тогда устройство можно будет использовать по своему первоначальному назначению. Я надеюсь, что клавиатуру удастся разместить над краем материнской платы в самой тонкой части, и устройство примет форм-фактор горизонтального слайдера, так как я и собирался сделать изначально. Статьи про создание самодельных клавиатур на Хабре уже были, так что надеюсь, что я тоже смогу сделать свою клавиатуру аналогичным образом.

А GSM-модуль с поддержкой голосовых вызовов (опять-таки, в виде отдельной готовой платы) я уже попытался установить. Он работал, им можно было пользоваться, но в текущей конфигурации он немного не влез в корпус и торчал наружу примерно буквально на несколько миллиметров. Пока что я его убрал. Если получится немного передвинуть все компоненты он должен влезть, и у меня будет свой персональный смартфон на базе Core i7.

Основные выводы


Устройство, конечно же, в настоящее время еще совсем сырое. Мне удалось довести его до мало-мальски работоспособного состояния, но на дальнейшую разработку могут уйти еще годы, если я вообще не заброшу это. Тогда какой же самый главный результат этого проекта, которым я могу поделиться здесь? Я считаю, что это сама концепция схемы промышленная материнская плата + контроллер OpenUPS или подобный. Такая схема позволяет собрать себе полнофункциональный портативный компьютер под любые нужды даже человеку, очень слабо разбирающемуся в электронике. И если при создании моего конкретного устройства приходилось постоянно бороться с нехваткой пространства для компонентов и идти на компромиссы, то планшет или ноутбук обычных размеров на подобной платформе будут свободны от этих проблем. В них легко поместится любая требуемая периферия. Помнится, некоторое время назад кто-то из хабровчан уже мечтал о нормальном ноутбуке для работы, жалуясь, как и я, на засилье устройств, пригодных только для просмотра соцсетей. При большом желании он сможет сделать себе ноутбук мечты самостоятельно, по тому же принципу, что и мое устройство. А еще подобные компьютеры будут легко поддаваться апгрейду само собой, можно будет заменить оперативную память и долговременное хранилище, но при желании можно будет поменять даже материнскую плату, если новая плата будет иметь тот же форм-фактор, что и старая.

Напоследок хочется помечтать, что кто-нибудь когда-нибудь организует стартап по разработке универсального конвертера промышленных материнских плат в ноутбучные платы, на которой будут присутствовать ACPI-совместимый контроллер батареи, аналогичный OpenUPS, и некоторая стандартно-ноутбучная периферия. В первую очередь, там должны присутствовать беспроводные интерфейсы, возможно еще контроллер сенсорной панели (если он будет достаточно универсальным, чтобы к нему можно было подключать панели различных производителей и различных стандартов). Создание подобного устройства позволило бы обычным любителям самоделок разрабатывать свои собственные ноутбуки и планшеты. Они могли бы разбавить огромное количество существующих сегодня однотипных устройств, похожих друг на друга как две капли воды.

Кто возьмется за такой проект?
Подробнее..

Back in the U.S.A. HP начинает собирать серверы в США

02.10.2020 16:05:32 | Автор: admin

Hewlett Packard Enterprise (HPE) станет первым производителем, вернувшимся к белой сборке. Компания объявила о новой кампании по производству серверов из комплектующих, сделанных на территории США. HPE будет следить за безопасностью цепочки поставок для американских клиентов в рамках инициативы HPE Trusted Supply Chain. В первую очередь услуга предназначена для клиентов из государственного сектора, здравоохранения и участников рынка финансовых услуг.

В HPE объясняют, что вопреки расхожему мнению, безопасность начинается не с момента подключения и эксплуатации оборудования, она закладывается еще на этапе сборки. Поэтому так важно отслеживать цепочку поставок, маркировки и все прочие процессы. Полученные непроверенным путем комплектующие могут содержать аппаратные и программные бэкдоры (backdoors).
Благодаря инициативе HPE Trusted Supply Chain правительственные компании и госсектор смогут покупать сертифицированные американские серверы.

Первым продуктом, соответствующим всем критериям безопасности станет сервер HPE ProLiant DL380T. Не все его компоненты произведены в США, но уже можно заявить о принадлежности оборудования к категории Country of Origin USA, а не просто об американском производстве, обозначенном маркировкой Made-in-USA.

Отличительные черты нового сервера HPE ProLiant DL380T:

  • Режим повышенной безопасности. Опция активируется на заводе и позволяет повысить уровень защиты системы от кибератак. Режим будет требовать определенной аутентификации до входа на сервер.
  • Защита от установки небезопасной ОС. Используется UEFI Secure Boot для обеспечения работы исключительно с предустановленной на заводе операционной системой.
  • Блокировка конфигураций сервера. В случае изменения настроек по умолчанию система сообщит об этом при загрузке. Опция предотвращает любое вмешательство сторонних пользователей.
  • Обнаружение вторжения. Функция защищает от физического вмешательства. Владельцы сервера получат предупреждение, если кто-то попытается снять корпус сервера или его часть. Опция активна даже при выключенном сервере.
  • Специализированная безопасная доставка. В HPE предоставят грузовик или водителя, если потребуется доставить сервер прямо с завода в ЦОД заказчика. Это позволяет гарантировать отсутствие изменения оборудования злоумышленниками при транспортировке систем.

За безопасность и гибкость поставок


Пандемия Covid-19 выявила ряд проблем в логистике электронных компонентов и систем. Кроме того, операционные и бизнес-процессы многих предприятий, ответственных за производство и поставку электроники, оказались нарушены. В HPE решили расширить количество каналов поставок, чтобы избежать зависимости от одной компании или страны. А разнообразие и гибкость в цепочке поставок выигрышная сейчас стратегия для производителей по всему миру. Поэтому HPE производит готовый продукт там же, где и предполагает его продавать США.

В штате Висконсин у HPE есть площадка, где работает персонал со специальным допуском, именно здесь и планируется производить серверное оборудование. В следующем году подобную программу планируют разработать для Европы, запустив производство в одной из стран ЕС.

HPE Trusted Supply Chain это не первая инициатива HPE в рамках усиления информационной безопасности. Ранее был запущен проект Silicon Root of Trust. Его суть в безопасной долгосрочной цифровую подписи, что дает возможность обеспечить безопасность в системе удаленного управления серверами iLO (Integrated Lights-Out). Сервер не загружается, если обнаружены несоответствующие цифровым подписям прошивка или драйверы.

Вероятнее всего, HPE станет первой в череде крупных компаний, возвращающихся к белой сборке. Процессы переноса мощностей из Китая начали другие компании, переводя сборочные линии из Китая на Тайвань из-за торговой войны между США и КНР.

Подробнее..

Топ IT-книг прошлого века, которые актуальны до сих пор

30.09.2020 20:16:11 | Автор: admin
Физические законы это не Python, их не изменить в новых версиях, то есть материал в книге (по электронике) будет актуален всегда.

ne555, из комментариев на Хабре

image

Одна из главных проблем технической журналистики устаревание информации вследствие быстрого развития технологий. Можно написать самый полный, понятный и красочный гайд на свете, но он через пару месяцев канет в небытие после страшного слова апдейт.

К счастью, это касается не всех аспектов гик-писательства, например, в сфере электроники наблюдается завидное для других IT-областей постоянство. Поэтому спаянный десятилетия назад контент, на котором росли будущие инженеры, зачастую будет актуален для их детей и даже внуков.

Вдохновившись историей второго рождения учебника по электронике 1979 года (а точнее, комментариями к ней), мы решили собрать для вас подборку книг по электронике, которым в 2020 году исполнилось от 25 до 69 лет, но которые при этом не утратили своей актуальности. А чтобы не ограничиваться собственными нейтрально-редакторскими вводными, мы попросили прокомментировать эту подборку победителя ТехноТекста-2019 в номинации Научно-популярное, старожила Хабра, разработчика интегральных микросхем для космоса и потомственного инженера Валерия Шункова aka @amartology.

Осторожно: прочтение книг из этой подборки может вызвать острое желание взяться за паяльник. Вдохновляйтесь, творите и делитесь своим опытом с Хабром, ведь именно по просьбе сообщества мы добавили в список номинаций ТехноТекста-2020 новую Железо и его разработка.



I. Юный радиолюбитель, Виктор Гаврилович Борисов (1951)


image

Для кого: рассчитана в первую очередь на детей школьного возраста.

О чём: книга построена как цикл бесед, в рамках которых читатель знакомится с теорией электро- и радиотехники, схемотехникой, радиоизмерениями, технологией изготовления радиоэлектронных устройств. Также она содержит ряд описаний конкретных конструкций.

Коротко о книге и её создателе:

Виктор Гаврилович Борисов советский радиоконструктор и журналист. Он родился в Москве в 1915 году, с детства интересовался математикой и физикой, а потому образование решил получать в строительном техникуме по направлению Радиоинженерия. В годы Великой Отечественной войны служил радистом на торпедном катере, получил орден Отечественной войны II степени и множество медалей.

После войны Борисов работал на Центральной станции юных техников (ныне Федеральный центр технического творчества учащихся), где занимался с юными радиолюбителями, для просвещения которых он и стал заниматься литературным творчеством. На протяжении 40 (!) лет он публиковал книги и статьи о радиотехнике, также возглавлял отдел для начинающих радиолюбителей журнале Радио. Самая известная книга Борисова Юный радиолюбитель выдержала восемь прижизненных переизданий, последнее из которых было выпущено в 1992 году.

Виктор Гаврилович ушёл из жизни в 2007 году в возрасте 92 лет за пару дней до Дня радио, которому он посвятил всю свою жизнь.

Мнение amartology:

Последнее, восьмое издание этой книги вышло почти 30 лет назад собственно, это главная причина, по которой я познакомился с ней только сейчас, когда ребята с Хабра попросили написать на неё отзыв. В детстве радиолюбителем я не был, так что во времена без доступного интернета книге было просто неоткуда попасться мне на глаза. Поэтому, если что, весь последующий отзыв на эту книгу можно смело пропускать, потому что он основан не на обширном опыте выпускания волшебного чёрного дыма из транзисторов, а на беглом чтении нескольких глав из пары разных изданий. Да и вообще, я отнесусь к легенде без должного пиетета.

Про эту книгу всё говорит её название она предназначена для юных радиолюбителей, которых в 1950-е было гораздо больше, чем сейчас.

Собственно, при чтении у меня временами было ощущение, что передо мной что-то крайне занимательное и поучительное, но решительно бесполезное в современном мире примерно как учебник юного печника или кучера. С другой стороны, где ещё найти простой и доступный рассказ о том, как правильно закопать в землю ведро для заземления?


Книга предназначена для детей, причём именно для детей, даже не подростков. И, как и любая советская детская книга, написана очень специфическим языком, который лично меня, живущего в 2020 году взрослого, изрядно раздражает. Впрочем, рекомендовать книгу детям тоже довольно сложно, потому что ключом к её полувековой популярности было постоянное обновление и актуализация содержимого с каждым новым изданием, а за 30 лет с 1992 года довольно многое успело измениться. Например, в рассказе про частоты было бы крайне уместно описание 3-4-5G, а не только более традиционных диапазонов, массовое использование которых прекратилось вместе с закатом радиолюбительства.

То, что материал в книге по электронике будет актуален всегда, это, конечно, неправда. Он будет всегда правдив, но актуальность это совсем другое. Вот, например, первые издания Юного радиолюбителя описывали технику на лампах, а поздние на транзисторах. Стал ли материал про лампы менее правильным? Нет. Но он устарел. А сейчас, к сожалению, в значительной степени устарел и материал про транзисторы, ведь в ходу готовые модули и software-defined radio. То же самое касается и других фундаментальных книг по электронике: ключ к из долгой жизни регулярные переработки и новые издания.

Из аналогов могу посоветовать, собственно, книги Рудольфа Свореня. Они тоже адресованы детской аудитории, но отличаются более широкой тематикой, с меньшим акцентом на специфических задачах радиолюбителей. Что-то более новое посоветовать вряд ли смогу, всё же электроника для детей слишком специальная тема, и здесь будет гораздо весомее мнение преподавателя кружка, а не практикующего инженера.

II. Искусство схемотехники, Пауль Хоровиц и Уинфилд Хилл (1980)


image

Для кого: для студентов, специалистов и взрослых-любителей, интересующихся электроникой, автоматикой и вычислительной техникой.

О чём: в русскоязычных изданиях книга разделена на три тома. Первый том посвящён элементам схем, транзисторам, операционным усилителям, активным фильтрам, источникам питания и полевым транзисторам. Второй том рассказывает о прецизионных схемах и малошумящей аппаратуре, о цифровых схемах, о преобразователях информации, мини- и микро-ЭВМ и микропроцессорах. А третий о микропроцессорах, радиотехнических схемах, методах измерения и обработки сигналов, принципах конструирования аппаратуры и проектирования маломощных устройств.

О книге и её создателях:

Авторы этого трехтомника американские физики, инженеры-электроники Пауль Хоровиц и Уинфилд Хилл.

Пауль Хоровиц PhD, выпускник, а впоследствии профессор Гарварда, где он больше четверти века (с 1974 года) читал курс лабораторной электроники, конспекты с которого впоследствии и легли в основу будущей книги. Он работал в разных областях в сканирующей микроскопии, в астрофизике и в биофизике. В области практической электроники он изобрёл акустический механизм для обнаружения наземных мин, электронную клавиатуру кода Морзе / Бодо, использующую диодную матрицу, и 66 интегральных схем TTL для использования в любительском радио. Из примечательного Хоровиц также засветился в SETI (программе по поиску внеземных цивилизаций) и даже считается прототипом одного из героев научно-фантастического романа Карла Сагана Контакт.

Уинфилд Хилл же является директором лаборатории электронной техники в Институте Роуленда (впоследствии ставшего частью всё того же Гарвардского университета), где сконструировал более 250 электронных и научных приборов. Хилл также является основателем Sea Data Corporation, которая разрабатывает инструменты для глубоководной океанографии и в качестве главного инженера сконструировал около 50 океанографических инструментов. Он участвовал в многочисленных экспериментах в глубоководных районах океана.

Их совместная работа учебник Искусство схемотехники в 2020 году празднует 40-летний юбилей со дня выхода. Она дважды глобально перерабатывалась самими авторами второе издание вышло в 1989 году, а третье, совсем новое, в 2015-м. Сочетание энциклопедичности и наукоёмкости и легкостью языка и доступностью изложения сделали эту работу неофициальной библией электроники.

Кстати, интересный факт: сам Хилл отмечал, что неслучайно назвал схемотехнику в книге искусством. Он отмечал, что, хотя создание просто в принципе работающего решения базируется на сочетании основных законов, то, как можно решить ту же задачу дешевле, экономичнее в плане потребления энергии или лучше по другим параметрам, это уже настоящее творчество.

Мнение amartology:

А вот эта книга для меня настольная с третьего курса института и до сегодняшнего дня. Для совсем начинающих она может оказаться сложновата, но лучше её на самом деле не найти. Главное достоинство Искусства схемотехники очень хорошо сбалансированное сочетание теории и практики, с конкретными примерами, советами и рассказами, как обойти типичные узкие места и неидеальности, о которых не пишут в других учебниках.

Если вы собираетесь перейти от втыкания модулей друг в друга к самостоятельной разработке даже простейших печатных плат, то эта книга будет вам лучшим товарищем и учителем и сейчас, и в обозримом будущем. Это как раз тот редкий случай, когда контент совершенно вне времени.


Впрочем, про время ещё кое-что можно сказать.

Во-первых, второе (1989) и третье (2015) издания книги несколько различаются по подходу. Второе это скорее справочник для инженера, а третье пытается стать полноценным учебником, заменяя часть примеров домашками в конце глав. Так что, возможно, стоит иметь оба издания. Плюс есть ещё совсем свежая книга X chapters, в которой собран материал, не попавший в третье издание, это что-то вроде продвинутого курса.

Плюс, если есть возможность, то лучше читайте книгу в оригинале, потому что все существующие переводы на русский грешат ошибками и опечатками, в том числе в расчётных формулах, что особенно досадно. Если всё же вам нужна именно русскоязычная версия возьмите лучше второе издание.

Ничего столь же всеобъемлющего и прекрасного мне в голову не приходит, так что, если вы захотите добавки, могу только порекомендовать смотреть в сторону более глубоких книг по более узким темам, например на двухтомник Конструирование высокоскоростных цифровых устройств Джонсона Грэхема, более известный как курс чёрной магии.

III. Полупроводниковая схемотехника, Ульрих Титце и Кристоф Шенк (1980)


image

Для кого: радиолюбителям, инженерам радиотехники и электроники и научным работникам.

О чём: о принципах устройства полупроводниковых элементов и об основах создания из этих элементов различных функциональных узлов аналоговой и цифровой техники. В русскоязычном издании состоит из двух томов. Первый том посвящён основам схемотехники, второй применению функциональных узлов при создании более сложных устройств.

О книге и её создателях:

Настольная книга электронщика авторства двух немецких инженеров, Ульриха Титце и Кристофа Шенка. К сожалению, найти подробную информацию об их учёном статусе и о том, почему они решили создать и опубликовать данный труд, нам не удалось (Может быть, вы знаете больше? Напишите в комментариях.), зато мы нашли множество отзывов читателей.

Ульрих Титце доцент кафедры технической электроники Университета Фридриха-Александра в Эрлангене-Нюрнберге.

Кристоф Шенк инженер, владелец собственной компании, занимающейся технологиями автоматизированной визуальной инспекции качества поверхностей.

image
Авторы книги Гамм, Шенк и Титце на её 40-летии в 2009 году

Читатели отмечают фундаментальность двухтомника, его энциклопедическую полноту и то, насколько подробно и глубоко расписана вся теоретическая часть. При этом кто-то считает это недостатком и предпочёл бы более практико-ориентированный учебник, другие же, наоборот, говорят, что именно благодаря Полупроводниковой схемотехнике научились читать схемы не как картинки с условными обозначениями, а как полноценные информационные носители.

Очень многие изучают Полупроводниковую схемотехнику после Искусства схемотехники Хоровица и Хилла с целью углубить знания, поскольку к описанию каждого элемента или схемы прилагаются элементарные формулы, служащие для их инженерного расчёта.

Мнение amartology:

Титце и Шенк ещё одна моя настольная книга, с которой я познакомился на институтской скамье. Её чуть сложнее рекомендовать широкой аудитории в силу весьма сухого академического стиля и обилия специфики разработки микросхем, а не их применения. Поэтому в качестве первой и основной книги я бы рекомендовал Хоровитца Хилла, а Титце и Шенка предложил бы читать в качестве дополнения, чтобы лучше понимать, что происходит внутри используемых вами девайсов. Впрочем, и здесь найдётся множество полезных схем и проверенных временем отличных приёмов.

Главный плюс двухтомника Титце и Шенка полнота и фундаментальность изложения основ очень широкого спектра тем, поэтому, как и в случае в Хоровитцем Хиллом, в качестве аналога можно порекомендовать только ещё что-то более узкое, глубокое и современное. Но после только того, как вы познакомитесь с этой книгой.


Например, если вам интересно, как устроены микросхемы, подойдёт учебник Основы микроэлектроники И. П. Степаненко, которая, кстати, представляет собой глубокую переработку книги Основы теории транзисторов и транзисторных схем 1967 года. А если вас интересует цифровая электроника, то переходим к пятому пункту данного списка.

Главный минус книги Титце и Шенка то, что в русском и английском (восьмом) издании она двухтомник, а в оригинальном немецком (шестнадцатом) трёхтомник, да еще и с третьим автором. Советовать оригинал не буду, просто имейте в виду, что в этой книге отлично даны основы, но самое новое и актуальное стоит поискать где-то еще.

IV. Электронные самоделки, Борис Сергеевич Иванов (1985)


image

Для кого: для школьников 58 классов.

О чём: книга содержит пошаговые алгоритмы по созданию электронных устройств, а также учит читать радиосхемы, подбирать и проверять радиодетали, налаживать самоделки.

О книге и её создателе:

Борис Сергеевич Иванов начал публиковаться в научно-популярных СМИ (таких как Юный техник, Моделист-конструктор, Пионер) с 22 лет (с 1958 года) и практически всю свою жизнь посвятил технической журналистике. Более 40 лет (с 1975 года) он проработал в журнале Радио, где долгое время возглавлял раздел Радио начинающим, самостоятельно писал статьи и редактировал чужие опусы. Также более 20 лет был редактором-составителем детского журнала Мастерок, регулярно выпускал книги, методические пособия и статьи для юных радиолюбителей.

При этом Борис Сергеевич активно сотрудничал с радиокружками, детско-юношескими клубами и Дворцами юных техников, уточнял у педагогов, насколько эффективно строить обучение по его публикациям, по запросу создавал дополнительные методические пособия для удобства юных читателей и их наставников. Его пособия неоднократно издавались и переиздавались не только в России, но и на Украине, в Молдавии, Литве, Латвии, Узбекистане. Он ушёл из жизни в 2015 году, незадолго до своего 80-летия.

На его книгах и брошюрах, таких как Осциллограф ваш помощник, Самоделки юнармейца, В помощь радиокружку и Энциклопедия начинающего радиолюбителя, выросло не одно поколение техноDIYщиков прошлых лет.

Мнение amartology:

Ещё одна легендарная детская книга. На мой взгляд, она также из тех, кто плохо состарился, и почтенный статус, к сожалению, не делает этот труд актуальнее. Книга сборник готовых рецептов для юных самодельщиков, начисто лишённый теории. А без понимания того, как и почему работают те или иные схемы, результат общения с книгой будет весёлым, но бесполезным. Да и таким ли он будет весёлым для ребёнка XXI века: точно ли ребёнку будет интересно делать примитивный проводной телефон в век, когда у каждого полно гаджетов?

Впрочем, если подойти к этой книге как к своеобразному задачнику для тех, кто уже познакомился с основами теории (хотя бы с тем же Юным радиолюбителем), то она может оказаться действительно занимательной и полезной.


Правда, давая эту книгу своему ребенку, будьте внимательны: здесь есть рассказ про заземление не только при помощи закопанного в землю ведра, но и через батареи отопления, которые в 2020 году для этой цели использовать точно не стоит.

V. Архитектура компьютера и проектирование компьютерных систем, Дэвид Паттерсон, Джон Хеннесси (1994)


image

Для кого: для студентов, изучающих компьютерные технологии, и разработчиков, желающих освоить современные концепции многопроцессорного программирования.

О чём: об архитектуре компьютера и об устройстве всех его компонентов: процессоров, блоков памяти, средств ввода-вывода и хранения данных.

О книге и её создателях:

Дэвид Паттерсон американский учёный в области информатики и разработчик микропроцессоров. Он закончил Калифорнийский университет в Лос-Анджелесе со степенью PhD, какое-то время был в нём деканом факультета компьютерных наук. Также Паттерсон руководил ассоциацией Computer Research, консультировал проект SPARC, а в 20032005 годах входил в PITAC (Совет по информационным технологиям при президенте США).

Паттерсон известен в первую очередь своим вкладом в проектирование RISC-процессоров архитектуры компьютера с сокращенным набором команд (RISC), которая сейчас используется в 99 % новых компьютерных микросхем. Он был руководителем проекта Berkeley RISC, также участвовал в создании принципа работы RAID-массивов и в разработке концепции Network of Workstations. Обладатель множества научных наград, таких как медаль Джона фон Неймана (2000), C&C Prize (2004), премия Эккерта Мокли (2008) и премия Тьюринга (2017). Последнюю он получил за разработку RISC-процессоров в паре с Джоном Хеннесси.

Джон Хеннесси бывший президент Стэнфордского университета (с 2010 по 2016 год), американский учёный-компьютерщик, академик, бизнесмен, член правления Alphabet Inc (ex Google), Cisco Systems, Atheros Communications и Фонда Гордона и Бетти Мур. Марк Андриссен назвал его крёстным отцом Кремниевой долины.

Хеннеси получил бакалаврскую степень в Университете Вилланова (Филадельфия), а затем докторскую степень Университета Стоуни-Брук в Нью-Йорке. С 1977 года он преподавал в Стэнфордском университете, впоследствии там же руководил лабораторией компьютерных систем, затем стал заведующим кафедрой компьютерных наук, деканом инженерного факультета, проректором (вместо Кондолизы Райс) и, наконец, президентом Стэнфорда.
Совместно с группой исследователей из Стэнфорда создал MIPS Computer Systems Inc фаблесс-компанию, проектирующую микроэлектронные устройства.

Также Хеннеси является членом Ассоциации вычислительной техники (ACM) и научным сотрудником Музея компьютерной истории, обладателем почетной медали IEEE и степени почетного доктора математики в Университете Ватерлоо (Канада) и, как уже было сказано выше, лауреатом премии Тьюринга.

Совместная книга Паттерсона и Хеннеси Архитектура компьютера и проектирование компьютерных систем за 26 лет с момента выхода неоднократно переиздавалась и дорабатывалась с целью отразить актуальные изменения в области аппаратного обеспечения. Книга отлично иллюстрирует взаимодействие между аппаратными средствами и системным программным обеспечением, при этом особое внимание уделяется многоядерным вычислительным системам и параллельному программированию.

Мнение amartology:

Эта книга фундаментальный труд по цифровой электронике от отцов-основателей современного процессоростроения. Она выдержала пять изданий и была серьёзно доработана за это время, только приобретая актуальность.

Это очень серьёзный и глубокий разбор принципов построения современного цифрового железа и его взаимодействия с софтом.

Я считаю, что это вещь, которую стоит прочитать любому хардварщику. А также программистам, желающим понимать, что происходит под капотом современных многоядерных процессоров и как это понимание использовать для пользы дела.


В пару к этой книге могу еще порекомендовать Цифровую схемотехнику и архитектуру компьютера Харриса и Харрис более новую и прекрасно дополняющую основами рассчитанный на продвинутую аудиторию труд Паттерсона Хеннесси. Обе книги достаточно хорошо переведены на русский язык и вряд ли перестанут быть актуальными в обозримом будущем.

VI. Электроника практический курс, Мартин Хартли Джонс (1995)


image

Для кого: для студентов средних и высших учебных заведений радиотехнических и электронных специальностей, а также для студентов непрофильных специальностей (химия, биология), для которых электроника является неосновной специальностью.

О чём: о принципах построения базовых схем современной электроники для аналоговых и цифровых устройств.

О книге и её создателях:

Мартин Хартли Джонс получил докторскую степень в области электроакустики в Манчестерском университете, где на какое-то время остался в качестве преподавателя. В 1976 году он присоединился к ведущей профессиональной аудиокомпании Neve Electronics в Кембридже в качестве технического директора и возглавил разработку таких инноваций, как первая в мире цифровая диспетчерская для BBC и первая в мире система управления вещанием. Позже, в 1985 году, он присоединился к Smiths Industries plc в качестве технического директора морского подразделения (Kelvin Hughes Ltd), где он разработал цифровые радиолокационные системы с компьютерным управлением для гражданского и военного применения. Сменив несколько управляющих должностей в этой компании, он в 2002 году решил открыть свой собственный консалтинговый бизнес в Кембридже, является аккредитованным бизнес-консультантом IBD. При всём этом он не забывал и о науке и продолжает оставаться научным сотрудником таких международных научных обществ, как IMarEST (Институт морской инженерии, науки и технологий), IOP (Институт физики), IOA (Акустический институт) и AES (Общество аудиоинженерии).

Среди достоинств книги Электроника практический курс очень доступный язык изложения, отмеченный, кажется, всеми без исключения читателями и педагогами, использующими данный труд как базовый учебник. Второй большой плюс изобилие поясняющих иллюстраций по всем темам, а также наличие практических задач по расчёту электрических схем и описания экспериментов для самостоятельного проведения, которые делают обучение более наглядным, вовлекающим и практико-ориентированным.

Книгу можно назвать базовым учебником или букварём электроники теория в ней представлена максимально понятно и полно, но при этом углубления в частности или в математическую базу нет. Правда, предполагается, что читатель, приступая к книге, всё же знаком с самыми основами электроники, такими как сопротивление, напряжение и ток.

Книга несколько раз переиздавалась и актуализировалась, правда, некоторые читатели отмечают, что в последнем издании 2008 года переводчиками были допущены серьёзные ошибки в формулах, так что читать выкладки лучше с карандашом.

Примечательно, что переводчики сохранили западную терминологию и описания, что, с одной стороны, упрощает дальнейшее обучение по зарубежным источникам, но с другой вынуждает искать в интернете соответствия отечественным терминам и деталям.

Мнение amartology:

Вторая из книг этого топа, оказавшаяся для меня совсем новой. Впрочем, это и неудивительно, потому что хороших учебников по электронике на самом деле довольно много. Этот учебник и правда хороший, пусть и не выдающийся. Не выдающийся во многом потому, что уже очень давно не переиздавался и не обновлялся, что для практического пособия губительно. Особенно пострадала от этого цифровая часть книги дальше 12-й главы можно и не читать.

Но базовые основы и часть про аналоговую схемотехнику при этом поданы вполне на высоте. Книга даёт достаточно ответов на простые вопросы и достаточно знаний, чтобы читатель смог начать задавать сложные вопросы кому-то еще.


Но в целом, повторюсь, ничего необычного, так что лучше купите Хоровитца Хилла.



Какие еще IT-книги, которым больше 20 лет, вы могли бы включить в эту подборку? Делитесь нестареющей классикой в комментариях. Ну а если у вас есть свои достойные тексты, заявляйтесь на конкурс IT-статей ТехноТекст-2020: Хабр поможет и им стать нетленкой.



Подробнее..

Ядро Linux 5.9 изучили, выяснилось, что оно поддерживает 99 популярного PCI-оборудования на рынке

14.10.2020 14:07:29 | Автор: admin

На Хабре недавно публиковалось две статьи о новом ядре Linux. В одной из них говорилось о том, что драйвер AMD Radeon составляет 10,5% ядра Linux 5.9, в другом перечислялись новые возможности и функции. На днях появилась еще и информация о том, что это ядро поддерживает 99% популярного PCI-оборудования на рынке.

Конечно, популярное вовсе не означает поддерживает вообще все, что есть", так что общая цифра может быть гораздо ниже 99%, учитывая разнообразие устройств. Но все равно, ситуация с поддержкой Linux железа становится лучше год от года. Как проводилось изучение поддержки PCI-устройств?

Если бы целью проекта было изучение общего объема железа, поддерживаемого ядром, то можно было бы просто взять соотношение поддерживаемые устройства/общее количество устройств. Но здесь две сложности:

  • Обе цифры получить практически невозможно, а если и можно, то исследование такого масштаба потребует огромного количества ресурсов.
  • Далеко не все устройства одинаково популярны.

Со вторым пунктом все просто: есть распространенные устройства, поддержка которых необходима, поскольку ими пользуется большое количество людей. А есть редкие системы, которые нужны считанным единицам пользователей. Конечно, пренебрегать их потребностями тоже нельзя, но этот мир несправедлив разработчики обычно решают сначала первоочередные вопросы, а потом уже переходят к вторичным.

Авторы проекта по изучению поддержки PCI-оборудования ядром Linux 5.9 пошли более простым путем. Они просуммировали все экземпляры поддерживаемых устройств, разделив на общее количество поддерживаемых и неподдерживаемых.

Для расчета использовалась такая формула:

$Status = (S1*T1 + S2*T2 + ... + Sn*Tn) / (T1 + T2 + ... + Tn)$


Где Sn статус поддержки устройства (1 поддерживается, 0 не поддерживается), а Tn общее количество устройств.

Для того чтобы выяснить, какие девайсы распространены, была разработана система учета популяции PCI-устройств.

Ознакомиться с информацией о популяции можно в специальном репозитории DevicePopulation. Статус поддержки в новом ядре Linux можно получить при помощи проекта LKDDb.

Если есть желание оказать информационную поддержку проекта, отправить данные о своих устройствах можно при помощи инструмента hw-probe.

sudo -E hw-probe -all -upload

Вот результаты:
PCI Class Devices Support
Card reader 9433 100%
Communication controller 39144 98.23%
Dma controller 115 99.13%
Dvb card 85 100%
Encryption controller 8169 88.64%
Firewire controller 7978 99.97%
Flash memory 469 37.95%
Graphics card 89190 98.06%
Input device controller 262 100%
Ipmi smic interface 155 100%
Modem 307 89.58%
Multimedia controller 2194 88.56%
Net/ethernet 55774 99.92%
Net/other 10929 99.82%
Net/wireless 43499 99.80%
Non-essential instrumenta... 5103 99.98%
Sd host controller 10370 100%
Serial bus controller 12251 99.80%
Serial controller 4901 99.84%
Signal processing controller 37989 97.22%
Smbus 62763 99.92%
Sound 103406 99.95%
Tv card 902 100%
Usb controller 215098 100%
В среднем получается 99.27%.

А вы согласны с методикой подсчета и результатами? Поделитесь своим мнением в комментариях.

Подробнее..

Жидкий металл для охлаждения ноутбуков польза или вред?

07.10.2020 20:16:52 | Автор: admin

Я всегда с болью в душе наблюдал за температурами центрального процессора в игровых ноутбуках, которые достигали 100 градусов по Цельсию, а повышенный нагрев в итоге приводил к снижению тактовой частоты (некоторые до сих пор называют это троттлингом, хотя на самом деле это понятие умерло вместе с выходом архитектуры Core у Intel и появлением интеллектуальных систем управления частотой процессора Turbo Boost).

Тренд на компактность в игровых ноутах ведет к уменьшению габаритов системы охлаждения.Тренд на компактность в игровых ноутах ведет к уменьшению габаритов системы охлаждения.

Все игровые ноуты горячие? Да!

Почему же производители игровых ноутбуков позволяют нагреваться процессорам практически до 100 градусов по Цельсию?


Во-первых, продукт разрабатывается в несколько этапов и даже несколькими командами. Эти команды взаимодействуют друг с другом, но работая только лишь над определенной частью единого целого, всегда велик риск не увидеть фундаментальные проблемы. Для команды, занимающейся созданием системы охлаждения, задача звучит так - как отвести N-ое количество Ватт тепла от процессора в N-габаритах корпуса, не допустив перегрева (в нашем случае значения в 100+ градусов по Цельсию). Если на выходе система охлаждения сможет держать температуру процессора до 95 градусов по Цельсию, то будет ли задача считаться выполненной? Скорее всего, да. Но удовлетворит ли это пользователя? Скорее всего, нет.


Во-вторых, есть "негласное" соревнование между производителями за звание самого быстрого. При прочих равных ноутбук с процессором, работающим на более высокой частоте, сможет продемонстрировать лучшую производительность. И чаще всего в таком сравнении никто не обратит внимание на то, что эти дополнительные 100-200 МГц частоты прибавили к нагреву процессора дополнительные 5-10 градусов по Цельсию. Получается, что за скорость надо платить повышенным тепловыделением? И да, и нет.

Чем больше тепловых трубок, тем эффективнее отвод теплаЧем больше тепловых трубок, тем эффективнее отвод тепла

Именно этот вопрос нас беспокоил последние несколько лет в российском представительстве ASUS. Я практически уверен на 100 процентов, что в России и русскоговорящих стран находятся самые требовательные пользователи и в то же время самые технически грамотные. Мы на постсоветском пространстве прекрасно понимаем, что у любого продукта есть ресурс, и чем дольше он работает на пределе, тем выше вероятность его выхода из строя. А для остального мира, это всего лишь будет RMA процедура (где не надо никому доказывать, что ты не сам его сломал) с последующей заменой или возвратом денег и дальнейшим переходом на новое устройство, ведь эта-та "игрушка" уже морально устарела (для сравнения цикл жизни персонального компьютера в России - 7 лет, а в Европе - 4 года).

Как же можно снизить температуры процессора, улучшив эффективность системы охлаждения в ноутбуке?

  • зафиксировать тепловыделение процессора на пороговом значении, т.е. искусственно ограничить производительность CPU

  • увеличить габариты корпуса, уместив внутри радиатор большей площади, вернувшись обратно к тяжелым ноутбукам весом от 4-5 кг

  • использовать жидкостное охлаждение

  • использовать другой форм-фактор для увеличения эффективности воздушных потоков

  • использовать более эффективные, чем медь, материалы для радиатора

  • использовать более эффективный термоинтерфейс для отвода тепла от кристалла процессора к радиатору системы охлаждения

Вариантов для улучшения не так много, но они есть. Давайте поговорим подробнее о каждом. Первые два варианта, однозначно, не подходят. Ни о каком снижении производительности речи быть не может. Ни о каком увеличении габаритов - тоже. Это уже пройденный этап, к которому производители ноутбуков не будут возвращаться.

Эволюция систем охлаждения в ноутбуках ROG

Вариант с системой жидкостного охлаждения инженеры ROG обкатывали, начиная с 2015 года, на двух моделях: GX700 и его преемнике GX800. Использование подключаемой жидкостной системы охлаждения сделало ноутбук самым быстрым на рынке, но абсолютно непригодным для переноски. Полный комплект умещался только лишь в чемодане. Но надо отдать должное: с точки зрения эффективности системы охлаждения и температур не было никаких вопросов. Только такие инновации были слишком дорогими: цена на ноутбук была на уровне полумиллиона рублей.

ROG GX700 с водяным охлаждениемROG GX700 с водяным охлаждением

Эксперименты с альтернативными форм-факторами привели инженеров Republic of Gamers в 2019 году к созданию ROG Mothership - гибридное решение, сочетающее в себе элементы ноутбука, моноблока и планшета. По мне, это ближе всего к моноблоку, но до конца определиться с форм-фактором я так и не смог. Преимуществом такой конструкции стало то, что материнская плата и вся элементная база была перенесена в вертикальную плоскость, сделав воздушные потоки более эффективными, а само устройство опять стало самым производительном в игровом сегменте портативных компьютеров. Ценник, естественно, опять добирался до полумиллиона рублей.

ROG MothershipROG Mothership

Еще одним вариантом развития событий мог стать переход от медных радиаторов к серебряным, что могло бы дать какую-то позитивную динамику в снижении температур центрального процессора, но думаю, что стоимость ноутбука с серебряной системой охлаждения возросла бы непропорционально выгоде, которую могли бы получить пользователи.

Система охлаждения ROG MothershipСистема охлаждения ROG Mothership

Сразу вспоминается собственный опыт: эксперименты по замене термоинтерфейса между крышкой теплораспределителя и кристаллом процессора пришли в бытность процессоров Intel Core i7-3770K, а с приходом Intel Core i7-7700K оверклокеры пошли еще далее и начали эксперименты над самими теплораспределительными крышками. Российские оверклокеры также активно участвовали в погоне за рекордами, и мы даже заказывали теплораспределительную крышку из серебра. Она нам обошлась примерно в 15 000 рублей (чуть дешевле стоимости самого процессора), но ничего дельного с ней у нас так и не получилось. Хотя рекорд разгона Core i7-7700K по частоте до сих пор принадлежит России:

Рекорд разгона Intel Core i7-7700K Рекорд разгона Intel Core i7-7700K

Получается, что самым разумным и эффективным с точки зрения финансовой целесообразности является использование более эффективных термоинтерфейсов. Для человека, который на собственном опыте проделал путь от КПТ-8, Arctic Silver Ceramique, Gelid GC-Extreme до Thermal Grizzly Kryonaut и k|ngp|n cooling KPX, было очевидно, что термопасты бывают разными и могут оказывать очень сильное влияние на температурные показатели.

Как мы "докатились" до жидкого металла?

Локальные эксперименты в российском офисе ASUS показывали, что замена термопасты с заводской на Thermal Grizzly Kryonaut дает снижение температуры центрального процессора в диапазоне 7-10 градусов по Цельсию. Лично для меня жидкий металл в качестве термоинтерфейса всегда стоял в стороне, поскольку при отрицательных температурах использовать его достаточно сложно. Из-за частых заморозок-разморозок образуется ледяной нарост, который начинает отжимать стакан для жидкого азота от крышки процессора, и в какой-то момент жидкий металл "отклеивается" от основания азотного стакана и перестает передавать ему тепло с теплораспределительной крышки. Если вовремя не обратить внимание на характерный звук и выросшую дельту температур на основании стакана (там будут отрицательные температуры) и ядрах процессора (там будут положительные температуры), то все закончится очень печально. В лучшем случае "умрет" только процессор, а в худшем случае утащит за собой что-то еще. В случае же использования термоинтерфейса жидкого металла в домашнем компьютере или ноутбуке на каждый день тоже есть определенные риски и сложности, с которыми инженерам ROG пришлось бороться под натиском локальных офисов.

Объединившись с другими странами, мы смогли убедить штаб-квартиру начать тестирование жидкого металла в качестве термоинтерфейса в системах охлаждения ноутбуков еще в 2018 году. Правда, нам пришлось столкнуться с рядом бюрократических трудностей. Одним из самых курьезных моментов стал ответ инженеров, что они не могут купить жидкий металл в Тайване. Но я-то прекрасно знал, что у коллег из департамента материнских плат жидкий металл есть в наличии, поэтому мы продолжили воевать "с системой".

Решив проблему "нежелания", мы столкнулись с другой проблемой. Ведь наносить жидкий металл на поверхность кристалла не так уж и просто, а в рамках массового производства это практически невозможно. В итоге жидкий металл дебютировал в 2019 году в ROG Mothership, выпущенным ограниченным тиражом в 1000 экземпляров.

Если собрать все трудности с жидким металлом вместе, то я бы выделил следующие:

  • сложность нанесения

  • жидкий металл проводит ток

  • коррозия металлов, контактирующих с термоинтерфейсом

  • стоит дороже термопасты

На протяжении следующего года инженеры ROG решали вышеперечисленные проблемы.

Жидкий металл наносится специальным станком при помощи силиконовой кисти.Жидкий металл наносится специальным станком при помощи силиконовой кисти.

Для нанесения жидкого металла в масштабах массового производства был создан специальный станок, который позволял решить, пожалуй, самую главную и сложную задачу - равномерное нанесение термоинтерфейса по поверхности кристалла процессора. В нашем случае используется жидкий металл от Thermal Grizzly, отличающийся от других производителей на рынке пониженной концентрацией олова в составе, что делает его более эффективным. На начальных этапах процесс тестирования жидкого металла был настолько засекречен, что первые партии термоинтерфейса Thermal Grizzly покупались на рынке у нескольких продавцов, а не напрямую у производителя, чтобы не допустить утечек информации.

Важно помнить, что жидкий металл проводит ток, поэтому меры предосторожности очень важны. На первом этапе на заводе используется специальная пластина, которая закрывает собой все вокруг кристалла процессора и примет на себя излишки жидкого металла. С помощью специальной силиконовой кисти жидкий металл будет распределяться по всей поверхности кристалла. Надо отметить, что даже подбор материала для этой кисти был не таким простым, было испробовано около 30 различных материалов и выбор остановился на силиконе, который не деформирует нанесенный слой.

Добавляем еще немного ЖМ для создания безупречного контакта между кристаллом и радиатором СОДобавляем еще немного ЖМ для создания безупречного контакта между кристаллом и радиатором СО

На следующем этапе пластина убирается и с помощью своего рода "шприца" на поверхность кристалла добавляется несколько капель жидкого металла, которые должны будут занять все свободное пространство между кристаллом и радиатором системы охлаждения для эффективного теплообмена. После этого устанавливается система охлаждения. В коротком видео можно посмотреть подробности процесса:

Жидкий металл нужно менять через год? Неправда!

Энтузиасты, кто хоть раз сталкивался с жидким металлом, знают о главном недостатке - "его на долго не хватает". Спустя год - максимум полтора, у всех людей, кто заменил термоинтерфейс на жидкий металл в своих десктопах или ноутбуках, начинается одна и та же проблема. Температуры процессора возвращаются к прежним значениям "до перемазки", а на форумах бытует понятие, что жидкий металл "высыхает". На самом деле все не совсем так. В современных системах охлаждения крышка теплораспределителя сделана из меди, которая подвергается коррозии при контакте с жидким металлом. Процесс этот не моментальный, поэтому пользователи замечают это примерно спустя год с момента нанесения. Из-за нарушения герметичности контакта происходит постепенный рост температуры процессора.

Успех "долголетия" жидкого металла заключается в использовании никелированного основания радиатораУспех "долголетия" жидкого металла заключается в использовании никелированного основания радиатора

В рамках массового производства и сервисного обслуживания замена термоинтерфейса каждый год просто непозволительная роскошь для производителя, поэтому радиаторы систем охлаждения под ноутбуки с жидким металлом пришлось доработать. Медное основание радиатора заменили на никелированное, и оно коррозии не поддается. При констультации с инженерами Thermal Grizzly инженеры ROG пришли к выводу, что подобное инженерное решение будет иметь "срок годности" более 5 лет.

По итогам внутреннего тестирования инженеры ROG департамента R&D установили:

  • снижение температур процессора на 13-15 градусов по Цельсию в сбалансированном режиме работы системы охлаждения и незначительный рост частот процессора в Turbo Boost

  • снижение температур процессора в диапазоне от 7 до 22 грудусов по Цельсию и рост частот процессора на 300-400 МГц в зависимости приложения

  • увеличение производительности ноутбука до 10% в режиме Turbo работы системы охлаждения

А что дальше?

Если вы уже являетесь владельцем игрового ноутбука, в котором высокие температуры процессора и шумная система охлаждения не дают вам покоя, и вы грезите заменой термоинтерфейса, то мой вам совет: не используйте для этого жидкий металл. Скорее всего при отсутствии определенного опыта и практики нанесение этого термоинтерфейса доставит вам много проблем, а вред от коррозии основания радиатора можно будет исправить лишь последующим шлифованием основания радиатора системы охлаждения. Что в конечном итоге, также не сулит ничего хорошего. Если уж очень хочется, то используйте топовые термопасты от Thermal Grizzly и наслаждайтесь снижением температур на 5-10 градусов по Цельсию и, как следствие, снизившимся уровнем шума.

На данный момент все игровые ноутбуки Republic of Gamers с процессорами Intel Core 10-го поколения получили "с завода" жидкий металл. Будет ли жидкий металл в ноутбуках с процессорами AMD или на графических чипах NVIDIA? Пока сложно сказать. Штаб-квартира ASUS объясняет свой выбор в пользу Intel тем, что кристалл процессора маленький, а тепло от него распределяется по поверхности равномерно, делая процессоры Intel идеальными кандидатами на операцию "жидкий металл", в которой можно по максимуму раскрыть все прелести от использования подобного термоинтерфейса. Забегая вперед, скажу, что в Intel настолько вдохновились идеей использования жидкого металла в качестве термоинтерфейса, что они стали советовать перейти на жидкий металл и другим производителям игровых ноутбуков. Попытки использовать жидкий металл на платформе AMD также предпринимались инженерами ROG в модели Zephyrus G14, но в итоге в массовое производство это решение не пошло из-за большого количества элементов, расположенных вокруг кристалла, и, как следствие, рисков, связанных с коротким замыканием. Поэтому пока от внедрения жидкого металла в продуктах на базе AMD решили воздержаться, но поиск оптимального решения уже ведется.

Станет ли такое решение нормой для игровых ноутбуков или останется лишь в премиальных моделях ROG, покажет лишь время.

Подробнее..

Nvidia представила новую версию одноплатного ПК Jetson Nano всего за 59

07.10.2020 14:10:47 | Автор: admin

За последние несколько недель появилось сразу несколько отличных одноплатников. Только недавно вышел на рынок конкурент Raspberry Pi 4 c x86-процессором, а сейчас Nvidia представила еще одну альтернативу малинке, только уже с уклоном в технологии искусственного интеллекта.

Называется новинка Jetson Nano, это уже вторая версия. Первая появилась в 2019 году и продавалась по цене в $99. Новый одноплатник практически такой же по функциональности, но дешевле стоимость устройства составляет $59.

Отличие второго поколения от первого вдвое меньший объем оперативной памяти, 2 ГБ вместо 4 ГБ и наличие беспроводного WiFi-модуля. Правда, он не встроен, в комплекте с одноплатником идет USB-донгл.

Кроме того, Nvidia запустила и бесплатный онлайн-курс с программой сертификации для ИИ-специалистов. У Jetson Nano есть обширное комьюнити, которое продолжает развиваться. Представители сообщества регулярно выкладывают туториалы и исходники своих проектов. Предлагаются даже комплекты дополнительных модулей для создания роботизированных устройств на основе Jetson Nano.

Характеристики устройства:

  • Стоимость: $59.
  • CPU: 64-битный Quad-core ARM A57 (1.43 ГГц).
  • GPU: 128-ядерный чип Nvidia Maxwell.
  • RAM: 4ГБ DDR4.
  • Связь: Ethernet 10/100/1000, Wi-Fi-донгл.
  • Порты: 2x USB 2.0, 1x USB 3.0, HDMI, CSI Camera Connector.
  • Интерфейс: 40-Pin GPIO.


Основные отличия от предыдущей версии питание нового устройства по USB Type-C. Характеристики питания 5В, 3А. У новой версии один USB 3.0-порт и два USB 2.0 порта. У предыдущего поколения было четыре USB 3.0 порта. Кроме того, у второго поколения только HDMI для вывода изображения. У первого был еще и DisplayPort. Сейчас от него решили избавиться для удешевления устройства.

Стоит отметить, что Jetson Nano совместим с рядом модулей от Raspberry Pi. Например, с модулями камеры. Кроме того, GPIO нового устройства совместимо с Raspberry Pi HATs. А вот ПО для малинки не совместимо напрямую. Так, Raspberry Pi работает на Raspberry Pi OS, основанной на Debian. Одноплатник же от Nvidia оснащен дистрибутивом Ubuntu, который называется eLinux. Так что часть ПО совместима, но далеко не все пакеты, которые подходят для одного ПК, подойдут для второго.

По словам пользователей первого поколения одноплатников от Nvidia, эти системы отлично подходят для распознавания изображений в режиме реального времени. А вот Raspberry Pi даже максимальной конфигурации без дополнительных ускорителей не всегда могут справиться с этой задачей.

Подробнее..

VMware ESXi на Raspberry Pi

13.10.2020 18:18:35 | Автор: admin

Ранее мы рассказывали, что VMware ESXi стала доступна для Raspberry Pi. В данной статье мы рассмотрим установку гипервизора и запуск гостевой ОС на Raspberry PI 4 Model B.

Подготовка рабочего места


Прежде чем приступать к установке, необходимо подготовить рабочее место. Вот что использовалось при написании инструкции:

  • Raspberry Pi 4 Model B 4GB RAM;
  • источник питания Qualcomm GA-QC810;
  • кабель USB A to USB type C;
  • карта MicroSD 16GB;
  • адаптер MicroSD to USB;
  • USB флешка 32GB;
  • USB флешка 16GB;
  • кабель HDMI-mini to HDMI;
  • комплект клавиатура+мышь с беспроводным адаптером;
  • ноутбук с Ubuntu 20.04;
  • кабель RJ-45;
  • монитор.

Уделите особое внимание источнику питания, так как нехватка тока может привести к разным ошибкам в процессе установки гипервизора. Используемый нами Qualcomm GA-QC810 дает 3А при напряжении 5В, что идеально подходит для нашей малинки. Также рекомендуем использовать активное охлаждение Raspberry PI вместо пассивного.

При установке рекомендуется использовать монитор и клавиатуру. Способ с использованием последовательного порта поддерживается, но ограничен по функциональности.

Обратите внимание, что на момент написания статьи VMWare ESXi не поддерживает модуль Wi-Fi, для подключения к сети используется только проводной интерфейс.

Теперь, когда известны все ограничения текущей версии, можно приступать к подготовке нашего одноплатного компьютера.

Обновление EEPROM


Первым делом обновите EEPROM малинки. Эта процедура выполняется в Raspberry PI OS. Эта ОС должна быть предустановлена на Raspberry PI, но, если вы уже устанавливали другую ОС, это не проблема.

Скачиваем Raspberry Pi Imager с официального сайта. Для Ubuntu программа распространяется в виде deb-пакета. Далее в терминале переходим в каталог со скачанным пакетом и устанавливаем его:

sudo dpkg -i imager_1.4_amd64.deb

Могут возникнуть ошибки, связанные с неразрешенными зависимостями. Необходимые зависимости устанавливаются с помощью команды apt:

sudo apt --fix-broken install

Если зависимости и Imager успешно установились, можно приступать к установке Raspberry Pi OS.

Окно Raspberry Pi Imager v1.4 с выбранными ОС и накопителем
Подключаем MicroSD-карту к ноутбуку и запускаем утилиту. В качестве ОС выбираем Raspberry Pi OS (32-bit), а в качестве SD Card подключенную MicroSD-карту. Убедитесь, что выбрали правильное устройство, так как нажатие кнопки write сотрет все данные на устройстве и запишет туда файлы выбранной ОС.

Запись Raspberry Pi OS на MicroSD-карту
После завершения записи утилита дополнительно проверит корректность записанных данных. Если все хорошо, то устанавливаем MicroSD-карту в Raspberry Pi и запускаем. После загрузки ОС нас приветствует первоначальная настройка ОС. Отвечаем на ее вопросы и ближе к концу соглашаемся обновить ПО.

Обновлений EEPROM не найдено
После обновления ПО можно приступать к обновлению EEPROM. Сначала проверим наличие обновлений:

sudo rpi-eeprom-update

У нас установлена актуальная версия, поэтому необходимости выполнять обновление нет. Однако если версия CURRENT все же отличается от LATEST, то обновляемся:

sudo rpi-eeprom-update -asudo reboot

Теперь, когда EEPROM обновлен, приступаем к установке образа UEFI.

Установка UEFI


Для загрузки VMWare ESXi необходим UEFI, которого по умолчанию нет на Raspberry Pi. Это легко исправить. Выключаем малинку, извлекаем MicroSD-карту и подключаем ее к ноутбуку.

Карточку необходимо отформатировать в FAT32 и примонтировать в удобное место:

sudo mkfs.fat -I /dev/sdXsudo mount /dev/sdX /mnt

Обратите внимание, что мы создаем файловую систему прямо на накопителе без использования таблицы разделов. Далее скачиваем и распаковываем архив с содержимым репозитория raspberrypi/firmware.

cd /tmpwget 'https://github.com/raspberrypi/firmware/archive/master.zip'unzip master.zip

В репозитории нас интересует содержимое каталога boot, кроме файлов с расширением .img, которые представляют собой образы с ядром ОС Linux. Избавляемся от img-файлов и копируем содержимое каталога на MicroSD-карту:

cd firmware-master/bootrm -f *.imgsudo cp -r * /mnt

Так как это оригинальные файлы прошивки, в них нет UEFI. Скачиваем модули с UEFI отдельно на странице релизов:

cd /tmpmkdir ueficd uefiwget 'https://github.com/pftf/RPi4/releases/download/v1.20/RPi4_UEFI_Firmware_v1.20.zip'unzip RPi4_UEFI_Firmware_v1.20.ziprm RPi4_UEFI_Firmware_v1.20.zip

Если вы используете Raspberry Pi с 4 ГБ оперативной памяти, то в config.txt необходимо добавить строчку gpu_mem=16:

echo "gpu_mem=16" >> config.txt

После этого добавляем файлы на MicroSD-карту:

sudo cp -r * /mnt

Далее отмонтируем карту, устанавливаем ее в Raspberry Pi и запускаем.

Экран выбора загрузки
Если все сделано корректно, то UEFI быстро загрузится и малинка предложит зайти в настройки или продолжить загружаться.

UEFI Setup Utility на Raspberry Pi
Заходим в Setup и видим достаточно привычную для серверов картину. Однако глаз цепляется за строку 3072 MB RAM. Объяснение этому достаточно простое. По умолчанию оперативная память ограничивается до 3 ГБ для совместимости с другими ОС.

Отключение искусственного ограничения оперативной памяти
Так как нам нужна вся доступная на малинке оперативная память, то находим пункт Limit RAM to 3 GB по пути Device Manager Raspberry PI Configuration Advanced Configuration и устанавливаем в Disabled. После этого сохраняем настройки нажатием клавиши F10 и выходим из Setup Utility. Для применения настроек необходимо выполнить перезагрузку, о чем нас и попросят. Соглашаемся на перезагрузку, и наш Raspberry Pi готов к установке гипервизора.

Подготовка установочной флешки


Заходим на страничку ESXi Arm Edition, выбираем ESXi-Arm-ISO, соглашаемся с лицензией Technical Preview и принимаем факт, что Flings это экспериментальное ПО и его стоит использовать только для тестовых целей.

Скачать образ без существующего аккаунта VMware не получится. Необходимо зарегистрироваться или войти со своей учетной записи. На странице загрузок выбираем ESXi for Arm ISO image (no VMware Tools). После скачивания разворачиваем ISO-образ на меньшую из флешек:

sudo dd if=VMware-VMvisor-Installer-7.0.0-16966451.aarch64.iso of=/dev/sdX bs=1M

Подключаем в Raspberry Pi флешку с образом и чистую флешку, которая будет выполнять роль системного диска, и включаем малинку.

Назначение порядка загрузки
По умолчанию порядок загрузки UEFI начинается с попыток загрузиться по сети. Так как мы работаем с флешками, то заходим в Setup Utility и меняем порядок в следующем пункте настроек: Boot Maintenance Manager Boot Options Change Boot Order Change the order. Записи меняют приоритет по нажатию кнопок . Устанавливаем флешки первыми.

После установки приоритета необходимо нажать Enter для сохранения нового порядка, а затем сохранить изменения в конфигурации с помощью F10. Перезагружаем Raspberry Pi и наконец попадаем в установщик VMware ESXi.

Установка VMware ESXi


Дополнительные параметры для установщика
Ранее мы говорили, что предпочтительным способом общения с установщиком является использование монитора и клавиатуры, а не консоли. Эта рекомендация имеет наибольшую силу во время начала установки. При использовании клавиатуры можно нажать Shift + O и задать параметры для установщика, в то время как в консольном режиме это невозможно.

Мы как раз воспользуемся этим для ограничения раздела VMFS-L до 1 ГБ. Нажимаем Shift + O и прописываем autoPartitionOSDataSize=1024. Так у нас останется место на Datastore для виртуальных машин. К сожалению, нам не удалось заставить ESXi видеть другие USB-накопители и iSCSI-устройства, поэтому ограничение раздела VMFS-L это пока единственный способ выделить место для хранилища ВМ.

Отвечаем на вопросы установщика, и спустя 10 минут VMware ESXi установлена. Обратим внимание, что установщик не задает вопросы про сетевые интерфейсы. Проводной интерфейс настроен получать адрес по DHCP, а беспроводной игнорируется системой.

Главная страница веб-интерфейса VMware ESXi
Если установка прошла успешно, то перезагружаем Raspberry Pi, извлекаем установочную флешку и дожидаемся загрузки гипервизора. Операционная система попытается получить адрес по DHCP на проводном интерфейсе, и если ей это удастся, то этап установки завершен.

Запуск виртуальной машины


Во время установки гипервизора мы ограничили размер VMFS-L раздела до 1 ГБ, что позволило оставить 20 ГБ под datastore место, где виртуальные машины хранят свои данные. Мы бы очень хотели воспользоваться возможностью загрузки готовых OVA-образов, но, к сожалению, под архитектуру ARM64 такие образы не находятся.

Установка Debian 10 из ISO-образа
Так как легким путем пойти не удалось, придется искать образы CD с ОС под архитектуру ARM64. Мы выбрали Debian 10 и скачали netinstall-версию с cdimage.debian.org.

При создании виртуальной машины нужно уделить особое внимание количеству оперативной памяти и размеру диска гостевой ОС. Во-первых, диск гостевой ОС должен быть от 16 ГБ, чтобы установщику было где развернуться. Во-вторых, количество свободного места на VMFS-разделе должно превышать количество выделенной оперативной памяти для ВМ.

Таким образом, при наличии 20 ГБ свободного места на VMFS получилось создать виртуальную машину с 2 ГБ оперативной памяти и 18 ГБ постоянной памяти. При нарушении этого условия виртуальная машина откажется запускаться, и одной из причин будет No space left on device.

Гостевая Debian 10 Buster и характеристики виртуальной машины
После множества попыток нам удалось установить Debian 10 на виртуальной машине в следующей конфигурации:

  • 2 vCPU;
  • 1 ГБ RAM;
  • 17 ГБ диск.

Со стороны операционной системы важными являются следующие настройки:

  • один раздел для всего на 17 ГБ;
  • не использовать swap;
  • из компонентов на выбор поставить только SSH Server.

Конечно, успех был достигнут не с первой попытки.

Рекомендации по решению проблем


При установке гостевой ОС необходимо помнить, что работа гипервизора и гостевой ОС производится в условиях жесткой нехватки аппаратных ресурсов. Для решения части проблем необходимо просто набраться терпения и подождать.

Но не все проблемы решаются бездействием. Так, например, нам не удалось установить Debian с первого раза, поскольку виртуальная машина зависла на этапе разбиения диска, а следом завис и гипервизор.

Жесткая перезагрузка помогла продвинуть установку Debian дальше, но на этапе установки ядра ВМ опять зависала, потребление CPU снижалось до минимума, как и обращение к дискам. Гипервизор был неспособен перезагрузить ВМ, а datastore browser отображал бесконечную загрузку. Подозрения пали на флешку с гипервизором.

Задержка при обращении к диску до 150 секунд
Просто заменить флешку было невозможно, так как внешних накопителей подобного объема в ближайшем доступе не было. Графики мониторинга гипервизора говорили о больших задержках при обращениях к диску. Мы проверили установку Ubuntu 20.04 и CentOS 7, и каждая из ОС выдавала схожие симптомы, а проблема воспроизводилась в конкретные этапы установки.

Предположили, что установщику не хватает места. Мы сократили раздел VMFS-L до 1ГБ и выделили виртуальной машине 16 ГБ. Это сместило зависание виртуальной машины на самый конец установки и подтвердило догадку. Опытным путем было установлено, что для минимальной установки Debian 10 требуется диск на 17 ГБ.

В нашей сборке бутылочным горлышком было пространство на флешке, которого не хватало. Эту проблему можно решить использованием внешнего жесткого диска, однако в этом случае рекомендуем убедиться, что питания Raspberry Pi хватит для работы этого диска.

Заключение


Мы добились желаемого и не просто поставили гипервизор на Raspberry Pi, но и установили гостевую ОС, которая корректно работает. Хочется отметить, что запуск VMware ESXi на малинке был увлекательной и местами нетривиальной задачей.

Несмотря на малую вычислительную мощность Raspberry Pi, вероятно в будущем, ее можно применить в качестве бюджетного хоста-свидетеля (witness) для программно-определяемого хранилища VMware vSAN.

Подробнее..

Встречаем новое поколение одноплатника microbit от BBC

15.10.2020 12:13:13 | Автор: admin

В 2016 году в продаже появились микрокомпьютеры от BBC, разработанные для школьников и студентов. Позиционируются они как системы для учебы, на основе которых можно разрабатывать проекты с Touch Develop, Python, и C++ и т.п.

Проект не новый, первый micro:bit появился еще в 80-х годах прошлого века, и о нем мы писали в подборке ПК, оказавших сильное влияние на IT-индустрию. Ну а теперь появилось новое поколение одноплатников от BBC, которые стали еще функциональнее, чем раньше.

Как и предыдущее поколение, этот мини-ПК лишен видеовыхода, для него необходимо особенное программное обеспечение.

Зато своему пользователю эта плата предлагает Bluetooth, различные сенсоры, светодиоды и прочие аксессуаров, не говоря уже о светодиодах. Начинающие свой путь в разработке электроники и программировании пользователи смогут создавать и тестировать приложения при помощи этого одноплатника.


К слову, у этого поколения появился динамик и микрофон. Кроме того, процессор Nordic nRF51822 ARM Cortex-M0 заменили на nRF52833 Arm Cortex-M4. Частота увеличена с 16 МГц до 64 МГц.


Характеристики одноплатника:

  • Bluetooth 5.1.
  • 25 LED (схема размещения на плате 5*5).
  • 2 x тактильных программируемых кнопки и 1 тактильная системная кнопка.
  • Компас.
  • Магнетометр.
  • Акселерометр.
  • Температурный сенсор.
  • GPIO.
  • micro USB 2.0 порт.


Полная спецификация устройства доступна здесь.


Студенты могут программировать на Python (версии для микроконтроллеров, MicroPython), C/C++ и MakeCode. Один из кейсов разработка активируемых голосом систем. Этот пример предложили сами создатели устройства.


Еще отличной новостью является то, что этот одноплатник полностью совместим с предыдущей версией, так что приложения, созданные для нее, будут работать и здесь.

В продаже одноплатник появится в ноябре этого года.

Подробнее..

Compute Module 4 от Raspberry Pi особенности платы и новые возможности

20.10.2020 12:19:01 | Автор: admin
Источник изображения: hackaday.com
Как уже писали на Хабре, сегодня организация Raspberry Pi Foundation представила Compute Module 4 по цене от $25. В целом, новый модуль это шаг вперед по сравнению с предыдущими моделями. Он более быстрый, у него больше возможностей, включая сетевые функции. Например, у модуля есть опция Wi-Fi 802.11b/g/n/ac, Bluetooth 5.0.

Но есть у платы и несколько особенностей, о которых стоит знать, прежде, чем решаться на покупку. $25 сумма относительно небольшая, но ведь некоторые любители и компании покупают десятки плат одновременно.

Пока, SO-DIMM, нам будет тебя не хватать



Самым большим сюрпризом для поклонников продукции от Raspberry Foundation стал отказ разработчиков от SO-DIMM в пользу двух 100-контактных мезонинных разъемов Hirose DF40C-100DS-0.4V. По словам авторов проекта, это дает возможность повысить скорость обмена данными между платами и одновременно уменьшить габариты модуля. И правда, длина платы стала меньше на 12,6 мм. Но она стала шире на 10 мм, так что экономия пространства минимальна.

Два разъема дали возможность разделить низкоскоростные и высокоскоростные периферийные подключения. С одной стороны GPIO Raspberry Pi, питание, SD-слот и Ethernet. С другой PCIe, USB, HDMI, MIPI CSI и сразу две линии DSI. Так что плата подойдет и разработчикам, которым нужна возможность быстрого ввода/вывода, так и тем, у кого нет в этом острой необходимости.

PCIe интерфейс


Наличие PCIe отличная новость. Конечно, в этот разъем не вставить игровую видеокарту, превратив девайс в игровой ПК. Нет, замысел здесь в ином. Например, можно использовать карту расширения PCIe с USB3 портами. Правда, нужно удостовериться в том, что эта карта совместима с чипсетом VLI VL805. Но таких устройств немало, так что особо волноваться не о чем.


VIA VL806 двухпортовый хост-контроллер, который совместим с новой платой. Есть и четырехпортовый, VIA VL805
Одна из моделей плат расширения, которая совместима к Raspberry Pi 4 и одновременно CM4, Syba USB 3.1 PCI express. В этой плате есть даже USB-C порт, так что разработчики могут быть довольны.

Кстати, у CM4, как и у Raspberry Pi 4, есть возможность загрузки по USB. И если установлен USB 3.0 адаптер, то, соответственно, и скорость загрузки будет высокой.

NVMe


Поддержка NVMe задекларирована, но нужно иметь в виду, что она не включена по умолчанию в Raspberry Pi OS, о чем предупреждают, например, здесь. Активировать нужную функцию можно при помощи команды modprobe nvme-core, после чего нужно перезагрузиться.


Одна из совместимых NVMe моделей дисков Samsung 970 EVO Plus. Правда, это дороговатая модель, но в любом случае возможность подключения подобных устройств есть. Разработчики малинки отчитались о достижении показателя в 390 MБ/с в лаборатории.

Правда, установленный SSD нельзя подключить в качестве загрузочного диска. Возможно, эта функция появится позже, но сейчас такой возможности нет.

MIPI CSI и MIPI DSI


У Model B один двухрядный MIPI CSI коннектор и один двухрядный MIPI DSI коннектор. У CM4 есть возможность работы с двумя коннекторов каждого типа сразу, что означает подключение стереоскопического 3D зрения. Примерно то же самое можно делать и с CM3+, но предыдущая модель не такая производительная, так что и возможности у нее не такие обширные.

Сетевые возможности


Отличная новость для разработчиков WiFi, Bluetooth и гигабитный Ethernet из коробки. Правда, эти возможности доступны не для каждого из представленных 32 вариантов плат. Но если есть необходимость в получении полноценного беспроводного модуля, то это можно сделать без проблем.


Как и сообщалось в самом начале, у платы современные протоколы беспроводной связи Wi-Fi 802.11b/g/n/ac и Bluetooth 5.0. А еще у нее есть U.FL-коннектор для внешней антенны! В некоторых случаях платы заключаются в металлический корпус, который играет роль клетки Фарадея, так что внешняя антенна будет весьма кстати.

У Raspberry Pi Foundation есть совместимая антенна, Compute Module 4 Antenna Kit. Но, в целом, подойдет и любая другая.


Для того, чтобы активировать антенну, необходимо отредактировать файл /boot/config.txt, добавив параметр dtparam=ant2

Гигабитный Ethernet работает без проблем, выдавая обещанную пропускную способность. У новой модели за Ethernet отвечает современный чип BCM54210PE с поддержкой IEEE 1588 Precision Time Protocol.

Compute Module 4 IO Board



Вместе с CM4 можно приобрести плату расширения Compute Module 4 IO Board, которая обеспечивает подключение широкого спектра внешних устройств. Так, на этой плате есть два полноразмерных HDMI-порта, два порта USB 2.0, слот под карту microSD, разъем PCIe Gen2 x1, сетевой порт Ethernet (поддержка PoE), 40-пиновый GPIO-коннектор. Плюс здесь есть и RTC (Real-Time Clock), со слотом для батарейки CR2032. В целом, плата добавляет большое количество функций, которых может не хватать пользователям CM4.

Документация для этой платы доступна здесь, есть и KiCAD-файлы.

В сухом остатке


Compute Module 4 идеальный вариант для разработчиков. Плата предоставляет все те функции, которые обещали ее создатели, включая нативную поддержку PCIe. Плата подходит для создания сложных и не очень IoT-проектов, разработки embedded-систем и даже для ИИ-проектов, с добавлением систем машинного зрения (об этом мы напишем в одной из последующих статей).

Подробнее..

Перевод Intel наносит ответный удар

04.10.2020 22:08:33 | Автор: admin


После более чем десятилетнего превосходства Intel уступила своему главному конкуренту, AMD. Джереми Лэрд пытался разобраться, где Intel встала на ложный путь и чем ответит противнику.

Так что же именно случилось с Intel? Когда-то безусловный лидер в производстве процессоров и микросхем сейчас уступает соперникам почти по всем возможным показателям. CPU от AMD оказались более продуманными, а технология производства от TSMC эффективнее. Похоже, что Intel окончательно сбилась с пути.
Даже на рынке мобильных ПК, где производитель был абсолютным лидером не одно десятилетие, процессоры Intel уступили новым гибридным Renoir от AMD.
Дела обстоят настолько плохо, что Apple сообщила о планах разорвать отношения с производителем и начать выпускать собственные чипы на базе ARM. Хуже того, поговаривают, что сама Intel задумывается о партнёрстве с TSMC для выпуска отдельных видов продукции в будущем, в том числе и первой пользовательской видеокарты. В сущности, это может стать для корпорации полным унижением.
Или же это всего лишь предположение? Несмотря на все трудности, в прошлом году доход Intel достиг рекордной суммы 72 млрд. долл. В действительности главная проблема производителя заключается в том, что он не поспевает за динамикой спроса со стороны так называемых гипермасштабируемых ЦОД. Это такие компании, как Amazon, Microsoft, Google, Facebook и др., которым просто не хватает в достаточном количестве процессоров Xeon. Между тем есть веские основания полагать, что вскоре Intel вернётся в прежнюю колею относительно того, что касается производства чипов и микроархитектур CPU.
Как можно охарактеризовать беды и несчастья Intel в двух словах? 10 нанометров, я бы сказал. И дело не только в провале технологии производства чипов такие доводы можно привести в пользу любой производящей микроархитектуры компании, которая почивает на лаврах на протяжении десятилетий. Но 10 нанометров! Это же катастрофа.
Под этим понятием 10 нанометров подразумевается технологический процесс или узел, используемый для производства компьютерных чипов. 10 нм в теории это размер самых маленьких компонентов внутри чипа. Однако на практике названия, относящиеся к технологическим процессам, и фактические размеры компонентов, например, затворов транзисторов внутри десктопного процессора, перестали соотноситься между собой в последнее время. И, скорее всего, внутри процессора Intel нет такого компонента, размер которого действительно 10 нм.
Это отсутствие прямой зависимости между размером компонента и описанием узла становится более проблемным, когда дело касается сравнения технологических процессов конкурирующих производителей. Но об этом чуть позже. А сейчас нас интересует 10-нм техпроцесс Intel и его недостатки. Изначально ожидалось, что он будет внедрён ещё в 2015 году. Сейчас уже вторая половина 2020 года, однако ассортимент продуктов с 10-нм чипами невелик. Купить настольные ПК или серверные CPU, построенные на вышеуказанном техпроцессе, вам не удастся. Только мобильные процессоры для ноутбуков и планшетов перешли на 10-нм технологию, да и то лишь те, что с низким и ультранизким потреблением мощности. Остальные обновили до 14 нм.
Эти факты нужно рассматривать с учётом принятого самой Intel стандарта закона Мура, и потому нужно учитывать сопротивление законов физики, с которым столкнулись разработчики микросхем в последние годы. Однако ещё большие трудности в производстве полупроводников могут возникнуть, когда отдельные транзисторы достигнут размера горстки атомов и будут подвергаться загадочным квантовым эффектам, например, туннелированию. Но это уже совсем другая история.
Скорее всего, все проблемы Intel сводятся к чрезмерным амбициям, моральному устареванию отдельной производственной технологии, может быть, самоуспокоенности и отсутствию инвестиций.
По словам главного руководителя Intel Боба Свона, проблемы Intel с 10-нм технологией это своего рода производная того, что мы делали в прошлом. Тогда мы пытались одержать победу несмотря ни на что. И когда наставали особенно тяжёлые времена, мы ставили ещё более амбициозные цели. И потому на их достижение у нас уходило больше времени.

Завышенные ожидания от микросхем


В отношении 10-нм технологического узла эта амбициозная цель означает увеличение плотности транзисторов в 2,7 раза. Иными словами, на единице площади кристалла в 10-нм узле содержится в 2,7 раза больше транзисторов, чем в 14-нм узле. Если конкретнее, то процессоры, выполненные по 14-нм техпроцессу, содержат 37,5 млн. транзисторов на квадратный миллиметр, в то время как в одном квадратном миллиметре 10-нм кристаллов содержится 100 млн. транзисторов. Кардинальное увеличение плотности транзисторов делает 10-нм технологию гораздо более амбициозной по сравнению другими техпроцессами.
Увеличение плотности в 2,5 раза и переход от 22-нм к 14-нм технологии были впечатляющими, однако переход от 32 нм к 22 нм представлял увеличение плотности в 2,1 раза, а переход от 45 нм к 32 нм в 2,3 раза. Понимание сути этих изменений помогает объяснить различия между узлами Intel и узлами конкурирующих производителей. Например, 10-нм технология Intel подразумевает плотность 100,8 млн. транзисторов на квадратный миллиметр. Этот показатель немного превосходит показатель TSMC 96,5 млн. транзисторов (позже TSMC объявила о 113,9 млн. транзисторах на квадратный миллиметр для усовершенствованного 7-нм техпроцесса). Все три 7-нм узла от Samsung также не дотягивают до отметки 100 млн.
Всё дело в том, что 10-нанометровая технология от Intel была очень амбициозной настолько, что в 2017 г. компания добавила метку Hyper Scaling, чтобы обратить внимание на увеличенную плотность. Оглядываясь назад, можно утверждать, что ожидания оказались завышенными. Всё потому, что Intel сделала конечный узел на основе текущей литографии с применением дальнего УФ излучения (DUV). Если в двух словах, размер компонентов в микросхеме определяется длиной световой волны, используемой в литографических процессах. Эти процессы гравируют компоненты на поверхности кремниевой подложки, а из кремниевых пластин вырезаются ПК процессоры.
Это не прямая зависимость. Влияние также могут оказывать различные техники и вспомогательные опции, например, маски, используемые фактически в качестве множителя, которые сокращают размеры компонентов ниже фактической длины световой волны. Оборудование для изготовления чипов, применяющее установки DUV, использует УФ-излучение с длиной волны 193 нм. Однако есть лимит относительно плотности расположения транзисторов при данной длине волны. Intel же превысила это предел.
Как результат, позорная задержка выпуска продукции на целых пять лет. Это вечность с точки зрения динамики объёмов Intel и закона Мура. Даже сейчас есть признаки того, что 10-нм техпроцесс не является тем, чем должен быть. Так Ice Lake, новые мобильные процессоры десятого поколения разгоняются медленнее, чем их 14-нм предшественники. Самые быстрые 10-нанометровые процессоры Ice Lake Core i7-1065G7 развивают максимальную скорость при 3,9 ГГц, при том, что Core i7-8665U восьмого поколения на целых 900 МГц быстрее. Это чертовски много, а значит что-то в производственном процессе идёт не так.
Ещё одно доказательство, что 10-нм техпроцесс не оправдал ожиданий Intel, это сдваивание маломощных процессоров 10-ого поколения. Вместе с нынешними CPU Ice Lake выпускается новое семейство Comet Lake, и оба относят к 10-ому поколению.
Подобно Ice Lake, мобильные процессоры Comet Lake идут в маломощных и ультрамаломощных форматах.
Но в отличие от Ice Lake Comet Lake использует 14-нм, а не 10-нм техпроцесс, и распространяется на 6-ядерные модели при максимальной тактовой частоте 4,9 ГГц.
Как результат, уже сейчас вы можете купить ноутбук с процессором, имеющим логотип Intel 10-ого поколения, однако то, что внутри коробки, может отличаться от заявленного кардинально. Если процессор 2-х или 4-х ядерный, он может быть маломощным или ультрамаломощным. А ещё 10-нанометровым или 14-нанометровым. Он может базироваться на микроархитектуре 2015 года Skylake или совершенно новой Sunny Cove, и тоже считаться Ice lake.

Проблемы с микроархитектурой


Упоминание Sunny Cove закономерно подводит к нас к другому большому провалу Intel микроархитектуре. Вплоть до выпуска 10-нм чипов Ice Lake для ультрапортативных ноутбуков в конце прошлого года огромное количество процессоров для настольных компьютеров, ноутбуков и серверов базировалась на 14-нм техпроцессе, дебютировавшем в 2014 году, и архитектуре Skylake, появившейся в 2015 году. Обоих правили тысячи раз, однако никаких коренных изменений в обновлениях не было.
Более того, со времени появления микроархитектуры Nehalem в 2008 году Intel могла предложить лишь 4 ядра для процессоров в популярных моделях ПК. Так продолжалось до релиза в 2017 году микроархетиктуры Coffee Lake, эволюционировавшей версии Skylake, и последующим увеличением до шести ядер. Почти десять лет Intel не увеличивала число ядер для серийно выпускаемых моделей продуктов.
Чуть меньше чем за два с половиной года Intel подняла планку до 10 ядер для популярных десктопных процессоров, выпустив Comet Lake повторную обновлённую сборку Skylake, принадлежащую к семейству 14-нм процессоров. Получается, что в течение 10 лет не было никаких сдвигов, а потом произошло увеличение в 2,5 раза за короткий промежуток времени. Что же могло привести к такому резкому увеличению числа ядер после длительного застоя? Причина этому появление архитектуры Zen от AMD и процессоров Ryzen, первое поколение которых вышло в 2017 году. Проще говоря, Intel ленилась до тех пор, пока у неё не появился конкурент.
Конечно, даже с десятью ядрами Intel сильно уступает AMD, которая в настоящее предлагает 16 ядер в популярных ПК с процессорами Ryzen 3-ого поколения. Их преимущество заключается также в том, что они созданы на базе 7-нм техпроцесса от TSMC.
В мобильном сегменте дела у Intel не лучше. В новой линейке 7-нм гибридных процессоров Renoir от AMD восемь ядер Zen 2 мощностью в 15 ватт. Intel удалось сделать лишь 6-ядерный Comet Lake Core-i7 10810U в качестве конкурента. Это процессор с тактовой частотой всего лишь 1,1 ГГц. В 15-тиваттный Ryzen 7 4800U запаковано 8 ядер, его частота 1,8 ГГц. Отнюдь не лестное сравнение.



Взгляд в будущее


Вот вам версия обвинения. Прошедшие несколько лет не были плодотворными для Intel с технологической точки зрения. Джордж Дэвис, финансовый директор компании, так сказал о 10-нм провале: Этот технологический узел точно не будет лучшим в истории Intel. Он менее производителен, чем 14-нм техпроцесс, и менее производителен, чем 22-нм техпроцесс. Но так ли уж катастрофичны последствия текущих трудностей Intel?
С точки зрения финансовой перспективы, на этот вопрос можно ответить однозначно нет. В действительности не только текущее положение не так уж плохо, по факту проблемы нет вообще. В 2019 году доходы Intel достигли рекордных показателей. С середины 2018 года её продажи не падали из-за технологической стагнации, а сам производитель испытывал трудности с удовлетворением спроса на свои 14-нм процессоры.
Если копнуть глубже, то можно прийти к выводу, что по крайней мере часть проблемы заключается в технологическом процессе. Число ядер в серверных процессорах Intel резко увеличилось с приходом 14-нм эры. Сейчас Intel предлагает целых 28 ядер в одном кристалле процессора. Это значит, что чем больше ядер в одинаковом процессе, тем меньше процессоров можно извлечь из одной полупроводниковой пластины, что в свою очередь может привести к ограничению предложения.
Но, как ни крути, Intel не испытывает никаких финансовых трудностей, и это обстоятельство является главной причиной, почему производитель может дать достойный ответ соперникам в плане продукции и технологии.
И этот эффект уже виден. В процессорах Ice Lake появилась новая микроархитектура, известная как Sunny Cove. Она улучшает производительность тактовой частоты на 18% по сравнению с Coffee Lake, доработкой микроархитектуры Skylake.
И это только начало. Решающим фактором в возрождении микроархитектуры Intel стало включение в команду Джима Келлера, возглавившего группу по разработке микропроцессоров.
И хотя он собирается покинуть этот пост через полгода, нельзя недооценивать вклад, который он может внести в развитие компании. Келлер один из уважаемых, если не самый уважаемый архитектор микропроцессоров.
Он стал известен благодаря разработке микроархитектуры процессора K8 под кодовым именем Athlon 64 и первого чипа от AMD, составившего достойную конкуренцию Intel. Позже Келлер работал в Apple, создав дизайн серии процессоров собственного производства на базе ARM, впоследствии занявших лидирующие позиции рынке смартфонов и планшетов. В 2012 году Келлер вернулся в AMD, руководя разработкой микроархитектуры Zen и в очередной раз снабжая AMD инструментами для борьбы с Intel. После краткого пребывания на посту производителя электромобилей Tesla Келлер занял должность старшего вице-президента Intel в апреле 2018 года.
Учитывая промежуток времени между созданием дизайна и концепции микроархитектуры процессоров и началом продаж продуктов, весьма маловероятно, что новые ядра Sunny Cove внутри процессоров Ice Lake работа Келлера. То же будет верно и для последующей за Sunny Cove архитектуры Willow Cove. Её планируют выпустить в конце этого года для семейства 14-нм бэкпортированных, т. е. применяющих обратный перенос новой микроархитектуры на старый техпроцесс, процессоров Rocket Lake.
Микроархитектура Golden Cove станет ещё большим шагом вперёд и заложит основу для планируемых к выпуску процессоров Alder Lake в конце следующего года. Но даже Golden Cove не может считаться полноценным творением Келлера. Для этого нам надо дождаться появления Ocean Cove, которая выйдет в 2022 или 2023 году, хотя скорый уход Келлера будет означать, что его влияние на данный проект будет, скорее всего, в некоторой степени ограничено.
Про Ocean Cove пока нет никаких официальных данных. Недавно появились слухи о том, что производительность данной микроархитектуры будет выше на 80%, чем Skylake. И хотя это всего лишь слухи, мы знаем наверняка, что у Келлера выдающийся послужной список и что Intel имеет грандиозный стратегический план, гораздо масштабнее, чем много лет назад. Как сказал Келлер: Мы планируем увеличить число транзисторов в 50 раз и сделать всё, чтобы выжать максимум от каждого стека.
В то же время следующие за проблемными 10-нм процессорами 7-нм CPU не столкнутся с теми же ограничениями, с какими столкнулись их предшественники. Для производства 7-нм процессоров будет использована литография экстремального ультрафиолетового диапазона (EUV) с длиной волны размером до 13,5 нм. Другими словами, 7-нм техпроцесс кардинально поменялся. Время покажет, однако сейчас определённо можно сказать, что прогнозы Intel слишком оптимистичны.
Intel планирует ускорить переход от 7-нм к 5-нм и последующим техпроцессам. Это означает, что производитель будет активно развивать новую технологию в противоположность нынешней затратной, даже если это потребует вложений в научно-исследовательские и опытно-конструкторские работы. Более того, с привлечением EUV -литографии Intel рассчитывает вернуться к прежним темпам выпуска продукции 1 раз в 2 года, начав с 7-нм техпроцесса в конце 2021 года и дойдя до релиза 1,4-нм технологии в 2029 году. Я думаю, что EUV поможет нам вернуться к темпу, с которым увеличивается число транзисторов согласно закону Мура, сказал Девис.
Всё это вместе взятое создаёт впечатление, что Intel возвращает стандарты создания самых передовых архитектур и самых быстрых процессоров. Произойдёт ли это другой вопрос. Сейчас AMD находится, пожалуй, в лучшем положении, чем Intel, несмотря на то, что последняя прилагает значительно больше усилий. Стратегический план развития микроархитектур AMD, в том числе Zen 3 и Zen 4, вкупе с технологическими решениями TSMC будут содействовать усилению конкуренции между двумя производителями. Однако мы не будем предрекать поражение Intel.
В конце концов, последний раз, когда NetBurst и Pentium 4 доживали свой век и дела у Intel застопорились, ответом её была династия Core и лидерство на рынке процессоров на протяжении десятилетия.
Подробнее..

SK hynix представила первую в мире память DDR5 DRAM

06.10.2020 10:05:04 | Автор: admin
Корейская компания Hynix представила публике первую в своем роде оперативную память стандарта DDR5, о чем сообщается в официальном блоге компании.



По заявлению SK hynix, новая память обеспечивает скорость передачи данных в 4,8-5,6 Гбит/с на контакт. Это 1,8 раза больше, чем базовые показатели памяти предыдущего поколения DDR4. При этом производитель утверждает, что напряжение на планке уменьшено с 1,2 до 1,1 В, что, в свою очередь, повышает энергоэффективность модулей DDR5. Также была реализована поддержка коррекции ошибок ECC Error Correcting Code. Как утверждается, благодаря этой функции надежность работы приложений возрастёт в 20 раз по сравнению с памятью предыдущего поколения. Минимальный объем памяти платы заявлен на уровне 16 Гб, максимальный 256 Гб.

Новая память была разработана по спецификации стандарта ассоциации твердотельных технологий JEDEC, который опубликовали в 14 июля 2020 года. Согласно тогдашнему анонсу JEDEC, спецификация DDR5 поддерживает вдвое больший реальный канал, чем DDR4, то есть вплоть до 6,4 Гбит/с у DDR5 против имеющихся 3,2 Гбит/с у DDR4. При этом запуск стандарта будет плавным, то есть первые планки, как планировала ассоциация и что и показывает SK hynix, в базе быстрее только на 50% по сравнению с DDR4, то есть имеют канал в 4,8 Гбит/с

Согласно анонсу, компания готова перейти к массовому выпуску модулей памяти нового стандарта. Все подготовительные этапы и тесты, в то числе и тестирование со стороны производителей центральных процессоров, пройдены, и компания начнет активный выпуск и продажу нового типа памяти как только под нее появится соответствующее спецификациям оборудование. В разработке новой памяти активно участвовала компания Intel.



Участие Intel не случайность. Hynix заявляет, что пока основным потребителем памяти нового поколения, на их взгляд, будут дата-центры и серверный сегмент в целом. Корпорация Intel до сих пор доминирует на этом рынке, а в 2018 году именно тогда началась активная стадия совместной работы и тестирования новой памяти была неоспоримым лидером процессорного сегмента.

Джонхун О, исполнительный вице-президент и директор по маркетингу Sk hynix заявил:

SK hynix сосредоточится на быстрорастущем рынке серверов премиум-класса, укрепляя свои позиции в качестве ведущей компании в области серверной DRAM.

Основной этап выхода на рынок новой памяти рассчитан на 2021 год именно тогда спрос на DDR5 начнет расти и тогда же подойдет в продажу и оборудование, способное работать с новой памятью. В создании экосистемы для DDR5 вместе с SK hynix сейчас работают компании Synopsys, Renesas, Montage Technology и Rambus.

К 2022 году SK hynix прогнозирует захват памятью стандарта DDR5 доли в 10%, а к 2024 уже 43% рынка оперативной памяти. Правда, не уточняется, имеется в виду серверная память, или весь рынок, в том числе и десктопы, ноутбуки и прочие устройства.

Компания уверена, что ее разработка, да и в целом стандарт DDR5, будут крайне популярны среди специалистов, работающих с большими данными и машинным обучением, среди скоростных облачных сервисов и прочих потребителей, для которых важна скорость передачи данных внутри самого сервера. Кроме
Подробнее..

Ажиотажный спрос на новые карты Nvidia заслуга не производителя, а косоруких разработчиков игр

21.10.2020 16:06:58 | Автор: admin
После презентации новой линейки видеокарт серии RTX 3000, компания производитель графических чипов Nvidia столкнулась с беспрецедентным спросом на свою новую продукцию. Превышение розничных цен на топовые модели RTX 3080 и RTX 3090 составляет и $500 и более, что больше рекомендованной цены на 30-60%.



Причем просто на завышенных относительно оглашенных на презентации ценах проблемы с новыми RTX не заканчиваются. Так, один из официальных торговых партнеров MSI был уличен в спекуляции новыми видеокартами на онлайн-аукционах, а сами Nvidia заявляют, что купить по адекватной стоимости новые RTX 3080 и RTX 3090 можно будет не раньше следующего года. При этом релиз и поступление в продажу самой вкусной карточки RTX 3070 было вовсе отложено на две недели, с 15 на 29 октября 2020 года.

Человек, далекий от ПК-гейминга и релизов флагманских моделей железа справедливо спросит: вы там что, совсем кукухой поехали? Какие 1200-1500$ за видеокарту? Какой ажиотажный спрос? Что вообще происходит? Так вот, сейчас я, автор статьи, объясню, почему Nvidia столкнулась с таким ажиотажем вокруг RTX 3000 серии и почему геймеры с нетерпением ждут поступления в продажу этих видеокарт по заявленной стоимости.

То что RTX 3000 серии геймерские карты ни у кого сомнений не вызывает. Для вычислений и науки у Nvidia давно есть карты серии Tesla V100 и Tesla A100. Это мощные графические ускорители за тысячи долларов, задача которых крайне проста и очевидна считать. Причем считать, в основном, всякие научные штуки в составе вычислительного кластера. Новые A100, которые сейчас поступают в ограниченный тест, по заверениям Nvidia вовсе в 6 раз производительнее далеко не слабой V100. Собственно, о возможностях этих карт можно судить по официальным спецификациям с сайта Nvidia:



Говорю я о семействе ускорителей Tesla по одной причине: архитектура Ampere. Именно она лежит в основе графических ускорителей Tesla и до этого момента карточки на Ampere стоили до $10 тыс. и имели весьма узкую специализацию. В первую очередь, ускорители Ampere были направлены на тренировку нейросетей и по заверениям производителя справлялись с этой задачей на порядки лучше, чем другие решения. По официальным данным, карты на базе Ampere ускорили обучение нейросетей до 20 раз.

Но тут Nvidia выпускает потребительские видеокарты для геймеров с использованием той же технологии. Это как если бы Intel с 2016 года клепал серверные процессоры на литографии в 2 нм для суперкомпьютеров, каждый из которых стоил бы $10 тыс. и более, а тут внезапно вбросил бы новую серию Intel Core по $500 за штуку на той же технологии. Очередь бы выстроилась знатная.

Для Nvidia все выглядело красиво: больше мощностей по меньшей, по сравнению с триумфальной серией RTX 2000, цене, научная архитектура в компьютерах геймеров, поддержка большего разрешения и так далее и так далее. Вот только в коридорах Nvidia не ожидали, насколько потребитель нуждается в мощной видеокарте и что RTX 2080 Ti уже давно не удовлетворяет всех потребностей рынка.

Хотя RTX 3000 серии не показывает кратного превосходства над RTX 2080 и RTX 2080 Ti, а грядущий хит продаж бюджетная карточка RTX 3070 всего на десяток процентов производительнее флагмана предыдущего поколения (вдвое меньшую стоимость мы пока опустим), рынок по-настоящему нуждается в этих видеокартах.

Давайте немного проанализируем, чем меряются производители пользовательского железа на своих презентациях, то есть каких попугаев для демонстрации своего превосходства они используют.

Нанометры, число ядер, частоты, TDP и так далее


Если говорить о процессорах и видеокартах, то главным аргументом любого спикера, прогуливающегося по сцене и представляющего новый продукт публике, будет нанометраж техпроцесса и количество логических и прочих ядер. Сколько потоков, какой термопакет у нового камня, какую систему охлаждения придумали прикованные к батареи дизайнеры в недрах компании.

Само собой, идет абстрактное сравнение производительности с оборудованием конкурентов и с оборудованием собственного производства, но предыдущего поколения. Все это придает презентации фактуры и заставляет аудиторию качать головой в такт увещеваниями спикера.

На самом деле, тут иронии минимум. Компании на самом деле добиваются впечатляющих результатов по всем этим параметрам. Особенно радует TDP процессоров красного лагеря: AMD последовательно увеличивает производительность своих камней, при этом удерживаясь в стандартном термопакете уровня 65-105 Вт. Это позволяет не городить огромные системы охлаждения, как во времена электровафельниц поколения FX, неадекватно большой термопакет которых стал легендой.

FPS в играх


А вот этот параметр всегда стоит отдельно. Как это не удивительно, но и на презентации центральных процессоров, и на презентации видеокарт всегда показывают количество кадров в секунду в самых последних и популярных играх. Вот, последние годы от презентации к презентации мелькают Fortnite, Call of Duty, Battlefield, Apex Legends, Control короче, все те игры, которые на максимальных настройках графики делают видеокарте больно. Вот в этом году делали больно в разрешении 8к.



Для закрепления можно показать точно такой же по своей сути слайд с презентации процессоров Ryzen 5000 серии, которая прошла около двух недель назад:



И все эти столбцы всегда выглядят очень красиво и приятно. С каждым поколением производительность видеокарт и центральных процессорах в играх растет, а именно для игр это железо, в основной своей массе, и производится. Вот только все не так просто.

Почему все геймеры мира хотят оторвать разработчикам игр руки


Одна из главных причин, по которой геймеры всего мира бросились заказывать новые RTX 3080 и RTX 3090 в надежде заполучить карточку любой ценой не в тупости этих самых геймеров, и даже не в желании опробовать революционные 8к и так далее. Главная причина желание получить хоть сколько-нибудь стабильную производительность, которая бы соответствовала бы возможностям современной периферии, в первую очередь, мониторам.

Для людей, далеких от игровой индустрии расскажу одну тайну: 60 FPS уже давно не стандарт. Да, почему-то на презентациях производители до сих пор говорят о стабильных 60 кадрах в секунду, как будто бы эта производительность дает идеальный игровой опыт, но суть в том, что на рынке игрового оборудования уже давным-давно доминируют мониторы с частотой обновления экрана в 144 Гц, а на пятки им, стремительно дешевея, наступают мониторы с частотой 240 Гц.

Это значит, что для плавной картинки на этих экранах нужен и соответствующий FPS: 144 и 240 кадров соответственно.

И вот тут кроется корень проблем всей индустрии. Если раньше высокогерцовые экраны были прерогативой киберспорта, игроков в CS:GO и Quake, то теперь 144 Гц если у любого уважающего себя игрока. 60 кадров остались в далекой древности: сейчас это стандарт для бюджетных офисных мониторов, потому что частота в 144 Гц дает ощутимое преимущество.

Описать на словах эффект от высокогерцового монитора сложно, но я попробую: представьте, что все внезапно стало двигаться чуть медленнее и намного плавнее. В движении пропадает эффект размытия и вы начинаете замечать малейшие детали. Вращение камеры вокруг всоей оси больше не вызывает дезориентацию, вы продолжаете четко видеть окружающий персонажа мир. На рабочем столе движение курсора теперь намного более явно: если на 60 Гц при резком движении мышью вы зафиксируете взглядом курсор мыши в 5-6 местах, то уже на 144 Гц вы увидите его одновременно в 15-20 точках. На 240 Гц экранах эффект еще более впечатляющий, вы буквально взглядом сможете зафиксировать весь путь курсора мыши на высокой скорости. Для иллюстрации хорошо подходит знаменитый кадр из CS:GO, который демонстрирует разницу в тикрейтах сервера. Примерно то же происходит на высокогерцовых мониторах в плане отрисовки движения:



Именно поэтому, для четкого отображения происходящего в малейших деталях, все геймеры планеты уже плавно перешли на 144 и 240 Гц дисплеи, а кто не перешел либо мечтает перейти, либо играет исключительно в пасьянс.

Но при этом нас до сих пор настойчиво убеждают, что 60 FPS достаточное значение производительности. На этот параметр ориентируются разработчики игр, ориентируются производители железа. Однако как только речь заходит о работе игры в стабильных 144 FPS или, боже упаси, 240 FPS, пусть и на минимальных настройках графики, начинает происходить непонятное: ни одно существующее оборудование не может толком справиться с этой задачей.

Давайте возьмем две самые косорукие игры современности в плане перфоманса: Call of Duty: Warzone и Apex Legends. Обе делались совершенно разными студиями. Первая производства Activision Blizzard, вторая Respawn Entertament под патронажем Electronic Arts. Обе из популярного жанра Battle Royale, обе имеют обширные карты и огромную фанбазу.

Для обоих игр буквально с момента их релиза инженеры Nvidia истерично клепают патчи видеодрайвера, чтобы хоть как-то заставить их работать. Именно инженерные команды драйверописателей уж точно в курсе, что игрокам глубоко плевать на 60 FPS, вертикальную синхронизацию и все то, что увеличивает инпутлаг. Им нужны максимально высокие стабильные кадры хотя бы на топовых видеокартах.

Если вы не верите этому утверждению, можете погуглить сами: в сети сотни статей о повышении FPS в Call of Duty и Apex Legends, сотни тредов о конфигах, которые бы уменьшали графику или убирали лишние модели для снижения нагрузки на видеокарты, а так же масса рассказов о шаманизме, разгоне железа и прочих плясках с бубном.

Просадки производительности в топовых онлайн-играх, особенно в динамичных шутерах болезненная реальность игровой индустрии последних лет. Разработчики буквально забивают болт на производительность своих продуктов за пределами 60 FPS и включенной вертикальной синхронизации, которая погружает камеру в кисель и создает чудовищный инпутлаг, чем вынуждают игроков вкладываться во все более и более мощное оборудование.

Скажу больше, все настолько плохо, что RTX 2080 Ti в указанных играх способны выдавать стабильные 144-190 кадров в секунду только при минимальных конфигурациях графики, но даже при этом иногда случаются дропы FPS! Любая граната, блик или огонь в кадре и все, ваши фреймы машут вам рукой и говорят ну, как это закончится, наберешь, FPS проседает до сотни.

Ситуация достигла уже такой шизы, что Nvidia приходится на своем официальном сайте выпускать официальные гайды по настройке видеокарты и графики в игре, чтобы выжать из нее необходимые комфортные для игроков значения кадров!



Именно по этой причине значительная часть геймеров и ломанулась покупать новые RTX 3080 и RTX 3090, просто в надежде, что уж на этих-то картах любимые игры смогут работать стабильно хотя бы на минимальных настройках графики.

Это не заговор, это нулевая культура разработки


Сейчас рынок находится буквально в западне. С одной стороны с каждым годом выходит все более и более мощное оборудование. Банально память DDR4-1600, которая лет пять назад считалась неплохой, сейчас уже перешла в категорию медленной офисной, а топовые когда-то DDR4-2400 сейчас просто середняк. То же происходит с процессорами, видеокартами, скоростью дисков и так далее и так далее.

Неискушенному пользователю, далекому от гейминга, может показаться, что конфигурации из i9-10900k, DDR4-3200, разогнанной до 4000 Mhz, все это с быстрым SSD и RTX 2080 Ti должно хватать для чего угодно на ультра настройках, но правда в том, что эта конфигурация с трудом обеспечивает 144-200 FPS в новых проектах. Вычеркните из списка выше любую составляющую и вставьте что-то попроще и дешевле, например, RTX 2060S или core i7, и показатели кадров упадут минимум на 30%.

И виной всему не жадность производителей оборудования, а именно косорукость разработчиков и жажда наживы их издателей.

На тестирование и оптимизацию потребления ресурсов в 2019-2020 годах в индустрии был забит настолько большой болт, что будь он реальным, его было бы видно с МКС. Самый лучший пример, это сравнение Apex Legends и предыдущей игры Respawn Entertament Titanfall 2.



Первая делалась в спешке, под постоянным давлением со стороны издателя, который бубнел над ухом команды разработки нам срочно нужен свой батлрояль со скинами и лутбоксами. В итоге мы получили перспективный в плане геймплея проект (он опирается на многие механики и лор Titanfall 2), с абсолютно нулевой оптимизацией и отвратительным неткодом.

Titanfall 2, который вышел в 2016 году, почти всегда выглядит лучше и работает в разы стабильнее даже на средних конфигурациях железа, нежели быстро слепленный ради создания конкуренции PUBG и Fortnite модный Apex Legends. Не знакомый с проектами человек вообще посчитает, что Apex вышел в 2015-2016 году, а Titanfall 2 свежий релиз, если показать их ему одновременно, хотя все с точность, да наоборот.

Та же мрачная история происходит и с Call of Duty и прочими свежими проектами. Потребитель превратился в бесконечного бета-тестера, которому постоянно приходится выбирать между покупкой нового, более мощного железа, либо лагами.

Кстати, именно по этой причине многие с сомнением смотрят на будущее новых Xbox и PS5: если даже современные ПК толком не справляются с современными играми, то что смогут консоли? Будут ли сетевые кроссплатформенные проекты достаточно оптимизированными для игры в них? Опыт PS4 Pro и Call of Duty или Apex Legends показывает, что консоли банально не справляются с продуктами, которые почти полностью состоят из кода сомнительного качества. А про размеры Call of Duty в 200+ Гб уже просто ходят легенды.

Как это изменить


Я надеюсь, что когда-нибудь Nvidia надоест тратить силы и ресурсы на выпуск бесконечных патчей драйверов, которые улучшают производительность в проблемных популярных играх. За последние два-три года, с ростом популярности Fortnite, Apex Legends и Call of Duty Warzone компания-производитель оборудования выпустила столько патчей драверов и технологий, которые бы улучшали перфоманс в этих проектах (чего стоит хотя бы Nvidia Reflex, которая значительно снижает инпутлаг в Apex Legends и Warzone программным путем), что начинает кружится голова. Я за этот срок обновлял драйвера чаще, чем за предыдущие 10 лет вместе взятые.


Абсолютно привычная картина при входе в NVIDIA GeForce Experience

Выход из этой ситуации видится только один. Прекратить порочную практику тяп-ляп и в проду, а Nvidia потом выкатит оптимизационный патч возможно только в случае, если сами Nvidia объявят, что разработчики игр ведут себя, мягко говоря, нехорошо, и забили болт на оптимизацию. Должна случиться еще одна война в стиле Epic Games VS Apple только в этом случае с одной стороны будет производитель видеокарт, а с другой игровые издатели, которые стоят с плетью и погоняют разработчиков, требуя от них новых лутбоксов и сезонов в ущерб качеству фундаментального кода.

Но случится это, только если Nvidia наконец-то пересилит свое желание продать как можно больше флагманских карт и выступит против творящейся в игровой индустрии вакханалии, у нас есть шанс получить нормальную производительность в игровых проектах и отсутствие ажиотажного спроса на новые модели видеокарт.

Вот только верится в это с трудом.
Подробнее..

Zen 3 Король умер, да здравствует король

09.10.2020 22:10:21 | Автор: admin
Ну что ребята, дождались! Процессоры Ryzen 5000 представлены официально, никаких утечек и спекуляций больше не надо. У нас есть всё ядра, частоты, изменения в компоновке. А главное теперь мы точно знаем, что 10900k перестанет быть лучшим игровым процессором уже 5 ноября. Время обсудить подробности.

image

Число ядер в этом поколении не изменилось, как и обещали многие утечки в течение года. Только Юрий Бублий говорил про 10 ядер, но простите Юрий, Вы оказались неправы. Стартовая линейка Ryzen 5000 включает 4 модели: шестиядерный Ryzen 5600X, восьмиядерный Ryzen 5800X, 5900X получит 12 ядер, а 5950Х заменит хитовый 16-ядерный чип для энтузиастов. Никаких промежуточных решений нам не показали, но в будущем мы точно увидим пополнение семейства Zen 3.

image
image

Много интересных нововведений связано с архитектурой новых процессоров на базе Zen 3. В первую очередь это касается конфигурации ядер вместо двух комплексов по 4 ядра теперь у нас единые блоки по 8 ядер с общим пулом кэш-памяти L3 объемом 32 Мб.

image

Объединение позволяет каждому ядру в блоке общаться в кэшем напрямую без задержек, обеспечивая максимальную производительность в играх. Геймеры будут в восторге.

Благодаря архитектурным доработкам вдвое возросла пропускная способность конвейеров операций с плавающей запятой и целочисленных вычислений, обеспечив первый удивительный факт о новом поколении Ryzen если про блоки из 8 ядер нам много раз сообщали слухи, то 19% прибавку к сырой производительности на ядро не ожидал никто. Одни утечки предполагали 10%, оптимисты надеялись на 15 но здесь AMD решила выложиться на полную, и это не может не радовать.

image

Оптимизации коснулась и работа с данными AMD реализовала технологию Zero Bubble, связанную с работой так называемого предсказателя переходов (branch prediction unit). Критически важный модуль микропроцессора выполняет предзагрузку важных инструкций обеспечивая эффективное использование блоков и конвейеров. Zero Bubble кэширует инструкции быстрее, не допуская простоев отдельных частей конвейера, а затраты ресурсов при этом сокращаются. Подробнее о новой технологии нам расскажут позже.

А что там с потреблением? Слухи про 150 ватт оказались верными? Снова нет AMD усердно поработала над энергоэффективностью, поэтому Ryzen 5000 прибавил 24% производительности на ватт в сравнение с выдающимися процессорами на базе Zen 2. По словам AMD, такой прогресс позволил новым процессорам стать почти в 3 раза экономичнее 10900k. Эпично! Итого Лиза Су побеждает в матче против слухов со счетом 2-0.

С технологиями разобрались, теперь самое важное. Игровая производительность Zen 2 во многом обеспечила огромную популярность третиего поколения Ryzen, но у Intel оставался козырь в рукаве её игровые процессоры чаще всего оказывались быстрее, а флагман 10900k опережал конкурентов с большим отрывом. Опережал, но пришло время перемен на демонстрации нам показали Ryzen 5900X, процессор, способный без лишнего шума стать самым производительным игровым камнем на рынке. Обойти 10900k в CSGO на 19%? Опередить предшественника в League of Legends на 50%? Новичкам всё по плечу, а главное даже в самых сложных случаях 5900Х держит марку, не уступая лучшему игровому процессору конкурента. И всё это не вылезая из теплопакета в 105 Вт! О большем мы и не мечтали.

image

Пора раз и навсегда расправиться с утечками, которые вводили нас в заблуждение. Вопреки мрачным прогнозам, AMD не стала разделять релизы, Лиза Су показала все 4 чипа, и они окажутся на полках магазинов уже 5 ноября, меньше чем через месяц с момента анонса. Вместе с производительностью подскочили и цены, но без драматизма наценка в 50 долларов не выглядит грабежом на фоне достижений нового поколения. Если и хотелось верить в какой-то слух, то про священные 5 Ггц! Жаль, но и здесь мимо! Старший чип получил буст-частоту 4.9 Ггц, немного не дотянув до той самой цифры. А мы так надеялись! Но ничего утешительным призом стал рост буст-частот новинок в среднем на 100 Мгц в сравнение с процессорами Zen 2. Прирост маленький, но не бесполезный.

Пора подвести итоги. Впервые за 15 лет компания AMD возвращается на первые строчки игровых бенчмарков, навязывая борьбу самым быстрым процессорам Intel. Если раньше нас привлекали ударно низкими ценами и всемогущим многопотоком, то теперь на первый план вышли игры. Вся презентация AMD была посвящена игровым преимуществам нам показали рекордную одноядерную производительность в Cinebench, а чтобы не быть голословными, вывели немало интересных бенчмарков. Особенно порадовало присутствие такого шедевра, как Far Cry: New Dawn. Полуторапоточный движок Dunya всегда смотрел на Zen 2 свысока, а лучшие чипы AMD здесь проигрывали даже решениям прошлых поколений, но Zen 3 и здесь показал себя на уровне 10900k! Всё, век компромиссов прошел теперь у Intel остался только один козырь: улыбка Боба Суона.

Под занавес презентации нам показали тизер долгожданной Big Navi фанатское прозвище настолько понравилось компании, что стало официальным. Тизер вышел с сюрпризом, ведь точную модель нам никто не назвал, из чего можно сделать вывод о показе условной 6800XT, а не флагманской карты.

image

Почему? Всё просто многие сразу же побежали сравнивать показанные цифры с RTX 3080, а портить игригу 28 октября Лиза Су точно не собиралась. Как показала презентация новых Ryzen, красные наловчились путать карты охотникам за утечками, поэтому Дженсена Хуанга с его перенесенным релизом 3070 наверняка будет ждать неприятный сюрприз.
Подробнее..

Перевод Запуск Unix-подобной ОС на самодельном CPU с помощью самодельного компилятора C

13.10.2020 10:19:44 | Автор: admin
image

Два года назад я начал работать разработчиком ПО. Иногда я рассказывал своим коллегам о студенческом проекте, которым занимался на третьем курсе университета, и они восприняли его настолько хорошо, что я решил написать этот пост1.

Позвольте задать вам вопрос: вы когда-нибудь проектировали собственную архитектуру набора команд (ISA), создавали на FPGA процессор на основе этой ISA и собирали для него компилятор? Запускали ли вы операционную систему на этом процессоре?

А у нас это получилось.

В этом посте я расскажу о своей учёбе в 2015 году, о четырёх месяцах создания самодельного CPU на самодельной архитектуре набора команд RISC, создании самодельного тулчейна C и портировании на этот процессор Unix-подобной ОС Xv6.

Процессорный эксперимент в Токийском университете


Всё это делалось в рамках студенческого экспериментального проекта под названием CPU Experiment. Давайте начнём с того, что же такое CPU experiment.

CPU experiment это небольшое популярное упражнение, проводящееся зимой третьего курса моей Кафедры информационных наук Токийского университета. В этом эксперименте студентов разделяют на группы по четыре-пять человек. Каждая группа проектирует собственную процессорную архитектуру, реализует её на FPGA, собирает компилятор подмножества OCaml для этого процессора, а затем запускает на процессоре определённую программу трассировки лучей. Обычно за каждую из задач (CPU, FPU, симулятор CPU и компилятор) отвечает один-два человека. В своей Group 6 я занимался CPU.

Это упражнение хорошо известно тем, что в нём от студентов ждут высокого уровня самообучения. Преподаватель просто даёт студентам задание взять написанную на OCaml программу трассировки лучей и запустить её на CPU, реализованном на FPGA, после чего занятие завершается. Он почти ничего не рассказывает о конкретных шагах по созданию CPU и компиляторов. Студенты сами изучают, как воплотить общие знания о процессорах и компиляторах, полученные на предыдущих лекциях, в реальные цепи и код. Это очень сложное упражнение, зато увлекательное и познавательное.

Запустим на собственном CPU операционную систему


Как вы могли заметить, я ничего не говорил об операционной системе, поэтому требуется объяснение.

Обычно эксперимент проходит следующим образом: во-первых, вы создаёте надёжно работающий CPU, вне зависимости от скорости его работы. Если вы сделаете работающий CPU и успешно запустите программу трассировки лучей, то получите за эксперимент зачёт. После этого вы сможете отдохнуть. Традиционно это время отдыха используется для дальнейшего ускорения своего CPU. В предыдущих экспериментах студенты создавали CPU с внеочередным (out-of-order) исполнением команд, VLIEW CPU, многоядерный CPU и даже суперскалярный CPU, что, по-моему, потрясающе.

Однако некоторые команды вкладывают больше энергии в реализацию развлекательных вещей, например, запуск игр или воспроизведение музыки, подключая к своим CPU динамик. В шестой группе, где находился я, была компания студентов, любивших развлечения, поэтому в качестве цели команды мы выбрали запуск ОС.

В результате к этой идее проявили интерес другие группы, была образована объединённая группа Group X примерно из восьми человек, целью которой стало Давайте запустим на собственном CPU операционную систему!

Хотя в Group 6 я отвечал за создание процессора, на этот раз я решил стать руководителем команды разработки ОС в Group X. Поэтому этот пост в основном написан с точки зрения команды разработчиков ОС, хотя я, разумеется, расскажу и про общие результаты группы.

Xv6


В качестве портируемой ОС мы выбрали Xv6 простую ОС, источником вдохновения для которой стал Unix v6; её создал с образовательными целями MIT. Xv6, в отличие от Unix v6, написана на ANSI C и выполняется на x86. Xv6 образовательная ОС, поэтому имеет довольно ограниченную функциональность, но в качестве простой Unix-подобной ОС она обладает достаточным набором возможностей. Подробнее о Xv6 можно прочитать на Википедии или в репозитории GitHub.

Сложности


При портировании xv6 было множество сложностей с программной стороны, потому что мы стремились создать всё с нуля.

1. Компилятор C и тулчейн для Xv6

В эксперименте с CPU мы обычно создаём компилятор ML. Естественно, им невозможно компилировать код Xv6, написанный на C.

2. Какие функции процессора необходимы для операционной системы?

Защита привилегий? Виртуальный адрес? Прерывание? Да, по лекциям мы имели общее представление о том, что делает операционная система, но не обладали достаточно полными знаниями, чтобы понять, какие конкретно функции CPU помогут нам реализовать задачу.

3. А что насчёт симулятора?

У нас был симулятор, который являлся одной из основных частей эксперимента с CPU, но он был простым и выполнял одну команду за другой, в нём не существовало ни прерываний, ни преобразования виртуальных адресов.

4. Плохая портируемость xv6

Xv6 не очень хорошо портируется. Например, в ней есть допущение о том, что char занимает 1 байт, а int 4 байта, и она выполняет активные манипуляции со стеком. Название Xv6, насколько я понимаю, взято от x86 и Unix v6, поэтому это в общем-то естественно.

У нас было много сомнений, но в декабре мы начали процесс портирования ОС Group X. Далее я буду писать о том, что мы делали, примерно в хронологическом порядке. Пост немного длинноват, поэтому если вы сразу хотите взглянуть на готовый результат, то перейдите к разделу Март.

Конец ноября приступаем к работе над компилятором


Первой задачей, ответ на который мы нашли, был компилятор и тулчейн. На удивление, наше решение заключалось в создании с нуля компилятора C89. Честно говоря, я не представлял, что мы выберем такой путь. Помню, как мы сначала обсуждали с Юити, отвечавшим в Group X за CPU, создание порта gcc или llvm.

Однако один из членов команды, Кэйити, внезапно сообщил нам, что написал компилятор C, и показал прототип компилятора с простым парсером и эмиттером. Нам показалось, что интереснее будет написать тулчейн с нуля, поэтому мы решили написать компилятор сами.

Юити и Ватару из Group 3, уже завершивший базовую часть эксперимента, присоединились к Кэйити, и так появилась команда разработки компилятора Group X. Позже мы назвали наш компилятор Ucc.

Середина декабря появилась команда разработки ОС!


В начале декабря я завершил свой процессор, и Group 6 закончила базовую часть эксперимента с CPU. Поэтому мы перешли к интересной части задаче по портированию ОС для Group X. В то время я и Сёхэй из Group 6 начали работать в Group X, став командой разработки ОС. Тогда же к нам присоединился Масаеси.

Базовая часть эксперимента: написание CPU


Кстати, я думаю, что немногим разработчикам ПО когда-нибудь доводилось писать CPU, поэтому немного расскажу и о создании CPU.

Сегодня для создания CPU необязательно соединять отдельные перемычки на монтажной плате; можно писать схему на языке описания аппаратуры (Hardware Description Language). Затем при помощи Vivado или Quartus код на HDL синтезируется в реальную схему. Этот процесс называется синтезом логических схем, а не компиляцией.

HDL и языки программирования похожи друг на друга, но и отличаются. Воспринимайте его как написание функции, связывающей состояние сигналов регистров с другим состоянием сигналов, создаваемым синхрогенератором или входящим сигналом. Если вы хотите попробовать настоящее реактивное программирование, то рекомендую писать на HDL. Также стоит не забывать, что при написании HDL следует всегда заботиться о том, чтобы распространение записываемых вами сигналов HDL завершалось за один такт. В противном случае поведение ваших схем будет непостижимым для людей.

Самая сложная часть самой разработки заключалась в том, что синтез логических схем занимал огромное количество времени. Часто бывало так, что после запуска синтеза нам приходилось ждать по 30 минут, поэтому запустив синтез, я играл в Smash Bros. Melee с другими проектировщиками CPU, которые тоже ждали завершения синтеза. Кстати, мой любимый персонаж Sheik.

Конец декабря-середина января обучаемся, портируя Xv6 на MIPS


Мы начали искать ответ на вопрос: Какие функции процессора необходимы для операционной системы?

После создания команды разработки ОС мы приступили к еженедельным сессиям чтения исходного кода Xv6.

В то же время я начал портировать Xv6 на MIPS. Частично это было нужно для того, чтобы узнать, как работает ОС на уровне реализации, а частично потому, что, как оказалось, порта Xv6 на MIPS не существует. Примерно за неделю я завершил порт до этапа начала планировщика процессов. Во время процесса портирования я активно изучал MIPS и как работает xv6 на x86. Благодаря этому я понял на уровне реализации механизмы прерываний и MMU. На этом этапе я получил глубокое понимание функциональности CPU, требуемой для Xv6.

Кроме того, в середине января мы упорно работали над компиляцией всего кода Xv6, превращая его отдельные части в комментарии. В результате этого Xv6 в симулятора нашей самодельной архитектуры отобразил первое сообщение последовательности загрузки:

xv6...cpu0: starting...

В то же самое время это означало, что на данном этапе Ucc уже достаточно вырос, чтобы компилировать бльшую часть xv6, и это было замечательно2.

Февраль родился наш CPU под названием GAIA!


В порте на MIPS я завершил инициализацию PIC, что представляло огромную проблему, а также завершил реализацию обработчика прерываний. В результате этого портирование Xv6 на MIPS было завершено до этапа запуска первой пользовательской программы.

На основании своего опыта я создал проект спецификации прерываний и преобразования виртуальных адресов нашего самодельного CPU. Чтобы не усложнять его, мы решили не включать в него механизмы аппаратных привилегий, например, кольцевую защиту. Для преобразования виртуальных адресов мы решили, как и в x86, использовать методику аппаратного обхода страниц. Может показаться, что это сложно реализовать аппаратно, но мы посчитали, что так будет менее затратно, если мы пожертвуем скоростью и исключим реализацию TLB. В конечном итоге, позже Юити создал превосходное ядро CPU, в которое с самого начала был установлен TLB.

Юити завершил общую архитектуру набора команд нашего процессора. Он назвал наш CPU GAIA. Обычно в экспериментах с CPU мы не реализуем ни прерываний, ни MMU. Однако Юити начал реализовывать их для Xv6 на основании рефакторизованной версии процессора Group 3.

В дальнейшем я перейду к еженедельным записям, потому что с этого момента процесс начнёт развиваться быстро!

Первая неделя


Вместо того, чтобы просто закомментировать последовательности загрузки, Масаеси начал реализацию настоящей инициализации нашего CPU, а Сёхэй переписал код ассемблера x86 операционной системы Xv6 под нашу самодельную архитектуру. Я добавил в симулятор возможность симуляции прерываний, которую Ватару создал в базовой части экспериментов с CPU, а также завершил поддержку преобразования виртуальных адресов. Мы реализовали в симуляторе функциональность, достаточную для запуска ОС.

Вторая неделя


Я создал примитивный компоновщик для нашей архитектуры, чтобы собирать Xv6 и её двоичные объекты. Сёхэй работал над реализацией обработчика прерываний, и это была сложная задача. Прерывания трудно понять, тяжело разобраться с потоком, тяжело отлаживать, тяжело разрабатывать.

Когда я портировал Xv6 на MIPS, у меня был GDB, поэтому было довольно сносно, но в нашем эмуляторе не было никаких функций отладки, поэтому её выполнять, наверно, было очень трудно. Сёхэй не смог выдержать сложность отладки, поэтому он добавил в симулятор дизассемблер и отладочную функцию дампа. После этого отладочные функции симулятора были быстро усовершенствованы командой разработки ОС, и симулятор, наконец, вырос и стал похожим на это изображение:

image

Третья неделя


Превозмогая различные трудности, мы продолжали портирование Xv6, но ОС по-прежнему не работала.

В частности, вызывала много проблем спецификация Ucc, в которой char и int занимали 32 бита. Это была не вина Ucc. На самом деле, спецификация C требует только, чтобы sizeof(char) == 1 и sizeof(char) <= sizeof(int), поэтому в этом не было нарушений.

Однако, xv6 написана для x86, поэтому она предполагает, что sizeof(int) == 4 и добавляет константы к значению указателя, что приводило ко множеству противоречий. Поскольку создаваемый этим баг было так трудно найти, а объём был настолько велик, что в конечном итоге мы решили указать в Ucc, что char равен 8 битам.

Делегировав проблему 32-битного char команде разработчиков Ucc, я написал инициализацию страничной адресации этапа начальных вводов, и путём проб и ошибок пытался заставить правильно работать прерывания.

В конечном итоге, мы упорно трудились над решением задачи 4, Плохой портируемости xv6.

27, 28 февраля


Перечитав Slack, я увидел, что за этот день был сделан большой шаг вперёд. После того, как команда разработчиков Ucc очень быстро завершила изменение, сделав char 8-битным, мы упорно работали над большим объёмом отладки. Наконец, наша первая пользовательская программа init всё-таки заработала!

После этого мы так продвинулись в портировании приложений пользовательских процессов, что я ещё не успел перенести это в порт на MIPS. По ходу дела мы обнаружили и устранили множество трудновоспроизводимых багов и несоответствий в спецификации прерываний; тем не менее, нам как-то удалось всё это преодолеть.

Одна интересная исправленная нами ошибка заключалась в проблеме с алиасом кэша. Процессор GAIA выбирал в качестве индекса кэша виртуальный адрес вместо физического. Так получалось потому, что он позволяет при поиске кэшей пропускать преобразование виртуальных адресов. Однако из-за этого мы обнаружили, что между кэшами возникает противоречие, поскольку несколько кэшей виртуальных адресов могут указывать на один физический адрес. При обновлении кэша одного виртуального адреса кэши других виртуальных адресов, указывающих на тот же физический адрес, не обновлялись.

Этот баг сложно было устранить с низкими затратами на стороне оборудовании, поэтому мы устранили его, добавив в Xv6 цвет страниц. Для каждой строки кэша добавляется цвет и страницы выделяются так, что виртуальные адреса, указывающие на один физический адрес, всегда получают одинаковый цвет. Это означает, что виртуальные адреса, указывающие на один физический адрес, всегда будут иметь только один кэш. Так мы гарантируем, что GAIA никогда не будет иметь нескольких кэшей с общим физическим адресом.

Март Xv6 запускается!


Первого марта порт xv6 был завершён. Теперь xv6 работала в симуляторе!

image

Развлечений всегда должно быть с запасом


Изначально порт Xv6 рассматривался как развлечение, и поскольку Xv6 начала работать в симуляторе, мы стали трудиться над тем, чтобы развлечений стало ещё больше.

Во-первых, примерно за 4 часа Масаеси создал команду sl, запускаемую на нашем Xv6.


Сёхэй захотел написать Сапёра.


В это время Юити завершил реализацию процессора Group X. Реальный CPU работал гораздо быстрее симулятора, благодаря чему игру стало проще разрабатывать и играть в неё. Тогда же было создано очень качественное приложение 2048.


Эта игра 2048 получилась очень качественной, Юити постоянно в неё играл. Кстати, 2048 использует нелинейный буферизованный ввод, но в xv6 изначально этой функции не было. Для поддержки этой функции в дополнение к read и write в качестве devsw-действия было добавлено ioctl, а также связанные с termios функции для управления ICANON и echo. То есть единственная Xv6, способная играть в 2048 с подобной степенью полноты, есть только на GAIA.

Кстати, чтобы реализовать в Xv6 более близкую к Unix V6 схему, было бы лучше, по моему мнению, добавить системные вызовы gtty и stty. Однако я использовал ioctl, потому что Xv6 не имеет концепции tty, а также потому что ioctl появилась в следующей версии (V7), которая исторически близка к V6.

Есть и более крутые новости: на Xv6-GAIA появился небольшой ассемблер, созданный Кэйити. Также на нём есть миниатюрный vi, созданный Сёхэем. Только представьте, что можно сделать с этими двумя инструментами.



Это интерактивное программирование на FPGA!

Для эксперимента с CPU это довольно впечатляющее демо, ведь на этом процессоре нет никаких интерактивных программ.

Самое лучшее демо


Исходная задача эксперимента с CPU звучала так: Запустить на самодельном процессоре определённую программу трассировки лучей. Теперь, когда у нас есть работающая на процессоре операционная система, мы все знаем, что нужно сделать, правда? Мы решили запустить программу трассировки лучей в ОС нашего собственного CPU. У нас возникло несколько багов, однако нам удалось завершить её за час до финальной презентации.


Итак, мы выполнили то, о чём наверняка хотя бы раз шутил каждый студент нашей кафедры: запустили операционную систему на CPU, а поверх неё программу трассировки лучей.

Взгляд из 2020 года


По сути, всё написанное выше является переработанным вариантом моего поста, написанного в 2015 году. Перечитывая его сегодня, я вижу свою техническую неопытность того времени, однако сделанное нами определённо заслуживает восхищения.

Кстати, вы можете увидеть, как в то время выглядела Xv6, прямо в браузере, пройдя по ссылке! После эксперимента с CPU я портировал при помощи Emscripten наш симулятор GAIA на JavaScript. Давайте попробуем запустить наши sl, minesweeper и 2048.

xv6...cpu0: startinginit: starting sh$

Также стоит сказать, что портирование Xv6 на MIPS, которое не было закончено во время эксперимента с CPU, завершили месяц спустя. Репозиторий GitHub находится здесь.

После того, как мы опубликовали в 2015 году пост о челлендже Group X, следующие поколения студентов продолжили брать новые задания, связанные с ОС.

В 2018 году одни студенты запустили собственную ОС поверх самодельного CPU, а в 2019 году группа других студентов запустила собственную ОС, использовав в ISA самодельного CPU команды RISC-V. Кроме того, группа в 2020 году наконец-то запустила операционную систему Linux поверх самодельного CPU, в качестве ISA которого также использовалась RISC-V3.

Я уверен, что в будущем будет гораздо больше таких историй, поэтому следите за ними. Лично я ожидаю, что когда-нибудь кто-то запустит Linux на собственной ISA, или запустит на ней виртуальную машину.

Обычно говорят, что изобретать велосипеды заново не стоит, но в процессе изобретения можно довольно многому научиться. Он заставил меня осознать, что я не понимал всего этого настолько хорошо, чтобы реализовать всё с нуля. Кроме того, я рекомендую вам это сделать, потому что это чертовски увлекательно!

Это конец истории нашего эксперимента с CPU. Если вы заинтересовались изобретением замечательного велосипеда, то попробуйте создать процессор или портировать на него ОС.

В конце я хочу рассказать об участниках Group X.




  1. Если вы знаете японский, то можете прочитать мой предыдущий пост здесь. Я работаю в Microsoft, и не все мои коллеги понимают японский, поэтому я написал этот пост на английском.
  2. Кэйити сказал мне, что одной из причин быстрого роста Ucc заключалась в том, что они писали Ucc на OCaml. OCaml позволяет с лёгкостью манипулировать структурой дерева без багов указателей. Кстати, если вас интересует этап препроцессора, то мы использовали Clang CPP. Вы знали, что Clang CPP можно использовать как независимую команду? Кэйити написал на японском свою статью о команде разработчиков компилятора.
  3. Все статьи написаны на японском. Статьи группы, запускавшей собственную ОС поверх самодельного CPU в 2018 году находятся здесь, статьи группы, запускавшей свою ОС на процессоре RISC-V в 2019 году здесь, а статьи группы, запустившей Linux на своём процессоре RISC-V в 2020 году здесь.
Подробнее..

Почему мой NVMe медленнее SSD?

30.09.2020 14:10:05 | Автор: admin

В данной статье мы рассмотрим некоторые нюансы подсистемы ввода-вывода и их влияние на производительность.

Пару недель назад я столкнулся с вопросом, почему NVMe на одном сервере медленнее, чем SATA на другом. Посмотрел в характеристики серверов и понял, что это был вопрос с подвохом: NVMe был из пользовательского сегмента, а SSD из серверного.

Очевидно, что сравнивать продукты из разных сегментов в разном окружении некорректно, но это не является исчерпывающим техническим ответом. Изучим основы, проведем эксперименты и дадим ответ на поставленный вопрос.

Что такое fsync и где он используется


Для ускорения работы с накопителями данные буферизируются, то есть сохраняются в энергозависимой памяти до тех пор, пока не представится удобный случай для сохранения содержимого буфера на накопитель. Критерии удобного случая определяются операционной системой и характеристиками накопителя. В случае исчезновения питания все данные в буфере будут утеряны.

Существует ряд задач, в которых необходимо быть уверенным, что изменения в файле записаны на накопитель, а не лежат в промежуточном буфере. Эту уверенность можно получить при использовании POSIX-совместимого системного вызова fsync. Вызов fsync инициирует принудительную запись из буфера на накопитель.

Продемонстрируем влияние буферов искусственным примером в виде короткой программы на языке C.

#include <fcntl.h>#include <unistd.h>#include <sys/stat.h>#include <sys/types.h>int main(void) {    /* Открываем файл answer.txt на запись, если его нет -- создаём */    int fd = open("answer.txt", O_WRONLY | O_CREAT);    /* Записываем первый набор данных */    write(fd, "Answer to the Ultimate Question of Life, The Universe, and Everything: ", 71);    /* Делаем вид, что проводим вычисления в течение 10 секунд */    sleep(10);    /* Записываем результат вычислений */    write(fd, "42\n", 3);     return 0;}

Комментарии хорошо объясняют последовательность действий в программе. Текст ответ на главный вопрос жизни, Вселенной и всего такого будет буферизирован операционной системой, и если перезагрузить сервер нажатием на кнопку Reset во время вычислений, то файл окажется пуст. В нашем примере потеря текста не является проблемой, поэтому fsync не нужен. Базы данных такого оптимизма не разделяют.

Базы данных это сложные программы, которые одновременно работают с множеством файлов, поэтому хотят быть уверенными, что записываемые ими данные будут сохранены на накопителе, так как от этого зависит консистентность данных внутри БД. Базы данных спроектированы записывать все завершенные транзакции и быть готовыми к отключению питания в любой момент. Такое поведение обязывает использовать fsync постоянно в больших количествах.

На что влияет частое использование fsync


При обычном вводе-выводе операционная система старается оптимизировать общение с дисками, так как в иерархии памяти внешние накопители самые медленные. Поэтому операционная система старается за одно обращение к накопителю записать как можно больше данных.

Продемонстрируем влияние использования fsync на конкретном примере. В качестве испытуемых у нас следующие твердотельные накопители:

  • Intel DC SSD S4500 480 GB, подключен по SATA 3.2, 6 Гбит/с;
  • Samsung 970 EVO Plus 500GB, подключен по PCIe 3.0 x4, ~31 Гбит/с.

Тесты проводятся на Intel Xeon W-2255 под управлением ОС Ubuntu 20.04. Для тестирования дисков используется sysbench 1.0.18. На дисках создан один раздел, отформатированный как ext4. Подготовка к тесту заключается в создании файлов объемом в 100 ГБ:

sysbench --test=fileio --file-total-size=100G prepare

Запуск тестов:

# Без fsyncsysbench --num-threads=16 --test=fileio --file-test-mode=rndrw --file-fsync-freq=0 run# С fsync после каждой записиsysbench --num-threads=16 --test=fileio --file-test-mode=rndrw --file-fsync-freq=1 run

Результаты тестов представлены в таблице.
Тест Intel S4500 Samsung 970 EVO+
Чтение без fsync, МиБ/с 5734.89 9028.86
Запись без fsync, МиБ/с 3823.26 6019.24
Чтение с fsync, МиБ/с 37.76 3.27
Запись с fsync, МиБ/с 25.17 2.18
Нетрудно заметить, что NVMe из клиентского сегмента уверенно лидирует, когда операционная система сама решает, как работать с дисками, и проигрывает, когда используется fsync. Отсюда возникает два вопроса:

  1. Почему в тесте без fsync скорость чтения превышает физическую пропускную способность канала?
  2. Почему SSD из серверного сегмента лучше обрабатывает большое количество запросов fsync?

Ответ на первый вопрос прост: sysbench генерирует файлы, заполненные нулями. Таким образом, тест проводился над 100 гигабайтами нулей. Так как данные весьма однообразны и предсказуемы, в ход вступают различные оптимизации ОС, и они значительно ускоряют выполнение.

Если ставить под сомнение все результаты sysbench, то можно воспользоваться fio.

# Без fsyncfio --name=test1 --blocksize=16k --rw=randrw --iodepth=16 --runtime=60 --rwmixread=60 --fsync=0 --filename=/dev/sdb# С fsync после каждой записиfio --name=test1 --blocksize=16k --rw=randrw --iodepth=16 --runtime=60 --rwmixread=60 --fsync=1 --filename=/dev/sdb
Тест Intel S4500 Samsung 970 EVO+
Чтение без fsync, МиБ/с 45.5 178
Запись без fsync, МиБ/с 30.4 119
Чтение с fsync, МиБ/с 32.6 20.9
Запись с fsync, МиБ/с 21.7 13.9
Тенденция к просадке производительности у NVMe при использовании fsync хорошо заметна. Можно переходить к ответу на второй вопрос.

Оптимизация или блеф


Ранее мы говорили, что данные хранятся в буфере, но не уточняли в каком именно, так как это было не принципиально. Мы и сейчас не будем углубляться в тонкости операционных систем и выделим два общих вида буферов:

  • программный;
  • аппаратный.

Под программным буфером подразумеваются буферы, которые есть в операционной системе, а под аппаратным энергозависимая память контроллера диска. Системный вызов fsync посылает накопителю команду записать данные из его буфера в основное хранилище, но никак не может проконтролировать корректность выполнения команды.

Так как SSD показывает лучшие результаты, то можно сделать два предположения:

  • диск спроектирован под нагрузку подобного плана;
  • диск блефует и игнорирует команду.

Нечестное поведение накопителя можно заметить, если провести тест с исчезновением питания. Проверить это можно скриптом diskchecker.pl, который был создан в 2005 году.

Данный скрипт требует две физические машины сервер и клиент. Клиент записывает на тестируемый диск небольшой объем данных, вызывает fsync и отправляет серверу информацию о том, что было записано.

# Запускается на сервере./diskchecker.pl -l [port]# Запускается на клиенте./diskchecker.pl -s <server[:port]> create <file> <size_in_MB>

После запуска скрипта необходимо обесточить клиента и не возвращать питание в течение нескольких минут. Важно именно отключить тестируемого от электричества, а не просто выполнить жесткое выключение. По прошествии некоторого времени сервер можно подключать и загружать в ОС. После загрузки ОС необходимо снова запустить diskchecker.pl, но с аргументом verify.

./diskchecker.pl -s <server[:port]> verify <file>

В конце проверки вы увидите количество ошибок. Если их 0, то значит, диск выдержал испытание. Для исключения удачного для диска стечения обстоятельств опыт можно повторить несколько раз.

Наш S4500 не показал ошибок при потере питания, то есть можно утверждать, что он готов к нагрузкам с большим количеством вызовов fsync.

Заключение


При выборе дисков или целых готовых конфигураций следует помнить о специфике задач, которые необходимо решить. На первый взгляд кажется очевидным, что NVMe, то есть SSD с PCIe-интерфейсом, быстрее классического SATA SSD. Однако, как мы поняли сегодня, в специфических условиях и с определенными задачами это может быть не так.

А как вы тестируете комплектующие cерверов при аренде у IaaS-провайдера?
Ждем вас в комментариях.

Подробнее..

Графические войны 1 лагающее пиксельное XX столетие

08.10.2020 00:10:19 | Автор: admin

50 лет истории видеокарт (1970-2020): Полная история видеокарт и их прародителей


Часть 1


Компьютерная графика. Услышав эти слова, мы представляем поражающие воображение спецэффекты из крупных блокбастеров, красивейшие модели персонажей из ААА-игр, и всё, что связано с визуальной красотой современных технологий. Но компьютерная графика, как и любой технологический аспект, развивалась не одно десятилетие, преодолев путь от отображения нескольких символов на монохромном дисплее до поражающих воображение пейзажей и героев, с каждым годом всё сложнее отличимых от реальности. Сегодня мы начнем рассказ о том, как начиналась история компьютерной графики, вспомним, как появился термин видеокарта и сокращение GPU, и какие технические рубежи год за годом преодолевали лидеры рынка, в стремлении покорения новой аудитории.

image

Предисловие эпохи. Зарождение компьютеров (1940-е/1950-е)


Эпоха компьютерных технологий у многих вызывает ассоциации с началом эпохи персональных компьютеров в начале 80-х, но на самом деле первые компьютеры появились гораздо раньше. Первые разработки таких машин начались еще до Второй Мировой войны, а прототипы, отдаленно напоминающие будущие ПК, увидели свет уже в 1947 году. Первым таким устройством стал IBM 610 экспериментальный компьютер, разработанный Джоном Ленцем из Уотсоновской лаборатории при Колумбийском университете. Он первым в истории получил гордое название Персонального автоматического компьютера (Personal Automatic Computer, PAC), хотя оно и было слегка преувеличенным машина стоила $55 тысяч, и было изготовлено всего 150 экземпляров.

Первые впечатляющие визуальные системы появлялись в те же годы. Уже в 1951 году IBM при участии General Electric и ряда военных подрядчиков разработала летный симулятор для нужд армии. В нем использовалась технология трехмерной виртуализации пилот, находившийся за тренажером, видел проекцию кабины и мог действовать так, как это происходило бы за штурвалом настоящего самолета. Позже графический прототип использовала компания Evans & Sutherland, создавшая полноценный тренажер для пилотов CT5, работающий на базе массива компьютеров DEC PDP-11. Только задумайтесь на дворе всё еще 50-е, а у нас уже тогда была трехмерная графика!

1971-1972. Magnavox Odyssey и PONG


Бум полупроводниковых технологий и производства микросхем полностью поменял расклад сил на рынке, прежде принадлежавшем громоздким аналоговым компьютерам, занимавшим целые залы. Отказавшись от вакуумных ламп и перфокарт, индустрия шагнула в эпоху развлечений для всей семьи, познакомив западный мир с домашними игровыми видеосистемами, прабабушками современных консолей.

Первопроходцем видеоигровых развлечений стало устройство под названием Odyssey Magnavox, первая официально выпущенная игровая система. У Одиссеи были диковинные по современным стандартам контроллеры, а вся графическая система выводила на экран телевизора только линию и две точки, которыми управляли игроки. Создатели устройства подошли к делу с фантазией, и в комплекте с консолью шли специальные цветные накладки на экран, способные раскрасить игровые миры нескольких проектов, идущих в комплекте с Odyssey. Всего для устройства было выпущено 28 игр, среди которых был простой на первый взгляд пинг-понг, вдохновивший энтузиастов из молодой компании Atari на выпуск игрового автомата Pong с идентичной игрой. Именно Pong стал началом магии игровых автоматов, которая, к слову, полностью захватила и Японию и западный мир к началу 80-х.

Несмотря на очевидную простоту, Magnavox Odyssey использовал настоящие картриджи правда, во многом лишь для эффекта. Никаких чипов памяти в них не было картриджи служили набором перемычек, волшебными образом превращающих одно расположение линии с точками в другое, тем самым меняя игру. До полноценного видеочипа примитивной приставке было далеко, но популярность Magnavox Odyssey показала однозначный интерес публики, и многие компании взялись за разработку своих собственных устройств, чувствуя потенциальную прибыль.

1976-1977. Fairchild Channel F и Atari 2600


Ждать первой серьезной схватки за новорожденный игровой рынок пришлось недолго. В 1975 году стремительно устаревающая Magnavox Odyssey исчезла с прилавков, а на её место за титул лучшей консоли нового поколения бились сразу два устройства Channel F от компании Fairchild и Atari VCS от той самой компании, что подарила миру Pong.

image

Несмотря на то, что разработка консолей шла практически одновременно, Atari не успевала и Fairchild первой выпустила своё устройство под названием Fairchild Video Entertainment System (VES).

Консоль от Fairchild появилась на полках магазинов в ноябре 1976 года, и стала настоящей кладезю технических преимуществ. Вместо невнятных контроллеров Odyssey появились удобные, бутафорские картриджи сменились на настоящие (внутри которых стояли ROM-чипы с данными игр), а внутри консоли был установлен динамик, воспроизводящий звуки и музыку из запущенной игры. Приставка умела отрисовывать изображение с использованием 8-цветовой палитры (в режиме черно-белой строки либо цветной) в разрешении 102х54 пикселя. Отдельно стоит заметить, что процессор Fairchild F8, установленный в системе VES, был разработан Робертом Нойсом, который в 1968 году основал небольшую, но перспективную фирму Intel.

Atari была на грани отчаяния проект Stella, основа будущей консоли, сильно отставал по темпам разработки, а рынок, как известно, ждать не будет. Множество вещей, казавшихся инновационными с выходом Fairchild VES, вот-вот должны были стать неотъемлемой чертой всех будущих консолей. Понимая, что на кон нужно ставить всё, основатель компании Atari Нолан Бушнелл подписывает соглашение с Warner Communications, продавая своё детище за $28 миллионов с условием, что консоль Atari выйдет на рынок в кратчайшие сроки.

Warner не подвели, и работа над приставкой закипела с новой силой. Для упрощения логики и удешевления производства к разработке привлекли знаменитого инженера Джея Майнера, который переработал чипы видеовывода и обработки звука TIA (Television Interface Adaptor) в единый элемент, что и стало последним штрихом перед готовностью консоли. Чтобы позлить Fairchild, маркетологи Atari назвали консоль VCS (Video Computer System), вынудив конкурента переименоваться в Channel F.

Но это не слишком помогло Channel F успешно конкурировать с новинкой хотя на этапе релиза консоли в 1977 году было готово всего 9 игр, разработчики достаточно быстро осознали наступление новой технологической эры, и принялись использовать мощности приставки на полную. Atari VSC (позже ставшая Atari 2600), была первой приставкой, в основе которой лежал комплексный чип, не только обрабатывающий видео и звуковую дорожку, но и команды, получаемые с джойстика. Скромные продажи, поначалу смутившие Warner, сменились феноменальным успехом после решения лицензировать аркаду Space Invaders авторства японской компании Taito. Картриджи, поначалу ограниченные 4 Кб памяти, со временем доросли до 32 Кб, а число игр исчислялось сотнями.

Секрет успеха Atari крылся в максимально упрощенной логике устройства, возможности разработчиков гибко программировать игры с использованием ресурсов 2600 (например, иметь возможности менять цвет спрайта во время отрисовки), а также внешняя притягательность и удобные контроллеры, названные джойстиками (от буквального joystick палка счастья). Поэтому, если вы не знали, откуда пришел этот термин, можете поблагодарить за него разработчиков Atari. Как и за главный образ всего ретро-гейминга забавного пришельца из Space Invaders.

После того, как успех Atari 2600 вышел за рамки всех прогнозируемых величин, Fairchild покинула рынок видеоигр, решив, что направление скоро сойдет на нет. О подобном решении, скорее всего, в компании жалеют до сих пор.

1981-1986. Эпоха IBM PC.


Несмотря на то, что уже в 1979 году компания Apple представила Apple II, навсегда изменивший образ доступного компьютера, понятие персональный компьютер появилось немногим позже, и принадлежало совсем иной компании. Монументальная IBM, за плечами которой были десятилетия работы с громоздкими мейнфреймами (с шумом бобин и мерцающими лампочками), неожиданно сделала шаг в сторону и создала рынок, которого прежде не существовало.
В 1981 году в продаже появился легендарный IBM PC, появление которого предваряла одна из лучших рекламных кампаний в истории маркетинга. Никого еще не увольняли за покупку IBM гласил тот самый слоган, навсегда вошедший в историю рекламы.

Однако не только слоганы и яркие рекламные вклейки сделали имя персональному компьютеру IBM. Именно для него впервые в истории была разработана сложная графическая система из двух видеоадаптеров Монохромного адаптера дисплея (MDA, Monochrome Display Adapter) и Цветного графического адаптера (CGA, Color Graphics Adapter).

MDA предназначался для набора текста с поддержкой 80 колонок и 25 строк на экране для набора ASCII символов при разрешении 80х20 пикселей. Адаптер использовал 4 Кб видеопамяти, и отображал зеленый текст на черном экране. В таком режиме было легко и удобно работать с командами, документами и другими повседневными задачами бизнес-сектора.
CGA, напротив, можно было назвать прорывным с точки зрения графических возможностей. Адаптер поддерживал 4-битную палитру в разрешении в разрешении 640х200 пикселей, располагал 16 Кб памяти, и лег в основу стандарта компьютерной графики для активно расширяющейся линейки компьютеров IBM PC.

Впрочем, у использования двух разных адаптеров видеовывода были серьезные недостатки. Масса возможных технических проблем, дороговизна устройств и ряд других ограничений подтолкнули энтузиастов к работе над универсальным решением графическим адаптером, способным работать в двух режимах одновременно. Первым таким продуктом на рынке стала Hercules Graphics Card (HGC), разработанная одноименной компанией Hercules в 1984 году.

image
Hercules Graphics Card (HGC)

По легенде основатель компании Hercules Ван Сиваннукул (Van Suwannukul) разработал систему специально для работы над своей докторской диссертацией на родном тайском языке. Стандартный MDA-адаптер IBM не отображал тайский шрифт корректно, что и побудило разработчика приступить к созданию HGC в 1982 году.

Поддержка разрешения 720х348 точек как для текста, так и для графики, а также возможность работы в режимах MDA и CGA, обеспечило адаптеру Hercules долгую жизнь. Наследие компании в виде универсальных стандартов видеовывода HGC и HGC+ использовалось разработчиками IBM-совместимых компьютеров, а позже и ряда других систем вплоть до конца 90-х. Однако мир не стоял на месте, и бурное развитие компьютерной отрасли (как и её графической части) привлекло множество других энтузиастов среди них были четверо мигрантов из Гонконга Хво Юн Хо (Kwak Yuan Ho), Ли Лау (Lee Lau), Френсис Лау (Francis Lau) и Бенни Лау (Benny Lau), основавшие Array Technology Inc, компанию, которую весь мир узнает как ATI Technologies Inc.

1986-1991. Первый бум рынка графических карт. Ранние успехи ATI


После выпуска IBM PC компания IBM недолго оставалась в авангарде развития компьютерных технологий. Уже в 1984 году Стив Джобс представил первый Macintosh с впечатляющим графическим интерфейсом, и для многих стало очевидно, что графические технологии вот-вот сделают настоящий скачок вперед. Но, несмотря на потерю лидерства в отрасли, IBM выгодно отличалась от Apple и других компаний-конкурентов своим видением направления. Философия открытых стандартов, которой придерживалась IBM, открыла двери производству любых совместимых устройств, что и привлекло в сферу многочисленные стартапы своего времени.

В их числе была и молодая компания ATI Technologies. В 1986 году гонконгские специалисты представили свой первый коммерческий продукт OEM Color Emulation Card.

image
Color Emulation Card

Расширив возможности стандартных монохромных контроллеров, инженеры ATI обеспечили вывод трех цветов шрифта на черном экране зеленого, янтарного и белого. Адаптер располагал 16 Кб памяти и зарекомендовал себя в составе компьютеров Commodore. За первый год продаж изделие принесло ATI более $10 миллионов.

Конечно же, это стало лишь первым шагом для ATI следом за расширенным графическим решением с 64 Кб видеопамяти и возможностью работы в трех режимах (MDA, CGA, EGA) на рынок вышла линейка ATI Wonder, с появлением которой прежние стандарты можно было записывать в архаизмы.

Звучит слишком смело? Судите сами адаптеры серии Wonder получили буфер в 256 Кб видеопамяти (в 4 раза больше!), а вместо четырехцветной палитры на экран выводилось 16 цветов при разрешении 640х350. При этом никаких ограничений при работе с различными форматами вывода не было ATI Wonder успешно эмулировала любой из ранних режимов (MDA, CGA, EGA), а, начиная со 2-ой серии, получила поддержку новейшего стандарта Extend EGA.

image
ATi Wonder

Кульминацией развития линейки в 1987 году стала знаменитая ATI EGA Wonder 800, выводившая 16-цветовую палитру уже VGA-формата в невероятно высоком разрешении 800х600. Адаптер продавался в формате более доступной VGA Improved Performance Card (VIP) с ограниченной поддержкой VGA-вывода.

Первый расцвет рынка видеокарт. Инновации ATI, начало конкурентной борьбы
Значительные успехи ATI в развитии коммерческих графических адаптеров привлекли внимание множества других компаний в период с 1986 по 1987 год были основаны и представили первые продукты на рынке адаптеров такие бренды, как Trident, SiS, Tamarack, Realtek, Oak Technology, LSI (G-2 Inc), Hualon, Cornerstone Imaging и Windbond. Помимо новых лиц в выходе на графический рынок заинтересовались и действующие представители Кремниевой долины такие компании, как AMD, Western Digital/Paradise Systems, Intergraph, Cirrus Logic, Texas Instruments, Gemini и Genoa каждая из них так или иначе представила первый графический продукт в том же промежутке времени.

В 1987 году ATI выходит на OEM-рынок уже в качестве компании-поставщика, выпуская серию продуктов Graphics Solution Plus. Эта линейка была рассчитана на работу с 8-битной шиной компьютеров IBM PC/XT на базе платформы Intel 8086/8088. Адаптеры GSP тоже поддерживали форматы вывода MDA, CGA и EGA, но с оригинальным переключением между ними на самой плате. Устройство прекрасно приняли на рынке, и даже схожая модель от Paradise Systems с 256 Кб видеопамяти (у GSP было всего 64 Кб) не помешала Ati пополнить портфолио новым успешным продуктом.

Все следующие годы канадская компания ATI Technologies Inc. оставалась на пике графических инноваций, постоянно опережая конкурентов. Хорошо известная тогда линейка адаптеров Wonder первой на рынке перешла на 16-битный цвет; получила поддержку EVGA (в адаптерах Wonder 480 и Wonder 800+) и SVGA (в Wonder 16). В 1989 году ATI снизила цены на линейку Wonder 16 и добавила разъем VESA для возможности соединять друг с другом два адаптера можно сказать это были первые фантазии на тему связок из нескольких устройств, которые появятся на рынке гораздо позже.

Из-за разрастания рынка с бесчисленным числом форматов и производителей требовалась специальная организация, способная урегулировать их и разработать ключевые стандарты для игроков рынка. В 1988 году усилиями шести ключевых производителей была основана VESA (Video Electronics Standard Association, Ассоциация стандартов видеоэлектроники), взявшая на себя централизацию стандартов и форматов разрешений, а также цветовой палитры графических адаптеров. Первым форматом стал SVGA (800х600 точек), который уже использовался в картах Ati Wonder 800. В дальнейшем их становилось больше, а некоторые (включая HGC и HGC+) использовались на протяжении десятилетий.

image

Технологическое лидерство ATi укрепляла и на заре 90-х. В 1991 году в продажу вышла Wonder XL первый графический адаптер с поддержкой 32 тысяч цветов и поддержкой разрешения 800х600 при частоте обновления в 60 Гц. Подобного удалось добиться благодаря использованию конвертера Sierra RAMDAC. Помимо этого, Wonder XL стала первым адаптером с 1 Мб видеопамяти на борту.

В мае того же года ATI представила Mach8 первый продукт из новой линейки Mach для работы с обработкой простых 2D-операций например, отрисовки линий, заполнения цветом и битмаппинга. Mach8 был доступен для приобретения как в виде чипа (для последующей интеграции например, в бизнес-системы OEM-формата), так и в виде полноценной платы. Сейчас многим покажется странным выпуск отдельного адаптера для таких вещей, но 30 лет назад многие специальные вычисления всё еще лежали на плечах центрального процессора, тогда как графические адаптеры предназначалась для узкого круга задач.

Впрочем, такой уклад вещей сохранялся недолго следом за интересной VGA Stereo F/X, симбиозом графического адаптера и платы Sound Blaster для эмуляции кодека в формате моно налету, лидер индустрии представил продукт для работы как с двухмерной, так и с трехмерной графикой VGA Wonder GT. Объединив возможности Mach8 и Wonder Ati смогли первыми решить проблему необходимости дополнительного адаптера для работы с разными типами задач. Значительному успеху новинок поспособствовал выход популярной ОС Windows 3.0, в которой впервые ставили акценты на широкий круг задач в работе с 2D-графикой. Wonder GT пользовалась спросом и у системных интеграторов, что благотворно сказалось на прибылях компании в 1991 году оборот ATI превысил $100 млн. Будущее обещало быть светлым, но конкуренция на рынке никогда не ослабевала лидеров ожидали новые испытания.

1992-1995. Разработка OpenGL. Второй бум рынка графических карт. Новые рубежи в 2D и 3D
В январе 1992 года, компания Silicon Graphics Inc представила первый мультиплатформенный программный интерфейс OpenGL 1.0, поддерживающий работу как с 2D, так и с 3D-графикой.

image

В основу будущего открытого стандарта легла проприетарная библиотека IRIS GL (Integrated Raster Imaging System Graphical Library, Интегрированная системная библиотека обработки растровой графики). Понимая, что в скором времени множество компаний представят на рынке свои библиотеки подобного рода, в SGI приняли решение сделать OpenGL открытым стандартом, совместимым с любыми платформами на рынке. Популярность такого подхода было трудно переоценить на OpenGL обратил внимание весь рынок.

Изначально Silicon Graphics нацеливалась на профессиональный рынок UNIX-систем, планируя определённые задачи для будущей открытой библиотеки, но благодаря доступности для разработчиков и энтузиастов OpenGL быстро занял место на развивающемся рынке трехмерных игр.

Однако не все крупные игроки рынка приветствовали такой подход SGI. Примерно в то же время компания Microsoft разрабатывала собственную программную библиотеку Direct3D, и совсем не спешила интегрировать поддержку OpenGL в операционную систему Windows.

image

Direct3D открыто раскритиковал и знаменитый автор Doom Джон Кармак, собственноручно портировавший Quake на OpenGL для Windows, подчеркнув преимущества простого и понятного кода открытой библиотеки на фоне сложного и мусорного варианта Microsoft.

image
Джон Кармак

Но позиция Microsoft осталась неизменной, и после выхода Windows 95 компания отказалась лицензировать MCD-драйвер OpenGL, благодаря которому пользователь мог самостоятельно решить, через какую библиотеку запускать приложение или новую игру. В SGI нашли лазейку, выпустив драйвер в формате установщика (ICD, Installable Client Driver), который помимо растеризации OpenGL получил поддержку обработки эффектов освещения.

Ударный рост популярности OpenGL привел к тому, что решение SGI стало популярным и в сегменте рабочих станций, что вынудило Microsoft выделить все возможные ресурсы на создание своей проприетарной библиотеки в кратчайшие сроки. Основу для будущего API предоставила купленная в феврале 1995 года студия RenderMorphics, чья программная библиотека Reality Lab и сформировала основные принципы работы Direct3D.

Второе рождение рынка видеокарт. Волна слияний и поглощений


Но вернемся немного в прошлое. В 1993 году рынок видеокарт переживал второе рождение, и в поле зрения публики попало множество новых перспективных компаний. Одной из них стала NVidia, основанная Дженсеном Хуангом, Кёртисом Прэмом и Крисом Малаховски в январе 1993 года. Хуанг, успевший поработать программным инженером в LSI, давно вынашивал идею создания компании по производству графических адаптеров, а его коллеги из Sun Microsystems как раз успели поработать над графической архитектурой GX. Объединив усилия и собрав 40 тысяч долларов, трое энтузиастов дали начало компании, которой было суждено сыграть ключевую роль в индустрии.

image
Дженсен Хуанг

Впрочем, в те годы заглядывать в будущее никто не решался рынок стремительно менялся, новые проприетарные API и технологии появлялись чуть ли не каждый месяц, и было очевидно, что в бурном круговороте конкуренции выживут далеко не все. Многие из компаний, вступивших в гонку графических вооружений к концу 80-х, были вынуждены объявить о банкростве среди них оказались Tamerack, Gemini Technology, Genoa Systems и Hualon, тогда как Headland Technology была выкуплена SPEA, а Acer, Motorola и Acumos стали собственностью Cirrus Logic.

Как вы уже могли догадаться, особняком в этом скоплении слияний и приобретений стояла ATI. Канадцы продолжали усердно трудиться и выпускать инновационные продукты, несмотря ни на что пусть это и стало значительно сложнее.
В ноябре 1993 года ATI представила карту видеозахвата VideoIt! в основе которой лежал чип-декодер 68890, способный записывать видеосигнал в разрешении 320х240 при 15 кадрах в секунду или 160х120 при 30 кадрах в секунду. Благодаря интеграции чипа Intel i750Pd VCP владелец новинки мог проводить компрессию-декомпрессию видеосигнала в реальном времени, что было особенно полезно при работе с большими объемами данных. VideoIt! первую на рынке научили использовать центральную шину для общения с графическим ускорителем, и никаких кабелей и коннекторов, как прежде, уже не требовалось.

Проблемы ATI и успехи S3 Graphics


Для ATI 1994 год стал настоящим испытанием из-за серьезной конкуренции компания понесла убытки в размере $4,7 миллиона. Главной причиной неприятностей канадских разработчиков стали успехи компании S3 Graphics. Графический ускоритель S3 Vision 968 и адаптер Trio64 обеспечили американской компании-разработчику дюжину крупных ОЕМ-контрактов с такими лидерами рынка, как Dell, HP и Compaq. В чем была причина такой популярности? Невиданный ранее уровень унификации графический чип Trio64 собрал под одной крышкой цифро-аналоговый преобразователь (DAC), синтезатор частот и графический контроллер. Новинка от S3 использовала объединенный кадровый буфер и поддерживала аппаратное наложение видео (реализованное путем выделения части видеопамяти в процессе рендеринга). Масса достоинств и отсутствие явных недостатков чипа Trio64 и его 32-битного собрата Trio32 привели к появлению множества вариантов партнерских исполнений плат на их основе. Свои решения предлагали Diamond, ELSA, Sparkle, STB, Orchid, Hercules и Number Nine. Вариации разнились от базовых адаптеров на базе VirGe за $169, до сверхмощной Diamond Stealth64 с 4 Мб видеопамяти за $569.

В марте 1995 года ATI вернулась в большую игру с набором инноваций, представив Mach64 первый на рынке 64-битный графический ускоритель, а также первый, способный работать в системах на базе PC и Mac. Наряду с популярной Trio 958 Mach64 обеспечивал возможность аппаратного ускорения видео. Mach64 открыл для ATI выход на профессиональный рынок первыми решениями канадцев в данном секторе стали ускорители 3D Pro Turbo и 3DProTurbo+PC2TV. Новинки предлагались по цене в $899 за целых 4 Мб видеопамяти.

Еще одним важным новичком на рынке графических ускорителей стал технологический стартап 3Dlabs. Приоритетным направлением для молодой компании был выпуск высококлассных графических ускорителей для профессионального рынка Fujitsu Sapphire2SX с 4 Мб видеопамяти предлагалась по цене от $1600, а ELSA Gloria 8 с 8 Мб памяти на борту стоила немыслимые для тех лет $2600. Пытались 3Dlabs выйти и на рынок массовой игровой графики с Gaming Glint 300SX, но высокая цена и всего 1 Мб видеопамяти не принес популярности адаптеру.

Свои продукты на потребительском рынке представляли и другие компании. Trident, ОEM-поставщик графических решений для 2D-задач, представил чип 9280, обладавший всеми преимуществами Trio64 по доступной цене от $170 до $200. Тогда же в продажу вышли Weiteks Power Player 9130 и Alliance Semiconductors ProMotion 6410 обеспечившие прекрасную плавность при воспроизведении видео.

NV1 Дебют NVidia и проблемные полигоны


В мае 1995 года к новичкам присоединилась и NVIDIA, представив свой первый графический ускоритель с символическим названием NV1. Продукт первым на коммерческом рынке объединил возможности 3D-рендеринга, аппаратного ускорения видео и графического интерфейса. Сдержанный коммерческий успех никак не смутил молодую компанию Дженсен Хуанг с коллегами прекрасно понимали, что на рынке, где новые решения представляют каждый месяц, выстрелить будет очень непросто. Но прибыли с продажи NV1 оказалось достаточно, чтобы удержать компанию на плаву и дать стимул продолжать работу.

image
Diamond EDGE 3D 2120 (NV1)

Производством чипов на базе 500 нм техпроцесса заведовала компания ST Microelectronics, но к несчастью для Nvidia всего через несколько месяцев после появления на рынке партнерских решений на основе NV1 (например, Diamond Edge 3D) Microsoft представила первую версию долгожданного графического API DirectX 1.0. Наконец-то! воскликнули геймеры со всего мира, но производители графических ускорителей такого энтузиазма не разделяли.

Главной особенностью работы DirectX стали полигоны треугольной формы. Многие ошибочно полагают, что пресловутые треугольники были всегда, но на самом деле это заблуждение. Инженеры Nvidia закладывали в свой первый продукт квадратичный маппинг текстур (вместо треугольников-полигонов были квадраты), из-за чего приложения и первые игры с поддержкой DirectX вызвали массу проблем совместимости у владельцев NV1. Для решения проблемы Nvidia включили в драйвер обработчик для перевода квадратной разметки текстур в треугольную, но производительность в таком формате оставляла желать лучшего.

Большинство игр c поддержкой квадратичного маппинга текстур были портированы с приставки Sega Saturn. В Nvidia сочли эти проекты настолько важными, что разместили на 4 Мб модели NV1 два порта новой консоли, подключенные к карте через ленточные разъемы. На момент выхода в продажу (в сентябре 1995 года) первый продукт Nvidia обошелся покупателям в $450.

Большинство производителей графических ускорителей к моменту запуска API от Microsoft сильно зависели от проприентарных решений других компаний когда разработчики компании Билла Гейтса только начинали работу над собственной графической библиотекой, на рынке уже присутствовало множество API, таких как S3d (S3), Matrox Simple Interface, Creative Graphics Library, C Interface (ATI) и SGL (PowerVR), а позже в их число вошли NVLIB (Nvidia), RRedline (Rendition) и знаменитый Glide. Такое разнообразие сильно усложняло жизнь разработчикам нового железа, так как API были несовместимы друг с другом, а разные игры поддерживали разные библиотеки. Выход DirectX поставил крест на всех сторонних решениях, ведь использование других проприентарных API в играх для Windows попросту не имело смысла.

Но нельзя сказать, что новинка от Microsoft была лишена серьезных недостатков. После представленного DirectX SDK у многих производителей графических ускорителей исчезла возможность аппаратно управлять ресурсами видеокарт при воспроизведении цифрового видео. Многочисленные проблемы с драйверами на недавно вышедшей Windows 95 возмущали пользователей, привыкших к стабильной работе ОС Windows 3.1. Со временем все проблемы были решены, но главная битва за рынок ожидала впереди взявшая паузу ATI готовилась покорять вселенную трехмерных игр с новой линейкой 3D Rage.

ATI Rage Трехмерная ярость


Демонстрация нового графического ускорителя прошла в рамках лос-анджелесской выставки E3 1995 года. Инженеры ATI объединили преимущества чипа Mach 64 (и его выдающихся возможностей работы с 2D-графикой) с новым чипом для обработки 3D, взяв максимум от предыдущих разработок. Первый 3D-ускоритель ATI 3D Rage (известный также как Mach 64 GT) вышел на рынок в ноябре 1995 года.

image
ATI 3D Rage

Как и в случае с Nvidia, инженерам пришлось столкнуться с массой проблем поздние ревизии DirectX 1.0 вызывали многочисленные проблемы, связанные с отсутствием глубокого буфера. Карта располагала всего 2 Мб видеопамяти EDO RAM, поэтому 3D-приложения и игры запускались в разрешении не более 640х480 при 16-битном цвете или 400х300 при 32-битном, тогда как в 2D-режиме разрешение экрана было значительно выше до 1280х1024. Попытки запустить игру в режиме 32-битного цвета с разрешением 640х480 обычно заканчивались цветовыми артефактами на экране, да и игровую производительность 3D Rage нельзя было назвать выдающейся. Единственным бесспорным преимуществом новинки была возможность воспроизводить видеофайлы в формате MPEG в полноэкранном режиме.

В ATI провели работу над ошибками и переработали чип, выпустив Rage II в сентябре 1996 года. Исправив аппаратные недочеты и добавив поддержку кодека MPEG2, инженеры по какой-то причине не подумали о необходимости увеличить объем памяти первые модели всё еще имели на борту смешные 2 Мб видеопамяти, что неизбежно било по производительности при обработке геометрии и перспективы. Недочет был исправлен в более поздних ревизиях адаптера например, в Rage II+DVD и 3D Xpression+ буфер памяти вырос до 8 Мб.

Но война за 3D-рынок только начиналась, ведь целых три новых компании готовили свои продукты для новейших игр Rendition, VideoLogic и 3dfx Interactive. Именно последней удалось в кратчайшие сроки представить графический чип, значительно опередивший всех конкурентов и начавший новую эру в 3D-графике 3Dfx Voodoo Graphics.

1996-1999. Эпоха 3Dfx. Величайший графический стартап в истории. Последний этап большой конкуренции за рынок


Невероятная история 3Dfx стала хрестоматийным воплощением стартапа, символизирующего как невероятный успех и головокружительные прибыли, так и некомпетентность самоуверенного руководства, и как итог крах и забвение. Но печальный финал и горький опыт не в силах отрицать очевидного 3Dfx в одиночку сотворила графическую революцию, застав врасплох многочисленных конкурентов, и задав новую, феноменально высокую планку производительности. Ни до, ни после этого невероятного периода в истории развития видеокарт мы не видели ничего, даже отдаленно похожего на сумасшедший взлет 3Dfx во второй половине девяностых.

image

3Dfx Voodoo Graphics была графическим адаптером, нацеленным исключительно на работу с 3D-графикой. Предполагалось, что покупатель новинки будет использовать для работы с двухмерными нагрузками другую плату, подключая её к Voodoo через второй VGA-разъем.
Такой подход не смутил многочисленных энтузиастов, и инновационное решение сразу же привлекло многих производителей-партнеров, выпустивших собственные варианты Voodoo.

Одной из интересных карт на базе первого чипа 3Dfx была Orchid Righteous 3D от Orchid Technologies. Фирменным отличием адаптера за $299 было наличие механических реле, издающих характерные щелчки при запуске 3D-приложений или игр.

image
Orchid Righteous 3D

В поздних ревизиях эти реле заменили на твердотельные компоненты, и прежний шарм был утрачен. Вместе с Orchid свои варианты новейшего ускорителя представили и Diamond Multimedia (Monster 3D), Colormaster (Voodoo Mania), Canopus (Pure3D и Quantum3D), Miro (Hiscore), Skywell (Magic3D), и самая пафосная в ряду названий 2theMAX Fantasy FX Power 3D. Раньше видеокарты называть не стеснялись!

Причины подобного ажиотажа вокруг новинки были очевидны при всех возможных недостатках Voodoo Graphics обладала невероятной производительностью, и её появление сразу же перевело в разряд устаревших множество других моделей особенно тех, что могли работать только с 2D-графикой. Несмотря на то, что в 1996 году более половины рынка 3D-ускорителей принадлежало компании S3, 3Dfx ударными темпами завоевывала миллионы фанатов и уже к концу 1997 года компании принадлежало 85% рынка. Это был феноменальный успех.

Конкуренты 3Dfx. Rendition и VideoLogic


Громкие успехи вчерашнего новичка не вычеркнули из игры конкурентов, о которых мы упоминали ранее VideoLogic и Rendition. VideoLogic создала технологию отложенного мозаичного рендеринга (TBRD), благодаря которой пропадала необходимость предварительной Z-буферизации кадра. На финальной стадии рендеринга вычищались скрытые пиксели, а обработка геометрии началась только после того, как будут наложены текстуры, тени и освещение. Технология TBRD работала по принципу разбития кадра на прямоугольные ячейки, рендеринг полигонов в которых происходил независимо друг от друга. При этом полигоны, расположенные за пределами видимой области кадра, отсеивались, а рендеринг остальных начинался только после обсчета общего числа пикселей. Такой подход позволял сэкономить массу вычислительных ресурсов на этапе отрисовки кадра, существенно повышая общую производительность.

Компания вывела на рынок три поколения графических чипов производства NEC и ST Micro. Первое поколение было эксклюзивным продуктом в составе компьютеров Compaq Presario под названием Midas 3 (Модели Midas 1 и 2 были прототипами, и использовались в аркадных автоматах). Вышедшие позже PSX1 и PSX2 были ориентированы на ОЕМ-рынок.
Чипы второго поколения легли в основу приставки Sega Dreamcast японской платформы, сыгравшей свою роль в печальной судьбе 3Dfx. При этом VideoLogic не успели выйти на потребительский рынок графических карт к моменту премьеры их модель Neon 250 морально устарела, проиграв всем бюджетным решениям, и это неудивительно, ведь до прилавков новинка добралась лишь в 1999 году.

Компания Rendition тоже успела отличиться инновациями в графике, и создала первый графический чип Vrit 1000 с возможностью работы не только с двухмерной, но и с 3D-графикой одновременно благодаря процессорному ядру на архитектуре RISC, а также использованию пиксельных конвейеров. Процессор отвечал за обработку полигонов и механизма работы конвейеров рендеринга.

Подобный подход к построению и обработке изображения заинтересовал Microsoft в компании использовали Vrit 1000 во время разработки DirectX, но у ускорителя были свои архитектурные недостатки. Например, он работал только на материнских платах с поддержкой технологии прямого доступа к памяти (Direct memory access, DMA) по ней передавались данные через шину PCI. Благодаря дешевизне и массе программных преимуществ, включающих сглаживание и аппаратное ускорение в Quake от id Software, карта пользовалась популярностью вплоть до выхода Voodoo Graphics. Новинка от 3Dfx оказалась более чем в 2 раза производительнее, а технология DMA быстро потеряла популярность у разработчиков игр, отправив некогда перспективную V1000 на свалку истории.

ATI Гонка за Voodoo c Rage II и Rage Pro


Тем временем ATI не прекращала работу над новыми ревизиями Rage. Следом за Rage II в марте 1997 года была представлена Rage Pro первая AGP-видеокарта от сформированного накануне подразделения ATI 3D Engineering Group.

Rage Pro с 4 Мб видеопамяти на борту практически сравнялась с легендарной Voodoo по производительности, а вариант на AGP-шине с 8 Мб видеопамяти даже превосходил знаменитого конкурента в ряде игр. В Pro-версии карты инженеры ATI доработали коррекцию перспективы и обработку текстур, а также добавили поддержку аппаратного сглаживания и трилинейной фильтрации благодаря увеличенному кэшу в 4 Кб. Чтобы снизить зависимость производительности адаптера от центрального процессора в компьютере, на плате был распаян отдельный чип для обработки операций с плавающей запятой. Любители современных мультимедиа оценили поддержку аппаратного ускорения при воспроизведении видео с DVD-носителя.

Выход на рынок Rage Pro позволил ATI поправить дела с финансами и увеличить чистую прибыль до $47.7 миллионов при общем обороте более $600 млн. По большей части финансовый успех продукту принесли OEM-контракты, реализация графического чипа на материнских платах и выпуск мобильного варианта. Карта, часто фигурировавшая в продаже в вариантах Xpert@Work и Xpert@Play, имела массу конфигураций от 2 до 16 Мб видеопамяти для различных нужд и сегментов рынка.

Важным стратегическим плюсом для штата ATI стало приобретение за $3 миллиона компании Tseng Labs, в которой работали над технологиями интеграции чипов RAMDAC на борт графических карт. Компания разрабатывала собственный графический адаптер, но столкнулась с техническими проблемами, что и привело к встречному предложению от канадских лидеров рынка. Вместе с интеллектуальной собственностью в штат ATI перешло 40 инженеров высшего класса, сразу же приступивших к работе.

Новые конкуренты. Permedia и RIVA 128


Профессионалы из 3DLabs не оставляли надежды захватить интересы геймеров. Для этого была выпущена серия продуктов Permedia, произведенная по 350 нм техпроцессу Texas Instruments. Оригинальная Permedia обладала относительно низкой производительностью, что было исправлено в Permedia NT. Новая карта обладала отдельным чипом Delta для обработки полигонов и алгоритма сглаживания, но при этом стоила дорого целых $600. Когда к концу 1997 года была готова обновленная линейка Permedia 2, конкурировать с игровыми продуктами она уже не могла 3DLabs сменили маркетинг, и представили новинки как профессиональные карты для работы с 2D-приложениями и ограниченной поддержкой 3D.

Всего через месяц после последних премьер 3DLabs и ATI на рынок вернулась Nvidia, представив свою RIVA 128, готовую к жесткой конкуренции кошельки геймеров. Доступная цена и отличная производительность в Direct3D обеспечили новинке всеобщее признание и коммерческий успех, позволив компании заключить контракт с TSMC на производство чипов обновленной RIVA 128ZX. К концу 1997 года две успешные видеокарты принесли Дженсену Хуангу 24% рынка практически всё, что не успела подмять под себя всемогущая 3Dfx.

Забавно, что пути Nvidia и лидера рынка начали пересекаться уже тогда, когда Sega, готовясь к разработке новой консоли Dreamcast, заключила несколько предварительных контрактов с производителями графических решений. Среди них была и Nvidia (с проектом чипа NV2), и 3Dfx (с прототипом Blackbelt). Руководство 3Dfx было полностью уверено в получении контракта, но, к своему удивлению, получило отказ японцы предпочли не рисковать, и обратились за разработкой в NEC, ранее зарекомендовавшей себя сотрудничеством с Nintendo. Представители 3Dfx подали на Sega в суд, обвиняя компанию в намерениях присвоить себе проприетарные разработки в ходе работы над прототипом долгие судебные тяжбы закончились в 1998 году выплатой компенсации в размере $10.5 миллиона в пользу американской компании.

Quantum3D и первое применение SLI


А пока они продолжались, 3Dfx успела обзавестись дочерней компанией. Ей стала Quantum3D, получившая сразу несколько выгодных контрактов на разработку профессиональных графических решений самого высокого уровня от SGI и Gemini Technology. В основе будущих продуктов лежала инновационная разработка 3Dfx технология SLI (Scan-Line Interleave).

Технология предполагала возможность использования двух графических чипов (каждый из которых имеет собственный контроллер памяти и буфер) в рамках одной платы или соединение двух отдельных плат с помощью специального ленточного кабеля. Соединенные подобным образом карты (в формате двухчиповой платы или двух отдельных) делили обработку изображения напополам. Технология SLI обеспечивала возможность увеличения разрешения экрана с 800х600 до 1024х768 точек, но подобная роскошь обходилась недешево: Obsidian Pro 100DB-4440 (две спаренные карты с чипами Amethyst) предлагалась по цене в $2500, тогда как двухчиповая плата 100SB-4440/4440V обошлась бы покупателю в $1895.

image
Obsidian Pro 100DB-4440

Специализированные решения, впрочем, никак не отвлекали лидеров рынка от разработки новых карт серии Voodoo.

3Dfx Voodoo Rush. Спешка, бюджет и разочарование


Летом 1997 года 3Dfx вышла на биржу, и попыталась закрепить ошеломительный успех Voodoo, выпустив Voodoo Rush карту, работающую с 2D и 3D-графикой одновременно, и уже не требующей второго адаптера. Изначально в её основе должен был лежать новый чип Rampage, но из-за технических проблем его релиз был отложен, и в основе Rush использовался урезанный вариант оригинальной Voodoo. Чтобы помирить два вида графических нагрузок, на плате располагалось два чипа SST-1 отвечал за обработку 3D-игр, использующих API Glide, тогда как более посредственный чип производства Alliance или Macronix отвечал за другие 2D и 3D-приложения и игры. Из-за рассинхронизации чипы работали на разных частотах (50 и 72 МГц), вызывая случайные артефакты на экране и недоумение владельцев.

image
Voodoo Rush

Помимо этого, Voodoo Rush имела общий буфер видеопамяти, который одновременно использовали оба чипа. От этого пострадало максимальное разрешение экрана оно составляло лишь половину от 1024х768 (512х384 точки), а низкие частоты RAMDAC не позволили обеспечить желанные 60 Гц в обновлении экрана.

Rendition V2100 и V2200. Уход с рынка


На фоне больших проблем 3Dfx компания Rendition предприняла новую попытку приятно удивить массовый рынок Rendition V2100 и V2200. Новинки вышли на рынок незадолго после премьеры Voodoo Rush, но, к разочарованию энтузиастов, не смогли потягаться даже с урезанной Voodoo. Невостребованные видеокарты вынудили Rendition первой из многих покинуть рынок графических карт.

В результате многие проекты компании остались на стадии прототипов одним из них была доработанная версия V2100/V2200 с геометрическим процессором Fujitsu FXG-1 (в формате двухчипового исполнения). Впрочем, существовал и одночиповый вариант с FXG-1, вошедший в историю как продукт с самым изысканным названием в истории Hercules Thrilled Conspiracy. Вместе с другими разработками (например, чипами V3300 и 4400E) компания была продана Micron за $93 млн в сентябре 1998 года.

Агрессивная экономия. Битва за бюджетный сегмент


Постоянный рост производительности и появление новых технических преимуществ привели к тому, что производителям второго эшелона стало крайне сложно конкурировать с решениями от ATI, Nvidia и 3Dfx, занявших не только нишу энтузиастов и профессионалов, но и народный сегмент рынка адаптеров ценой до $200.

Matrox представила свою графическую карту Mistique по вкусной цене от $120 до $150, но из-за отсутствия поддержки OpenGL новинка сразу же попала в категорию аутсайдеров. S3 начала продажи новой линейки ViRGE, с присутствием максимально широкого модельного ряда свет увидела и мобильная версия адаптера с динамическим управлением питанием (ViGRE/MX), и специальная версия основного ViRGE с поддержкой ТВ-выхода, разъема S-Video и воспроизведением DVD (ViRGE/GX2). Два основных адаптера, призванных сразиться за бюджетный рынок (модели ViRGE, VIRGE DX и ViRGE GX) стоили на момент выхода от $120 за младшую до $200 за старшую.

Трудно представить, но категория ультра-бюджетных решений тоже была местом жесточайшей конкуренции. За кошельки пользователей, готовых заплатить за графический ускоритель не более $99, тягались Laguna3D от CirrusLogic, модели 9750/9850 от Trident, а также SiS 6326. Все эти карты были компромиссными решениями с минимумом возможностей.

После выхода Laguna3D компания CirrusLogic покинула рынок низкое качество 3D-графики, посредственная (и непостоянная) производительность, а также куда более интересные конкуренты (та же ViRGE, стоившая чуть дороже) не оставляли ветеранам индустрии шанса на выживание. Единственными источниками дохода для CirrusLogic оставались продажи допотопных 16-битных графических адаптеров за $50, интересных лишь самым экономным клиентам.

Trident тоже видела потенциал в сегменте рынка ниже среднего в мае 1997 года была выпущена 3D Image 9750, а немногим позже вышла 9850 с поддержкой двухканальной AGP-шины. Исправив многие недочеты 9750 с PCI-шиной, 9850 страдала от посредственной обработки текстур, и не получила лестных отзывов.
Среди карт, продаваемых за бесценок, наиболее успешной была SiS 6326, представленная в июне 1997 года по цене до $50. Обладая хорошим качеством изображения и относительно высокой производительностью, 6326 разошлась тиражом в 8 миллионов устройств в 1998 году. Но на исходе 90-х мир энтузиастов всколыхнул стартап, полный серьезных обещаний им была компания BitBoys.

BitBoys Дерзкие ребята в мире сказочного 3D


BitBoys заявила о себе в июне 1997 года анонсом интригующего проекта Pyramid3D. Революционный графический чип разрабатывался совместными усилиями самого стартапа с компаниями Silicon VLSI Solutions Oy и TriTech. К сожалению для энтузиастов, кроме громких слов на презентациях Pyramid3D так нигде и не появился, а компания TriTech была осуждена за присвоение чужого патента на аудиочип, из-за чего позже обанкротилась и закрылась.
Но BitBoys не прекращали работу, и анонсировали второй проект под названием Glaze3D. Невероятный реализм, лучшая производительность в своем классе и масса новейших технологий были показаны публике на SIGGRAPH99. Рабочий прототип графического адаптера использовал шину RAMBUS и 9 Мб видеопамяти DRAM производства Infineon.
Увы, как и в первый раз, аппаратные проблемы и переносы привели к тому, что ожидаемой революции вновь не наступило.

image
Рекламный скриншот, призванный подчеркнуть реализм, которого должны были достичь карты Glaze3D

Намного позже проект был вновь переименован Axe, а полем для конкуренции выбрали игры с поддержкой DirectX 8.1 прототип даже успел получить официальное название Avalanche3D и обещал взорвать рынок в 2001, но не случилось. На последнем этапе разработки Axe сменился на Hammer, которому прочили поддержку DirectX 9.0. История самого пафосного долгостроя в истории графики закончилась банкротством Infineon, после которого BitBoys отказались от проекта мечты и перешли в сегмент мобильной графики. А теперь вновь вернемся в уютный 1998.

Intel i740 Большая неудача больших профессионалов


Intel выпустила свою первую (и пока что последнюю) графическую карту для 3D-игр под названием Intel i740 в январе 1998 года. У проекта была интересная история, ведь корнями он уходил в проект программы симуляции космических полетов, которую NASA совместно с General Electric создавала для знаменитой серии лунных миссий Аполлон. Позже наработки были проданы Martin Marietta компании, позже вошедшей в состав оборонного гиганта Lockheed (так и появился тот самый Lockheed-Martin). Lockheed-Martin на базе проекта создал линейку профессиональных устройств Read3D, состоящую из двух моделей графических адаптеров Real3D/100 и Real3D/Pro-1000. Иронично, но несмотря на военное происхождение устройств одним из применений выдающихся технологий стал аркадный автомат Sega, использующий две платы Pro-1000.

image

Немного позднее Lockheed-Martin объявил о начале Project Aurora коллаборации с Intel и Chips and Technologies. За месяц до выхода i740 Intel приобрела 20% проекта Real3D, а к июлю 1997 года полностью выкупила Chips and Technologies.
Ключевой особенностью проекта Real3D было использование двух отдельных чипов для обработки текстур и графики Intel объединила их при создании i740. Адаптер использовал оригинальный подход к буферизации данных через шину AGP содержимое кадрового буфера и текстуры загружалось прямо в оперативную память компьютера. В партнерских вариантах i740 обращение к оперативной памяти происходило лишь в том случае, если собственный буфер адаптера полностью заполнялся или был сильно сегментирован. Такой же подход часто используется и сегодня при исчерпании памяти на борту видеокарты система увеличивает буфер, используя свободную RAM.

image

Но во времена, когда буферы исчислялись мегабайтами, а текстуры еще не раздулись до неприличных размеров, такой подход мог показаться по меньшей мере странным.

Чтобы уменьшить возможные задержки при работе с шиной, Intel использовали одну из её особенностей прямой доступ к буферу памяти (Direct Memory Execute или DiME). Такой метод еще назывался AGP-текстуризацией, и позволял использовать оперативную память компьютера для маппинга текстур, обрабатывая их селективно. Средняя производительность вкупе с посредственным качеством изображения позволили i740 добиться уровня прошлогодних карт своего ценового сегмента.

image

За модель с 4 Мб видеопамяти просили $119, а вариант с 8 Мб стоил $149. При этом помимо базовой версии Intel свет увидели всего два партнёрских варианта Real3D StarFighter и Diamond Stealth II G450.

Рассчитывая на успех, Intel начала разработку следующего чипа i752, но ни ОЕМ-производители, ни энтузиасты не проявили интереса к бюджетному адаптеру, серьезно отстающему от актуальных решений. И это неудивительно, ведь в то же время продавалась ViRGE от S3, покупка которой куда больше порадовала бы пользователя. Производство адаптеров было свернуто, а вышедшие на рынок чипы i752 перепрофилировали для использования в качестве решений интегрированной графики.
В октябре 1999 года Lockheed-Martin ликвидировала Real3D, а богатый штат специалистов разошелся в Intel и ATI.

ATI Возвращение в игру с Rage Pro и Rage 128


ATI вновь заявила о себе с Rage Pro Turbo в феврале 1998 года, но эта карта оказалась всего лишь ребрендингом Rage Turbo с доработкой драйверов для выдающихся результатов в синтетических текстах. Обзорщики некоторых изданий были приятно удивлены, но цену в $449 оправдать было очень сложно. Тем не менее, именно с Rage Pro Turbo впервые появился феномен Finewine драйвера постепенно улучшали производительность адаптера с каждой новой ревизией.

Куда более серьезную попытку повлиять на расстановку сил ATI предприняла с выходом Rage 128 GL и Rage 128 VR в августе того же года. Из-за проблем с поставками ATI не смогла обеспечить наличие моделей в магазинах почти до зимних каникул, что сильно сказалось на продвижении новинок. В отличие от OEM-контрактов, стабильно приносящих канадцам серьезную прибыль, простые энтузиасты не смогли оценить новинку из-за отсутствия адаптеров на рынке. Но была и другая причина, по которой продажи Rage 128 оказались ниже ожидаемого.

ATI подготовила Rage 128 к светлому графическому будущему, оснастив новинку 32 Мб видеопамяти (варианты с 16 Мб выпускались под брендом All-In-Wonder 128), которая работала на быстрой и эффективной подсистеме в 32-битном цвете прямой конкурент NVidia Riva TNT не имел никаких шансов. Увы, во времена выхода новинки большинство игр и приложений всё еще работали в 16-битном режиме, где Rage 128 ничем не выделялась на фоне NVidia и S3 (а по качеству изображения даже уступала моделям от Matrox). Массовая публика не оценила подхода ATI, но именно тогда канадцы впервые опередили своё время вот только по достоинству их подход оценили гораздо позже.

1998 год стал для ATI рекордным при обороте в $1.15 млрд чистая прибыль компании составила неплохие $168.4 миллиона. Канадская компания завершила год, располагая 27% рынка графических ускорителей.
В октябре 1998 года ATI приобрела Chromatic Research за $67 миллионов. Компания, знаменитая своими медиапроцессорами MPACT, была поставщиком решений для PC TV от Compaq и Gateway, и предлагала великолепную производительность при работе с MPEG2, высокое качество аудио и отличные показатели в режиме 2D. По иронии судьбы именно единственный недостаток MPACT в виде слабой производительности в 3D-режиме поставил Chromatic Research на грань банкротства всего через 4 года после основания. Всё ближе подступало время универсальных решений.

3Dfx Voodoo 2 и Voodoo Banshee Успешный провал лидера рынка


Пока Intel пыталась выйти на рынок графических адаптеров, его лидер в лице 3Dfx представил Voodoo 2, ставшую технологическим прорывом в нескольких сферах одновременно. Новый графический адаптер от 3Dfx имел уникальный дизайн помимо центрального чипа на плате были два спаренных текстурных обработчика, благодаря чему карта была не только трехчиповой, но и обеспечивала возможность мультитекстурной обработки в OpenGL (когда на пиксель накладывались две текстуры одновременно, ускоряя общую прорисовку сцены), чего прежде никогда не использовалось. Как и оригинальная Voodoo, карта работала исключительно в режиме 3D, но в отличие от конкурентов, совмещавших в одном чипе 2D и 3D-обработку, 3Dfx не шла ни на какие компромиссы, преследуя главную цель отстоять позиции лидера рынка.

Профессиональные версии нового адаптера не заставили себя долго ждать дочерняя компания 3Dfx Quantum3D выпустила три примечательных акселератора на базе новинки двухчиповой Obsidian2 X-24, которую можно было использовать в паре с 2D-платой, SB200/200Sbi с 24 Мб памяти EDO на борту, а также Mercury Heavy Metal экзотический бутерброд, в котором спаренные 200Sbi соединялись между собой контактной платой Aalchemy, в будущем ставшей прототипом знаменитого SLI-мостика NVidia.

image
Mercury Heavy Metal

Последний вариант предназначался для проведения сложных графических симуляций, и был доступен по космической цене в $9999. Для полноценной работы монстр MHM требовал серверной материнской платы серии Intel BX или GX с четырьмя слотами PCI.

Понимая важность контроля над бюджетным рынком уже в июне 1998 года 3Dfx представила Voodoo Banshee первый графический ускоритель с поддержкой 2D и 3D режимов работы. Вопреки ожиданиям и надеждам ставший легендарным чип Rampage так и не был готов, а на борту карта имела всего один блок обработки текстур, практически уничтоживший производительность новинки в мультиполигональном рендеринге Voodoo 2 была в разы быстрее. Но даже если экономичное производство с узнаваемым брендом и обеспечили Banshee хорошие продажи, то разочарование фанатов никуда не исчезло от создателей той самой Voodoo, в одночасье перевернувшей графический рынок, ожидали куда большего.

К тому же, несмотря на лидерство Voodoo 2, отрыв от конкурентов стремительно сокращался. Навязав ATI и NVidia серьезную конкуренцию, 3Dfx сталкивалась всё и новыми и новыми передовыми решениями, и лишь благодаря эффективному менеджменту (3Dfx производила и продавала карты сама, без участия партнеров) компания получала значительную прибыль с продаж. Но руководство 3Dfx видело массу возможностей в приобретении собственных фабрик по производству кремниевых пластин, поэтому компания выкупила STB Technologies за $131 миллион с расчётом на радикальное сокращение стоимости производства и навязывание конкуренции поставщикам Nvidia (TSMC) и ATI (UMC). Эта сделка стала роковой в истории 3Dfx мексиканские фабрики STB безнадежно отставали по качеству продукции от азиатских конкурентов, и никак не могли конкурировать в гонке за техпроцесс.

После того, как стало известно о приобретении STB Technologies, большинство партнеров 3Dfx не поддержали сомнительное решение, и перешли на продукты NVidia.

Nvidia TNT Заявка на техническое лидерство


И причиной для этого стала представленная Nvidia 23 марта 1998 года Riva TNT. Добавив параллельный пиксельный конвейер в архитектуру Riva, инженеры удвоили скорость отрисовки и рендеринга, что вкупе с 16 Мб памяти формата SDR значительно увеличило производительность. Voodoo 2 использовала куда более медленную память EDO и это давало новинке от Nvidia серьезное преимущество. Увы, техническая сложность чипа имела свои плоды из-за аппаратных ошибок при производстве 350-нм чип TSMC не работал на задуманных инженерами 125 МГц частота часто падала до 90 МГц, из-за чего Voodoo 2 смогла сохранить звание формального лидера по производительности.

Но даже при всех недостатках TNT была впечатляющей новинкой. Благодаря использованию двухканальной AGP-шины карта обеспечивала поддержку игровых разрешений до 1600х1200 при 32-битном цвете (и 24-битном Z-буфере для обеспечения глубины изображения). На фоне 16-битной Voodoo 2 новинка от nVidia выглядела настоящей революцией в графике. И хотя TNT не была лидером в бенчмарках, она оставалась опасно близкой к Voodoo 2 и Voodoo Banshee, предлагая больше новых технологий, лучшее скалирование с частотой процессора и более высокое качество обработки 2D и текстур благодаря прогрессивной AGP-шине. Единственным минусом, как и в случае с Rage 128, были задержки в поставках большое количество адаптеров появилось в продаже только осенью, в сентябре 1998 года.

Другим пятном на репутации Nvidia в 1998 году стал иск компании SGI, согласно которому NVidia нарушила права на патент внутренней технологии текстур-маппинга. По итогу судебных разбирательств, продлившихся целый год, было заключено новое соглашение, согласно которому NVidia получала доступ к технологиям SGI, а SGI получала возможность использовать наработки Nvidia. При этом графической подразделение самой SGI было расформировано, что только пошло на пользу будущему графическому лидеру.

Number Nine Шаг в сторону


Тем временем 16 июня 1998 года ОЕМ-производитель графических решений Number Nine решил попытать счастья на рынке графических адаптеров, выпустив карту Revolution IV под собственным брендом.
Сильно отставая по производительности от флагманских решений ATI и Nvidia, Number Nine сделала акцент на бизнес-сектор, предложив крупным компаниям то, в чем были слабы классические карты для игр и 3D-графики поддержку высоких разрешений в 32-битном цвете.
Чтобы завоевать интерес крупных компаний, Number Nine интегрировала проприентарный 36-пиновый разъем OpenLDI в свою Revolution IV-FP, и продавала плату в комплекте с 17.3 дюймовым монитором SGI 1600SW (с поддержкой разрешения 1600х1024). Набор стоил $2795.
Особого успеха предложение не снискало, и Number Nine вернулась к выпуску партнерских карт S3 и Nvidia, пока не была куплена S3 в декабре 1999, а затем продана бывшим инженерам компании, сформировавшим Silicon Spectrum в 2002 году.

S3 Savage3D Бюджетная альтернатива Voodoo и TNT за $100


Бюджетный чемпион в лице S3 Savage дебютировал в рамках E3 1998, и в отличие от многострадальных доминаторов сегментом выше (Voodoo Banshee и Nvidia TNT) попал на полки магазинов уже через месяц после анонса. К сожалению, спешка не могла пройти незаметно драйвера были сырыми, а поддержка OpenGL была реализована только в Quake, ведь проигнорировать одну из самых популярных игр года S3 себе позволить не могла.

С частотами S3 Savage также было не всё гладко. Из-за производственных недочетов и высокого энергопотребления референсные модели адаптера сильно грелись, и не обеспечивали задуманного порога частоты в 125 МГц частота обычно плавала между значениями в 90 и 110 МГц. При этом обозреватели из лидирующих изданий получили на руки инженерные образцы, исправно работавшие на 125 МГц, что обеспечило красивые цифры во всевозможных бенчмарках вместе с похвалами профильной прессы. Позже, в партнерских моделях ранние проблемы были решены Savage3D Supercharged стабильно работала на 120 МГц, а Terminator BEAST (Hercules) и Nitro 3200 (STB) покорили заветную планку в 125 МГц. Несмотря сырые драйвера и посредственную производительность на фоне лидеров большой тройки демократичная цена в пределах $100 и возможность качественного воспроизведения видео позволили S3 получить неплохие продажи.

1997 и 1998 годы стали очередным периодом поглощений и банкротств многие компании не выдержали конкуренции в гонке за производительностью, и были вынуждены уйти из отрасли. Так за бортом остались Cirrus Logic, Macronix, и Alliance Semiconductor, тогда как Dynamic Pictures была продана 3DLabs, Tseng Labs и Chromatic Research оказались выкуплены ATI, Rendition ушла Micron, AccelGraphics приобрели Evans & Sutherland, а Chips and Technologies стали частью Intel.

Trident, S3 и SiS Последняя битва тысячелетия за бюджетную графику


ОЕМ-рынок всегда был последней соломинкой для производителей, безнадежно отставших от конкурентов в работе с 3D-графикой и чистой производительностью. Таким он был и для компании SiS, выпустившей бюджетную SiS 300 для нужд бизнес-сектора. Несмотря на плачевную производительность в 3D (ограниченную единственным пиксельным конвейером) и безнадежное отставание в 2D от всех конкурентов мейнстрим-рынка, SiS 300 покорила OEM-производителей определенными преимуществами 128-битной шиной памяти (64-битной в случае более упрощенной SiS 305), поддержкой 32-битного цвета, DirectX 6.0 (и даже 7.0 в случае с 305), поддержкой мультитекстурного рендера и аппаратного декордирования MPEG2. Был у графической карты и ТВ-выход.

В декабре 2000 года свет увидела модернизированная SiS 315, где появился второй пиксельный конвейер и 256 битная шина, а также полная поддержка DirectX 8.0 и полноэкранного сглаживания. Карта получила новый движок обработки освещения и текстур, компенсацию задержек при проигрывании видео с DVD-носителей и поддержку разъема DVI. Уровень производительности находился в районе GeForce 2 MX 200, но это ничуть не смущало компанию.

Попала SiS 315 и на ОЕМ-рынок, но уже в составе чипсета SiS 650 для материнских плат на сокете 478 (Pentium IV) в сентябре 2001, а также как часть SoC-системы SiS552 в 2003.

Но SiS была далеко не единственным производителем, предлагавшим интересные решения в бюджетном сегменте. Trident также боролась за внимание покупателей с Blade 3D, общая производительность которой была на уровне провальной Intel i740, но цена в $75 с лихвой перекрывала многие недостатки. Позже на рынок вышла Blade 3D Turbo, в которой частоты поднялись со 110 до 135 МГц, а общая производительность вышла на уровень i752. К сожалению, Trident разрабатывала свои решения слишком долго для рынка, где новинки презентовали каждые пару месяцев, поэтому уже в апреле 2000 года это нанесло первый удар по компании VIA, для которой Trident разрабатывали встроенную графику, приобрела компанию S3, и прекратила сотрудничество с прежним партнером.

Впрочем, Trident использовала свою бизнес-модель в максимально выгодном ключе, сочетая массовые поставки и низкую стоимость производства своих бюджетных решений. Мобильный сектор рынка оставался относительно свободным, и специально для него в Trident разработали несколько моделей Blade3D Turbo T16 и T64 (работающих на частоте 143 МГц) и XP (работавшей на частоте 165 МГц). А вот приглянувшийся многим компаниям OEM-рынок уже не был благосклонен к простоте Trident вышедшая чуть позже SiS 315 поставила шах и мат всей линейке продуктов Trident. Не имея возможности быстро разработать достойную альтернативу, в Trident приняли решение продать графическое подразделение дочке SiS компании XGI в 2003 году.

Особняком среди прочих решений в бюджетном секторе стояла S3 Savage4. Анонсированная в феврале и поступившая в продажу в мае 1999 года, новинка предлагала 16 и 32 Мб памяти на борту, 64-битную четырехканальную шину AGP и собственную технологию сжатия текстур, благодаря которой адаптер мог обрабатывать блоки разрешением вплоть до 2048х2048 без особых затруднений (хотя это и было реализовано ранее в Savage3D). Умела карта проводить и мультитекстурный рендеринг, но даже отлаженные драйвера и впечатляющие технические характеристики не могли скрыть того факта, что прошлогодние предложения от 3Dfx, Nvidia и ATI были значительно производительнее. И такое положение вещей повторилось год спустя, когда на рынок вышла Savage 2000. В низких разрешениях (1024х768 и менее) новинка могла потягаться с Nvidia TNT и Matrox G400, но при выборе более высокого разрешения расстановка сил радикально менялась.

3Dfx Voodoo3 Пафос, шум и пустые оправдания


3Dfx не могла допустить, чтобы их новинка затерялась на фоне прогрессирующих конкурентов, поэтому премьера Voodoo3 в марте 1999 года сопровождалась обширной рекламной кампанией карту ярко продвигали в прессе и по телевидению, а смелое оформление коробки притягивало взгляды потенциальных покупателей, мечтавших о новой графической революции.

image

Увы, ставший притчей во языцех чипсет Rampage всё еще не был готов, и архитектурно новинка представляла собой родственника Voodoo2 на основе чипа Avenger. Архаичные технологии вроде поддержки исключительно 16-битного цвета и разрешения текстур всего в 256х256 не порадовали поклонников бренда как и полное отсутствие поддержки аппаратной обработки освещения и геометрии. Многие производители уже ввели моду на текстуры высокого разрешения, мультиполигональный рендеринг и 32-битный цвет, поэтому 3dfx впервые оказалась в числе отстающих по всем параметрам.

Инвесторам убытки в $16 миллионов пришлось объяснять недавним землетрясением в Тайване, которое, однако, почти не отразилось на финансовых успехах ATI и Nvidia. Понимая очевидные преимущества свободного распространения библиотек DirectX и OpenGL, компания еще в декабре 1998 года объявила о том, что их API Glide будет доступен как open-source. Правда, на тот момент желающих едва ли было слишком много.

Riva TNT2 и G400 Конкуренты впереди


Одновременно с пафосной премьерой Voodoo3 от 3Dfx Nvidia скромно представила свою RIVA TNT 2 (с первыми в своей истории картами серии Ultra, где геймеры получали более высокие частоты ядра и памяти), а Matrox презентовала не менее впечатляющую G400.
Riva TNT2 производилась по 250 нм технологии на фабриках TSMC, и смогла обеспечить Nvidia беспрецедентный уровень производительности. Новинка разгромила Voodoo3 практически везде исключением стали лишь несколько игр, в которых использовалась технология AMD 3DNow! В сочетании с OpenGL. Не отстала Nvidia и в плане технологий на картах серии TNT2 присутствовал DVI-разъем для поддержки новейших мониторов с плоским экраном.

Настоящей неожиданностью для всех стала Matrox G400, которая оказалась еще более производительной, чем TNT2 и Voodoo3, отставая лишь в играх и приложениях с использованием OpenGL. За свою демократичную цену в $229 новинка от Matrox предлагала отличное качество изображения, завидную производительность и возможность подключения двух мониторов через спаренный разъем DualHead. Второй монитор был ограничен разрешением в 1280х1024, но сама идея многим пришлась по душе.

Для G400 также была реализована технология рельефного текстурирования (Environment Mapped Bump Mapping, EMBM) для повышения общего качества прорисовки текстур. Для тех, кто всегда предпочитал приобретать лучшее, существовала G400 MAX, носившая титул самой производительной карты на рынке вплоть до выхода GeForce 256 с DDR-памятью в начале 2000 года.

Matrox Parhelia и 3DLabs Permedia Последние посредственности


Большой успех на рынке игровых графических ускорителей не слишком вдохновил Matrox, которая вернулась на профессиональный рынок, лишь однажды соблазнившись повторить успех G400 с Parhelia, но в 2002 году конкуренты уже вовсю осваивали DirectX 9.0, а поддержка трех мониторов одновременно меркла на фоне плачевной игровой производительности.
Когда публика уже успела переварить громкие релизы трех компаний, 3DLabs представила давно заготовленную Permedia 3 Create! Главной особенностью новинки было нишевое позиционирование 3DLabs рассчитывали привлечь внимание профессионалов, предпочитающих коротать свободное время в играх. Компания сделала акцент на высокую производительность в 2D, и привлекла к проекту специалистов из приобретенной в 1998 году Dynamic Pictures, авторов профессиональной линейки адаптеров Oxygen.

К несчастью для 3DLabs, в профессиональных картах приоритетом было сложнополигональное моделирование, и зачастую высокая производительность в этом направлении обеспечивалась серьезным снижением скорости обработки текстур. Игровые адаптеры с приоритетом в 3D работали с точностью до наоборот вместо сложных вычислений во главу угла ставилась скорость рендеринга и обработки текстур с высоким качеством изображения.

Значительно отставая от Voodoo3 и TNT 2 в играх, и не слишком опережая конкурентов в рабочих приложениях и задачах, Permedia оказалась последней попыткой 3DLabs выпустить продукт на рынок игровых адаптеров. Далее знаменитые графические инженеры продолжали расширение и поддержку своих специализированных линеек GLINT R3 и R4 на архитектуре Oxygen, где изобилие моделей варьировалось от бюджетных VX-1 за $299 до премиальных GVX 420 за $1499.

Была в репертуаре компании и линейка адаптеров Wildcat, основанная на разработках Intense3D, купленной у Integraph в июле 2000 года. В 2002 году когда 3DLabs активно заканчивала разработку передовых графических чипов для новых адаптеров Wildcat, компанию выкупила Creative Technology со своими планами на линейки P9 и P10.

В 2006 году компания покинула рынок настольных компьютеров, сосредоточившись на решениях для медиа-рынка, а позже вошла в состав Creative SoC, и стала известна как ZiiLab. История 3DLabs окончательно закончилась в 2012 году, когда компанию купила Intel.

ATI Rage MAXX Двухчиповое безумие в роли отстающего


С момента выхода успешной Rage 128 ATI испытывала ряд трудностей с дальнейшим развитием линейки. В конце 1998 года инженерам удалось успешно реализовать поддержку шины AGP 4x в обновленной версии адаптера Rage 128 Pro, дополнив число разъемов ТВ-выходом. В целом графический чип показывал себя примерно на уровне TNT 2 в плане игровой производительности, однако после выпуска TNT 2 Ultra первенство вновь перешло к Nvidia, с чем канадцы мириться не хотели, началась работа над Project Aurora.

Когда стало очевидно, что гонка за производительностью проиграна, инженеры прибегли к трюку, который в будущем станет одной из особенностей многих поколений красных карт они выпустили Rage Fury MAXX, двухчиповую графическую карту, на плате которой трудились две Rage 128 Pro.

image
Rage Fury MAXX

Внушительные спецификации и возможность параллельной работы двух чипов сделали карту с одиозным названием достаточно продуктивным решением, и вывели ATI вперед, долго лидерство удерживать не удалось. За титул лучших боролась даже S3 Savage 2000, а представленная позже GeForce 256 с DDR-памятью не оставила флагману ATI никаких шансов несмотря на угрожающие цифры и прогрессивные технологии. Nvidia понравилось быть первой, и уступать место лидера рынка юный Дженсен Хуанг совсем не торопился.

GeForce 256 первая настоящая видеокарта. Рождение термина GPU


Не прошло и двух месяцев с момента, как ATI наслаждалась пирровой победой в бенчмарках с анонсом Rage Fury MAXX, когда Nvidia представила ответ, закрепивший за компанией статус лидера рынка GeForce 256. Новинка первой в истории выходила с разными типами видеопамяти 1 октября 1999 года свет увидела версия с чипами SDR, а уже 1 февраля 2000 года начались продажи обновленной версии с памятью типа DDR.

image
GeForce 256 DDR

Графический чип из 23 миллионов транзисторов изготавливался на фабриках TSMC по 220 нм техпроцессу, но, что куда более важно, именно GeForce 256 стала первым графическим адаптером, получивший название видеокарта. Заметили, как тщательно мы избегали этого термина на протяжении всего повествования? Смысл неловких замен был именно в этом. Термин GPU (Graphics Processing Unit, чип обработки графики) появился благодаря интеграции отдельных прежде конвейеров обработки текстур и освещения в качестве составной части чипа.

Широкие возможности архитектуры позволяли графическому чипу видеокарты проводить тяжелые вычисления в операциях с плавающей запятой, преобразовывая сложные массивы 3D-объектов и составных сцен в красивую 2D-презентацию для впечатленного игрока. Прежде все подобные сложные вычисления проводил центральный процессор компьютера, что служило серьезным ограничением детализации в играх.

Статус GeForce 256 как пионера в использовании программных шейдеров с поддержкой технологии трансформации и освещения (T&L) часто подвергался сомнению. Другие производители графических ускорителей уже внедряли поддержку T&L в прототипах (Rendition V4400, BitBoys Pyramid3D и 3dfx Rampage), или на стадии сырых, но работоспособных алгоритмов (3DLabs GLINT, Matrox G400), или в качестве функции, реализованной дополнительным чипом на плате (геометрический процессор Fujitsu на борту Hercules Thriller Conspiracy).

Тем не менее, ни один из вышеперечисленных примеров не вывел технологию на этап коммерческой реализации. Nvidia первой реализовала трансформацию и освещение в качестве архитектурных преимуществ чипа, подарив GeForce 256 то самое конкурентное преимущество и открыв для компании прежде скептически настроенный профессиональный рынок.
И интерес профессионалов был вознагражден всего через месяц после выхода геймерских видеокарт NVidia презентовала первые видеокарты линейки Quadro модели SGI VPro V3 и VR3. Как можно догадаться из названия, карты были разработаны с применением проприетарных технологий компании SGI, договор с которой Nvidia заключила летом 1999 года. Иронично, что немного позже SGI пыталась отсудить у Nvidia свои разработки, но потерпела неудачу, оказавшись на грани банкротства.

Nvidia завершила последний финансовый год уходящего тысячелетия ярко прибыль в размере $41.3 миллиона при общем обороте в $374.5 миллиона порадовала инвесторов. По сравнению с 1998 годом прибыль выросла на порядок, а общие обороты более чем вдвое. Вишенкой на торте для Дженсена Хуанга стал контракт с Microsoft на сумму $200 млн, в рамках которого NVidia разработала чип NV2 (графическое ядро для будущей консоли Xbox), увеличив общие активы компании до $400 млн при выходе на биржу в апреле 2000 года.

Конечно, в сравнение с $1.2 миллиардами оборота и $156 миллионами чистой прибыли ATI цифры набирающего обороты конкурента казались скромными, но канадский производитель видеокарт не почивал на лаврах, ведь щедрые контракты ОЕМ-рынка оказались под угрозой из-за выхода прогрессивной интегрированной графики от Intel чипсета 815.

А впереди было падение великих. И начало новой эры в гонке за производительностью.

Автор текста Александр Лис.

Продолжение следует...

Плейлист Графические войны на YouTube:
image
Подробнее..

Нужно ли устанавливать радиаторы на NVMe-накопители?

15.10.2020 08:09:44 | Автор: admin


За последние несколько лет стоимость 2,5-дюймовых твердотельных накопителей снизилась практически до уровня жестких дисков. Теперь на смену SATA-решениям приходят NVMe-накопители, работающие по шине PCI Express. За период 2019-2020 года мы также наблюдаем снижение стоимости на эти устройства, так что на текущий момент они незначительно дороже своих SATA-собратьев.

Главное же их преимущество в том, что такие хранилища данных намного компактнее (как правило, это типоразмер 2280 82,2 см) и быстрее традиционных SATA SSD. Впрочем, есть и нюанс: с расширением пропускной способности и ростом скорости передачи данных, увеличивается и нагрев компонентной базы накопителей, работающих по протоколу NVMe. В особенности, ситуация с сильным нагревом и последующим троттлингом типична для устройств бюджетных брендов, которые вызывают у пользователей больший интерес своей ценовой политикой. Вместе с этим добавляется головная боль по части организации грамотного охлаждения в системном блоке: в ход идут дополнительные кулеры и даже специальные радиаторы для отвода тепла от чипов M.2-накопителей.

В комментариях пользователи неоднократно спрашивают у нас про температурные параметры накопителей Kingston: нужно ли на них устанавливать радиаторы или продумывать иную систему теплоотвода? Мы решили разобраться в этом вопросе: ведь действительно NVMe-накопители Kingston (например, A2000, КС2000, КС2500) предлагаются без радиаторов в комплекте. Нужен ли им сторонний теплоотвод? Достаточно ли оптимизирована работа этих накопителей, чтобы не заморачиваться покупкой радиатора? Давайте разбираться.

В каких случаях NVMe-накопители сильно нагреваются и чем это грозит?


Что ж, как мы уже отметили выше, огромная пропускная способность, зачастую, приводит к сильному нагреву контроллеров и чипов памяти NVMe-накопителей при длительной и активной нагрузке (например, при выполнении операций записи большого массива данных). К тому же NVMe SSD потребляют довольно большое количество энергии для работы, и чем больше энергии им требуется, тем сильнее нагрев. Стоит, однако, понимать, что вышеупомянутые операции записи требуют больше количества энергии нежели операции чтения. Поэтому, например, при чтении данных из файлов установленной игры накопитель греется меньше, чем при записи на него большого количества информации.



Как правило, термическое дросселирование начинается в диапазоне от 80 C до 105 C, и это чаще всего достигается при длительной записи файлов в память NVMe-накопителя. Если вы не производите запись в течение 30 минут, вы вряд ли увидите какое-либо снижение производительности, даже не используя радиатор.

Но допустим, что нагрев накопителя все-таки норовит выйти за пределы нормы. Чем это может грозить пользователю? Разве что падением скорости передачи данных, ведь в случае сильного нагрева у NVMe SSD активируется режим пропуска очередей записи для разгрузки контроллера. При этом производительность снижается, но SSD не перегревается. Такая же схема работает в процессорах, когда при чрезмерном нагреве CPU пропускает такты. Но в случае с процессором, пропуски не будут столь заметны пользователю, как с SSD. Нагревшись выше предусмотренного инженерами порога, накопитель начнет пропускать слишком много тактов и вызовет фризы в работе операционной системы. Но вот получится ли в повседневных сценариях использования создать такие проблемы своему устройству?

Как обстоит дело с нагревом в реальных сценариях использования?


Допустим, что мы решили записать на NVMe-накопитель 100 или 200 Гбайт данных. И взяли для этой процедуры Kingston KC2500, средняя скорость записи у которого составляет 2500 Мбайт/с (согласно нашим тестовым замерам). В случае с файлами, емкостью 200 Гбайт потребуется в среднем 81 секунда, а в случае с сотней гигабайт всего 40 секунд. За это время накопитель нагреется в рамках допустимых значений (об этом поговорим чуть ниже), и не покажет критических температур и падения производительности, не говоря уж о том, что вы вряд ли будете оперировать столь объемными данными в повседневности.



Как ни крути, а в условиях домашней эксплуатации NVMe-решений операции чтения значительно превалируют перед операциями записи данных. А, как мы уже отметили выше, именно запись данных нагружает чипы памяти и контроллер больше всего. Это и объясняет отсутствие суровых требований к охлаждению. К тому же, если говорить о Kingston KC2500, следует напомнить, что данная модель предусматривает работу при максимальной нагрузке без дополнительного активного или пассивного охлаждения. Достаточным условием отсутствия троттлинга является вентиляция внутри корпуса, что неоднократно подтверждается нашими измерениями и тестами отраслевых СМИ.

Каков допустимый нагрев у NVMe-накопителей Kingston?


В Интернете есть много исследований и публикаций, которые рассказывают читателям, что оптимальная температура нагрева NVMe-решений не должна превышать 50 C. Мол, лишь в этом случае накопитель отработает положенный ему срок. Чтобы развеять этот миф, мы обратились непосредственно к инженерам Kingston, и выяснили вот что. Допустимый диапазон рабочих температур для накопителей компании составляет от 0 до 70 C.

Какой-то золотой цифры, при которой NAND меньше умирает нет, а источникам, которые приводят оптимальную температуру нагрева на уровне 50 C доверять не стоит, рассказывают специалисты, Главное не допускать длительного перегрева выше 70 C. И даже в этом случае NVMe SSD может самостоятельно решить проблему сильного нагрева, путем снижения производительности, пропуская такты (о чем мы и упомянули выше).

В целом твердотельные накопители Kingston весьма выверенные решения, которые проходят множество тестов на надежность в эксплуатации. В наших измерениях они показали соответствие заявленному температурному диапазону, что допускает их использование без радиаторов. Перегреваться они могут лишь в очень специфических ситуациях: например, если у вас неграмотно устроено охлаждение в системном блоке. Но в этом случае вам нужен не радиатор, а продуманный подход к отводу горячего воздуха из системника в целом.

Температурные параметры Kingston КС2500



При длительной последовательной записи информации на пустой накопитель Kingston КС2500 (1 Тбайт), установленный в материнскую плату ASUS ROG Maximus XI Hero, нагрев устройства без радиатора достигает 68-72 C (в холостом режиме работы 47 C). Установка же радиатора, который идет в комплекте с системной платой, позволяет значительно снизить температуру нагрева до 53-55 C. Но стоит учитывать, что в данном тесте накопитель был не очень удачно расположен: в непосредственной близости к видеокарте, поэтому радиатор пришелся кстати.

Температурные параметры Kingston A2000

У накопителя Kingston A2000 (1 Тбайт) температурные показатели в холостом режиме работы составляют 35 C (в закрытом стенде без радиатора, но с хорошей продувкой из четырех кулеров). Нагрев при тестировании бенчмарками при имитации последовательного чтения и записи не превышал 59 C. Кстати, тестировали мы его на материнской плате ASUS TUF B450-M Plus, у которой вообще нет комплектного радиатора для охлаждения NVMe-решений. И даже при этом накопитель не испытывал сложностей в работе и не достигал критических температур, которые могли бы повлиять на снижение его производительности. Как видите, в данном случае в применении радиатора попросту нет необходимости.

Температурные параметры Kingston КС2000



И еще один протестированный нами накопитель это Kingston KC2000 (1 Тбайт). При полной нагрузке в закрытом корпусе и без радиатора, устройство нагревается до 74 C (в холостом режиме 38 C). Но в отличие от сценария теста модели A2000, корпус тестовой сборки для измерения характеристик KC2000 не был оборудован дополнительным массивом корпусных кулеров. В данном случае это была тестовая станция со штатным корпусным вентилятором, процессорным кулером и системой охлаждения видеокарты. И, конечно же, нужно принимать во внимание, что тестирование бенчмарками подразумевает длительное воздействие на накопитель, что в повседневных сценариях использования особо и не происходит.

Если все же очень хочется: как установить радиатор на NVMe-накопитель, не нарушая гарантии?


Мы уже убедились, что к накопителям Kingston достаточно естественной вентиляции внутри системного блока для стабильной работы без перегревов компонентов. Тем не менее, есть пользователи, которые ставят радиаторы в качестве решения для моддинга или просто желают перебдеть, снизив температуру нагрева. И здесь они сталкиваются с интересной ситуацией.

Как вы заметили, накопители компании Kingston (и других брендов тоже) снабжены информационной наклейкой, которая расположена аккурат поверх чипов памяти. Возникает вопрос: как же установить термопрокладку радиатора на такую конструкцию? Не будет ли наклейка ухудшать теплоотвод?



В Интернете можно найти много советов на тему того, что наклейку нужно оторвать (при этом вы лишаетесь гарантии на накопитель, а у Kingston она составляет до 5 лет между прочим) и разместить вместо нее термоинтерфейс. Встречаются даже советы на тему Как снять наклейку с помощью теплового пистолета, если она ни в какую не хочет отрываться от компонентов накопителя.

Сразу предупреждаем: так делать не надо! Наклейки на накопителях сами по себе выполняют роль термоинтерфейсов (а некоторые даже имеют медную фольгированную основу), поэтому термопрокладку можете смело устанавливать поверх. В случае с Kingston КС2500 мы особо не мудрили и использовали термопрокладку от комплектного радиатора материнской платы ASUS ROG Maximus XI Hero. То же самое можно сделать при наличии кастомного радиатора.

Нужны ли твердотельным накопителям NVMe радиаторы?


Нужны ли NVMe-накопителям радиаторы? В случае с накопителями Kingston нет! Как показали проведенные нами тесты, NVMe SSD Kingston не показывают критических температур в повседневном использовании.



Тем не менее, если вам хочется использовать радиатор в качестве дополнительного украшательства для системного блока, вы вольны применять комплектные теплоотводники материнских плат или поискать стильные варианты послепродажного обслуживания от сторонних производителей.

С другой стороны, если заведомо известно, что внутри корпуса вашего ПК температура нагрева компонентов всегда высокая (близка к 70 C), то радиатор будет исполнять роль уже не только декора. Однако в этом случае мы рекомендуем комплексно поработать над корпусной системой охлаждения, а не надеяться на одни лишь радиаторы.

Для получения дополнительной информации о продуктах Kingston Technology обращайтесь на официальный сайт компании.
Подробнее..

RAID-массивы на NVMe

17.10.2020 14:04:36 | Автор: admin

В данной статье мы расскажем про разные способы организации RAID-массивов, а также покажем один из первых аппаратных RAID-контроллеров с поддержкой NVMe.

Все разнообразие применений технологии RAID встречается в серверном сегменте. В клиентском сегменте чаще всего используется исключительно программный RAID0 или RAID1 на два диска.

В этой статье будет краткий обзор технологии RAID, небольшая инструкция по созданию RAID-массивов с помощью трех разных инструментов и сравнение производительности виртуальных дисков при использовании каждого из способов.

Что такое RAID?


Википедия дает исчерпывающее определение технологии RAID:
RAID (англ. Redundant Array of Independent Disks избыточный массив независимых (самостоятельных) дисков) технология виртуализации данных для объединения нескольких физических дисковых устройств в логический модуль для повышения отказоустойчивости и производительности.
Конфигурация дисковых массивов и используемые при этом технологии зависят от выбранного уровня RAID (RAID level). Уровни RAID стандартизированы в спецификации Common RAID Disk Data Format. Она описывает множество уровней RAID, однако самыми распространенными принято считать RAID0, RAID1, RAID5 и RAID6.

RAID0, или Stripes, это уровень RAID, который объединяет два или более физических диска в один логический. Объем логического диска при этом равен сумме объемов физических дисков, входящих в массив. На этом уровне RAID отсутствует избыточность, а выход из строя одного диска может привести к потере всех данных в виртуальном диске.

Уровень RAID1, или Mirror, создает идентичные копии данных на двух и более дисках. Объем виртуального диска при этом не превышает объема минимального из физических дисков. Данные на виртуальном диске RAID1 будут доступны, пока хотя бы один физический диск из массива работает. Использование RAID1 добавляет избыточности, но является достаточно дорогим решением, так как в массивах из двух и более дисков доступен объем только одного.

Уровень RAID5 решает проблему дороговизны. Для создания массива с уровнем RAID5 необходимо как минимум 3 диска, при этом массив устойчив к выходу из строя одного диска. Данные в RAID5 хранятся блоками с контрольными суммами. Нет строгого деления на диски с данными и диски с контрольными суммами. Контрольные суммы в RAID5 это результат операции XOR, примененной к N-1 блокам, каждый из которых взят со своего диска.
Хотя RAID-массивы повышают избыточность и предоставляют резервирование, они не подходят для хранения резервных копий.
После краткого экскурса по видам RAID-массивов можно переходить к устройствам и программам, которые позволяют собирать и использовать дисковые массивы.

Виды RAID-контроллеров


Существует два способа создать и использовать RAID-массивы: аппаратный и программный. Мы рассмотрим следующие решения:

  • Linux Software RAID.
  • Intel Virtual RAID On CPU.
  • LSI MegaRAID 9460-8i.

Отметим, что решение Intel работает на чипсете, из-за чего возникает вопрос, аппаратное это решение или программное. Так, например, гипервизор VMWare ESXi считает VROC программным и не поддерживает официально.

Linux Software RAID


Программные RAID-массивы в семействе ОС Linux достаточно распространенное решение как в клиентском сегменте, так и в серверном. Все, что нужно для создания массива, утилита mdadm и несколько блочных устройств. Единственное требование, которое предъявляет Linux Software RAID к используемым накопителям, быть блочным устройством, доступным системе.

Отсутствие затрат на оборудование и программное обеспечение очевидное преимущество данного способа. Linux Software RAID организует дисковые массивы ценой процессорного времени. Список поддерживаемых уровней RAID и состояние текущих дисковых массивов можно посмотреть в файле mdstat, который находится в корне procfs:

root@grindelwald:~# cat /proc/mdstat Personalities : [linear] [multipath] [raid0] [raid1] [raid10] unused devices: <none>

Поддержка уровней RAID добавляется подключением соответствующего модуля ядра, например:

root@grindelwald:~# modprobe raid456root@grindelwald:~# cat /proc/mdstat Personalities : [linear] [multipath] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] unused devices: <none>

Все операции с дисковыми массивами производятся через утилиту командной строки mdadm. Сборка дискового массива производится в одну команду:

mdadm --create --verbose /dev/md0 --level=1 --raid-devices=2 /dev/nvme1n1 /dev/nvme2n1

После выполнения этой команды в системе появится блочное устройство /dev/md0, которое представляет из тебя виртуальный диск.

Intel Virtual RAID On CPU


Intel VROC Standard Hardware Key
Intel Virtual RAID On CPU (VROC) это программно-аппаратная технология для создания RAID-массивов на базе чипсетов Intel. Данная технология доступна в основном для материнских плат с поддержкой процессоров Intel Xeon Scalable. По умолчанию VROC недоступен. Для его активации необходимо установить аппаратный лицензионный ключ VROC.

Стандартная лицензия VROC позволяет создавать дисковые массивы с 0, 1 и 10 уровнями RAID. Премиальная версия расширяет этот список поддержкой RAID5.

Технология Intel VROC в современных материнских платах работает совместно с Intel Volume Management Device (VMD), которая обеспечивает возможность горячей замены для накопителей с интерфейсов NVMe.

Intel VROC со стандартной лицензией
Настройка массивов производится через Setup Utility при загрузке сервера. На вкладке Advanced появляется пункт Intel Virtual RAID on CPU, в котором можно настроить дисковые массивы.

Создание массива RAID1 на двух накопителях
Технология Intel VROC имеет свои козыри в рукаве. Дисковые массивы, собранные с помощью VROC, совместимы с Linux Software RAID. Это означает, что состояние массивов можно отслеживать в /proc/mdstat, а администрировать через mdadm. Эта особенность официально поддерживается Intel. После сборки RAID1 в Setup Utility можно наблюдать синхронизацию накопителей в ОС:

root@grindelwald:~# cat /proc/mdstat Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] md126 : active raid1 nvme2n1[1] nvme1n1[0]      1855832064 blocks super external:/md127/0 [2/2] [UU]      [>....................]  resync =  1.3% (24207232/1855832064) finish=148.2min speed=205933K/sec      md127 : inactive nvme1n1[1](S) nvme2n1[0](S)      10402 blocks super external:imsm       unused devices: <none>

Отметим, что через mdadm нельзя собирать массивы на VROC (собранные массивы будут Linux SW RAID), но можно менять в них диски и разбирать массивы.

LSI MegaRAID 9460-8i


Внешний вид контроллера LSI MegaRAID 9460-8i
RAID-контроллер является самостоятельным аппаратным решением. Контроллер работает только с накопителями, подключенными непосредственно к нему. Данный RAID-контроллер поддерживает до 24 накопителей с интерфейсом NVMe. Именно поддержка NVMe выделяет этот контроллер из множества других.

Главное меню аппаратного контроллера
При использовании режима UEFI настройки контроллера интегрируются в Setup Utility. В сравнении с VROC меню аппаратного контроллера выглядит значительно сложнее.

Создание RAID1 на двух дисках
Объяснение настройки дисковых массивов на аппаратном контроллере является достаточно тонкой темой и может стать поводом для полноценной статьи. Здесь же мы просто ограничимся созданием RAID0 и RAID1 с настройками по умолчанию.

Диски, подключенные в аппаратный контроллер, не видны операционной системе. Вместо этого контроллер маскирует все RAID-массивы под SAS-накопители. Накопители, подключенные в контроллер, но не входящие в состав дискового массива, не будут доступны ОС.

root@grindelwald:~# smartctl -i /dev/sdasmartctl 7.1 2019-12-30 r5022 [x86_64-linux-5.4.0-48-generic] (local build)Copyright (C) 2002-19, Bruce Allen, Christian Franke, www.smartmontools.org=== START OF INFORMATION SECTION ===Vendor:               AVAGOProduct:              MR9460-8iRevision:             5.14Compliance:           SPC-3User Capacity:        1,999,844,147,200 bytes [1.99 TB]Logical block size:   512 bytesRotation Rate:        Solid State DeviceLogical Unit id:      0x000000000000000000000000000000Serial number:        00000000000000000000000000000000Device type:          diskLocal Time is:        Sun Oct 11 16:27:59 2020 MSKSMART support is:     Unavailable - device lacks SMART capability.

Несмотря на маскировку под SAS-накопители, массивы с NVMe будут работать на скорости PCIe. Однако такая особенность позволяет загружаться с NVMe в Legacy.

Тестовый стенд


Каждый из способов организации дисковых массивов имеет свои физические плюсы и минусы. Но есть ли разница в производительности при работе с дисковыми массивами?

Для достижения максимальной справедливости все тесты будут проведены на одном и том же. Его конфигурация:

  • 2x Intel Xeon 6240;
  • 12x DDR4-2666 16 GB;
  • LSI MegaRAID 9460-8i;
  • Intel VROC Standard Hardware Key;
  • 4x Intel SSD DC P4510 U.2 2TB;
  • 1x Samsung 970 EVO Plus M.2 500GB.

Тестируемыми выступают P4510, из которых одна половина подключена к материнской плате, а вторая к RAID-контроллеру. На M.2 установлена операционная система Ubuntu 20.04, а тесты будут выполняться при помощи fio версии 3.16.

Тестирование


В первую очередь проверим задержки при работе с диском. Тест выполняется в один поток, размер блока 4 КБ. Каждый тест длится 5 минут. Перед началом для соответствующего блочного устройства выставляется none в качестве планировщика I/O. Команда fio выглядит следующим образом:

fio --name=test --blocksize=4k --direct=1 --buffered=0 --ioengine=libaio  --iodepth=1 --loops=1000 --runtime=300  --rw=<mode> --filename=<blkdev>

Из результатов fio мы берем clat 99.00%. Результаты приведены в таблице ниже.
Случайное чтение, мкс Случайная запись, мкс
Диск 112 78
Linux SW RAID, RAID0 113 45
VROC, RAID0 112 46
LSI, RAID0 122 63
Linux SW RAID, RAID1 113 48
VROC, RAID1 113 45
LSI, RAID1 128 89
Помимо задержек при обращении к данным, хочется увидеть производительность виртуальных накопителей и сравнить с производительностью физического диска. Команда для запуска fio:

fio --name=test --blocksize=4k --direct=1 --buffered=0 --ioengine=libaio  --loops=1000 --runtime=300  --iodepth=<threads> --rw=<mode> --filename=<blkdev>

Производительность измеряется в количестве операций ввода-вывода. Результаты представлены в таблице ниже.

Случайное чтение 1 поток, IOPS Случайная запись 1 поток, IOPS Случайное чтение 128 потоков, IOPS Случайная запись 128 потоков, IOPS
Диск 11300 40700 453000 105000
Linux SW RAID, RAID0 11200 52000 429000 232000
VROC, RAID0 11200 52300 441000 162000
LSI, RAID0 10900 44200 311000 160000
Linux SW RAID, RAID1 10000 48600 395000 147000
VROC, RAID1 10000 54400 378000 244000
LSI, RAID1 11000 34300 229000 248000
Легко заметить, что использование аппаратного контроллера дает увеличение задержек и просадку по производительности в сравнении с программными решениями.

Заключение


Использование аппаратных решений для создания дисковых массивов из двух дисков выглядит нерационально. Тем не менее, существуют задачи, где использование RAID-контроллеров оправдано. С появлением контроллеров с поддержкой интерфейса NVMe у пользователей появляется возможность использовать более быстрые SSD в своих проектах.

Подробнее..

Прочитай меня полностью! Как спасти данные с неисправного или заблокированного телефона?

19.10.2020 14:23:26 | Автор: admin
Показываю наглядно самый простой способ восстановить данные с NAND памяти смартфона, не зависимо от причины, по которой Вам это необходимо. В некоторых случаях телефон неработоспособен из-за повреждения процессора, залитой платы без возможности восстановления, в некоторых телефон заблокирован, а данные необходимо сохранить.

image

Мне посчастливилось работать в компании fix-oscomp, подразделении компании ОСКОМП по ремонту цифровой техники. Здесь я и познакомился на практике со этим способом.

NAND это тип флеш-памяти, наиболее часто используемый в современных смартфонах.

Конструкция NAND по Wikipedia
Конструкция NAND трёхмерный массив. В основе та же самая матрица, что и в NOR, но вместо одного транзистора в каждом пересечении устанавливается столбец из последовательно включенных ячеек. В такой конструкции получается много затворных цепей в одном пересечении. Плотность компоновки можно резко увеличить (ведь к одной ячейке в столбце подходит только один проводник затвора), однако алгоритм доступа к ячейкам для чтения и записи заметно усложняется. Также в каждой линии установлено два МОП-транзистора. Управляющий транзистор разрядной линии (англ. bit line select transistor), расположенный между столбцом ячеек и разрядной линией. И управляющий транзистор заземления, расположенный перед землёй (англ. ground select transistor).

Сегодняшний пациент Xiaomi Mi Max 3:



После залития перестал включаться.



Диагностика показала, что процессор скорее мертв, чем жив. Клиенту необходимы данные с телефона и возможно восстановление самого аппарата.



Плату очистили, но мы не можем заменить процессор, так как процессор и NAND память спарены по ключу и меняем мы их тоже в паре. В таком случае мы берем плату донор от более дешевой модели, в данном случае подойдет Xiaomi Redmi Note 5.



Прогреваем плату нижним подогревом.



Наносим флюс.



Прогреваем феном.



Снимаем NAND память.



Очищаем остатки флюса.



Проверяем контакты.





Устанавливаем память в считывающее устройство.







В нашем случае нам нужен раздел userdata и boot файлы.



Скорость до 10 MiB/s. Но ждать придется долго. Процесс чтения в среднем занимает 2 часа.

Таким образом можно увеличить объем памяти и ОЗУ при необходимости.

Записываем данные на память с донора.



Впаиваем память и процессор с донора, включаем и радуемся!



Спасибо за внимание!
Подробнее..

Категории

Последние комментарии

© 2006-2020, personeltest.ru