Русский
Русский
English
Статистика
Реклама

Ai fabric

Промышленные тенденции в области массовых систем хранения данных

07.10.2020 16:09:34 | Автор: admin
Сегодня поговорим о том, как лучше хранить данные в мире, где сети пятого поколения, сканеры геномов и беспилотные автомобили производят за день больше данных, чем всё человечество породило в период до промышленной революции.




Наш мир генерирует всё больше информации. Какая-то её часть мимолётна и утрачивается так же быстро, как и собирается. Другая должна храниться дольше, а иная и вовсе рассчитана на века по крайней мере, так нам видится из настоящего. Информационные потоки оседают в дата-центрах с такой скоростью, что любой новый подход, любая технология, призванные удовлетворить этот бесконечный спрос, стремительно устаревают.



40 лет развития распределённых СХД


Первые сетевые хранилища в привычном нам виде появились в 1980-х. Многие из вас сталкивались с NFS (Network File System), AFS (Andrew File System) или Coda. Спустя десятилетие мода и технологии изменились, а распределённые файловые системы уступили место кластерным СХД на основе GPFS (General Parallel File System), CFS (Clustered File Systems) и StorNext. В качестве базиса использовались блочные хранилища классической архитектуры, поверх которых с помощью программного слоя создавалась единая файловая система. Эти и подобные решения до сих пор применяются, занимают свою нишу и вполне востребованы.

На рубеже тысячелетий парадигма распределённых хранилищ несколько поменялась, и на лидирующие позиции вышли системы с архитектурой SN (Shared-Nothing). Произошёл переход от кластерного хранения к хранению на отдельных узлах, в качестве которых, как правило, выступали классические серверы с обеспечивающим надёжное хранение ПО; на таких принципах построены, скажем, HDFS (Hadoop Distributed File System) и GFS (Global File System).

Ближе к 2010-м заложенные в основу распределённых систем хранения концепции всё чаще стали находить отражение в полноценных коммерческих продуктах, таких как VMware vSAN, Dell EMC Isilon и наша Huawei OceanStor. За упомянутыми платформами стоит уже не сообщество энтузиастов, а конкретные вендоры, которые отвечают за функциональность, поддержку, сервисное обслуживание продукта и гарантируют его дальнейшее развитие. Такие решения наиболее востребованы в нескольких сферах.



Операторы связи


Пожалуй, одними из старейших потребителей распределённых систем хранения являются операторы связи. На схеме видно, какие группы приложений производят основной объём данных. OSS (Operations Support Systems), MSS (Management Support Services) и BSS (Business Support Systems) представляют собой три дополняющих друг друга программных слоя, необходимых для предоставления сервиса абонентам, финансовой отчётности провайдеру и эксплуатационной поддержки инженерам оператора.

Зачастую данные этих слоев сильно перемешаны между собой, и, чтобы избежать накопления ненужных копий, как раз и используются распределённые хранилища, которые аккумулируют весь объём информации, поступающей от работающей сети. Хранилища объединяются в общий пул, к которому и обращаются все сервисы.

Наши расчёты показывают, что переход от классических СХД к блочным позволяет сэкономить до 70% бюджета только за счёт отказа от выделенных СХД класса hi-end и использования обычных серверов классической архитектуры (обычно x86), работающих в связке со специализированным ПО. Сотовые операторы уже довольно давно начали приобретать подобные решения в серьезных объёмах. В частности, российское операторы используют такие продукты от Huawei более шести лет.

Да, ряд задач с помощью распределённых систем выполнить не получится. Например, при повышенных требованиях к производительности или к совместимости со старыми протоколами. Но не менее 70% данных, которые обрабатывает оператор, вполне можно расположить в распределённом пуле.



Банковская сфера


В любом банке соседствует множество разношёрстных IT-систем, начиная с процессинга и заканчивая автоматизированной банковской системой. Эта инфраструктура тоже работает с огромным объёмом информации, при этом большая часть задач не требует повышенной производительности и надёжности систем хранения, например разработка, тестирование, автоматизация офисных процессов и пр. Здесь применение классических СХД возможно, но с каждым годом всё менее выгодно. К тому же в этом случае отсутствует гибкость расходования ресурсов СХД, производительность которой рассчитывается из пиковой нагрузки.

При использовании распределённых систем хранения их узлы, по факту являющиеся обычными серверами, могут быть в любой момент конвертированы, например, в серверную ферму и использованы в качестве вычислительной платформы.



Озёра данных


На схеме выше приведён перечень типичных потребителей сервисов data lake. Это могут быть службы электронного правительства (допустим, Госуслуги), прошедшие цифровизацию предприятия, финансовые структуры и др. Всем им необходимо работать с большими объёмами разнородной информации.

Эксплуатация классических СХД для решения таких задач неэффективна, так как требуется и высокопроизводительный доступ к блочным базам данных, и обычный доступ к библиотекам сканированных документов, хранящихся в виде объектов. Сюда же может быть привязана, допустим, система заказов через веб-портал. Чтобы всё это реализовать на платформе классической СХД, потребуется большой комплект оборудования под разные задачи. Одна горизонтальная универсальная система хранения вполне может закрывать все ранее перечисленные задачи: понадобится лишь создать в ней несколько пулов с разными характеристиками хранения.



Генераторы новой информации


Количество хранимой в мире информации растёт примерно на 30% в год. Это хорошие новости для поставщиков систем хранения, но что же является и будет являться основным источником этих данных?

Десять лет назад такими генераторами стали социальные сети, это потребовало создания большого количества новых алгоритмов, аппаратных решений и т. д. Сейчас выделяются три главных драйвера роста объёмов хранения. Первый cloud computing. В настоящее время примерно 70% компаний так или иначе используют облачные сервисы. Это могут быть электронные почтовые системы, резервные копии и другие виртуализированные сущности.
Вторым драйвером становятся сети пятого поколения. Это новые скорости и новые объёмы передачи данных. По нашим прогнозам, широкое распространение 5G приведёт к падению спроса на карточки флеш-памяти. Сколько бы ни было памяти в телефоне, она всё равно кончается, а при наличии в гаджете 100-мегабитного канала нет никакой необходимости хранить фотографии локально.

К третьей группе причин, по которым растёт спрос на системы хранения, относятся бурное развитие искусственного интеллекта, переход на аналитику больших данных и тренд на всеобщую автоматизацию всего, чего только можно.

Особенностью нового трафика является его неструктурированность. Нам надо хранить эти данные, никак не определяя их формат. Он требуется лишь при последующем чтении. К примеру, банковская система скоринга для определения доступного размера кредита будет смотреть выложенные вами в соцсетях фотографии, определяя, часто ли вы бываете на море и в ресторанах, и одновременно изучать доступные ей выписки из ваших медицинских документов. Эти данные, с одной стороны, всеобъемлющи, а с другой лишены однородности.



Океан неструктурированных данных


Какие же проблемы влечет за собой появление новых данных? Первейшая среди них, конечно, сам объём информации и расчётные сроки её хранения. Один только современный автономный автомобиль без водителя каждый день генерирует до 60 Тбайт данных, поступающих со всех его датчиков и механизмов. Для разработки новых алгоритмов движения эту информацию необходимо обработать за те же сутки, иначе она начнёт накапливаться. При этом храниться она должна очень долго десятки лет. Только тогда в будущем можно будет делать выводы на основе больших аналитических выборок.

Одно устройство для расшифровки генетических последовательностей производит порядка 6 Тбайт в день. А собранные с его помощью данные вообще не подразумевают удаления, то есть гипотетически должны храниться вечно.

Наконец, всё те же сети пятого поколения. Помимо собственно передаваемой информации, такая сеть и сама является огромным генератором данных: журналов действий, записей звонков, промежуточных результатов межмашинных взаимодействий и пр.

Всё это требует выработки новых подходов и алгоритмов хранения и обработки информации. И такие подходы появляются.



Технологии новой эпохи


Можно выделить три группы решений, призванных справиться с новыми требованиями к системам хранения информации: внедрение искусственного интеллекта, техническая эволюция носителей данных и инновации в области системной архитектуры. Начнём с ИИ.



В новых решениях Huawei искусственный интеллект используется уже на уровне самого хранилища, которое оборудовано ИИ-процессором, позволяющим системе самостоятельно анализировать своё состояние и предсказывать отказы. Если СХД подключить к сервисному облаку, которое обладает значительными вычислительными способностями, искусственный интеллект сможет обработать больше информации и повысить точность своих гипотез.

Помимо отказов, такой ИИ умеет прогнозировать будущую пиковую нагрузку и время, остающееся до исчерпания ёмкости. Это позволяет оптимизировать производительность и масштабировать систему ещё до наступления каких-либо нежелательных событий.



Теперь об эволюции носителей данных. Первые флеш-накопители были выполнены по технологии SLC (Single-Level Cell). Основанные на ней устройства были быстрыми, надёжными, стабильными, но имели небольшую ёмкость и стоили очень дорого. Роста объёма и снижения цены удалось добиться путём определённых технических уступок, из-за которых скорость, надёжность и срок службы накопителей сократились. Тем не менее тренд не повлиял на сами СХД, которые за счёт различных архитектурных ухищрений в целом стали и более производительными, и более надёжными.

Но почему понадобились СХД класса All-Flash? Разве недостаточно было просто заменить в уже эксплуатируемой системе старые HDD на новые SSD того же форм-фактора? Потребовалось это для того, чтобы эффективно использовать все ресурсы новых твердотельных накопителей, что в старых системах было попросту невозможно.

Компания Huawei, например, для решения этой задачи разработала целый ряд технологий, одной из которых стала FlashLink, позволившая максимально оптимизировать взаимодействия диск контроллер.

Интеллектуальная идентификация дала возможность разложить данные на несколько потоков и справиться с рядом нежелательных явлений, таких как WA (write amplification). Вместе с тем новые алгоритмы восстановления, в частности RAID 2.0+, повысили скорость ребилда, сократив его время до совершенно незначительных величин.

Отказ, переполненность, сборка мусора эти факторы также больше не влияют на производительность системы хранения благодаря специальной доработке контроллеров.



А ещё блочные хранилища данных готовятся встретить NVMe. Напомним, что классическая схема организации доступа к данным работала так: процессор обращался к RAID-контроллеру по шине PCI Express. Тот, в свою очередь, взаимодействовал с механическими дисками по SCSI или SAS. Применение NVMe на бэкенде заметно ускорило весь процесс, однако несло в себе один недостаток: накопители должны были иметь непосредственное подключение к процессору, чтобы обеспечить тому прямой доступ в память.

Следующей фазой развития технологии, которую мы наблюдаем сейчас, стало применение NVMe-oF (NVMe over Fabrics). Что касается блочных технологий Huawei, они уже сейчас поддерживают FC-NVMe (NVMe over Fibre Channel), и на подходе NVMe over RoCE (RDMA over Converged Ethernet). Тестовые модели вполне функциональны, до официальной их презентации осталось несколько месяцев. Заметим, что всё это появится и в распределённых системах, где Ethernet без потерь будет весьма востребован.



Дополнительным способом оптимизации работы именно распределённых хранилищ стал полный отказ от зеркалирования данных. Решения Huawei больше не используют n копий, как в привычном RAID 1, и полностью переходят на механизм EC (Erasure coding). Специальный математический пакет с определённой периодичностью вычисляет контрольные блоки, которые позволяют восстановить промежуточные данные в случае их потери.

Механизмы дедупликации и сжатия становятся обязательными. Если в классических СХД мы ограничены количеством установленных в контроллеры процессоров, то в распределённых горизонтально масштабируемых системах хранения каждый узел содержит всё необходимое: диски, память, процессоры и интерконнект. Этих ресурсов достаточно, чтобы дедупликация и компрессия оказывали на производительность минимальное влияние.

И об аппаратных методах оптимизации. Здесь снизить нагрузку на центральные процессоры удалось с помощью дополнительных выделенных микросхем (или выделенных блоков в самом процессоре), играющих роль TOE (TCP/IP Offload Engine) или берущих на себя математические задачи EC, дедупликации и компрессии.



Новые подходы к хранению данных нашли воплощение в дезагрегированной (распределённой) архитектуре. В системах централизованного хранения имеется фабрика серверов, по Fibre Channel подключённая к SAN с большим количеством массивов. Недостатками такого подхода являются трудности с масштабированием и обеспечением гарантированного уровня услуги (по производительности или задержкам). Гиперконвергентные системы используют одни и те же хосты как для хранения, так и для обработки информации. Это даёт практически неограниченный простор масштабирования, но влечёт за собой высокие затраты на поддержание целостности данных.

В отличие от обеих вышеперечисленных, дезагрегированная архитектура подразумевает разделение системы на вычислительную фабрику и горизонтальную систему хранения. Это обеспечивает преимущества обеих архитектур и позволяет практически неограниченно масштабировать только тот элемент, производительности которого не хватает.



От интеграции к конвергенции


Классической задачей, актуальность которой последние 15 лет лишь росла, является необходимость одновременно обеспечить блочное хранение, файловый доступ, доступ к объектам, работу фермы для больших данных и т. д. Вишенкой на торте может быть ещё, например, система бэкапа на магнитную ленту.

На первом этапе унифицировать удавалось только управление этими услугами. Разнородные системы хранения данных замыкались на какое-либо специализированное ПО, посредством которого администратор распределял ресурсы из доступных пулов. Но так как аппаратно эти пулы были разными, миграция нагрузки между ними была невозможна. На более высоком уровне интеграции объединение происходило на уровне шлюза. При наличии общего файлового доступа его можно было отдавать через разные протоколы.

Самый совершенный из доступных нам сейчас методов конвергенции подразумевает создание универсальной гибридной системы. Именно такой, какой должна стать наша OceanStor 100D. Универсальный доступ использует те же самые аппаратные ресурсы, логически разделённые на разные пулы, но допускающие миграцию нагрузки. Всё это можно сделать через единую консоль управления. Таким способом нам удалось реализовать концепцию один ЦОД одна СХД.



Стоимость хранения информации сейчас определяет многие архитектурные решения. И хотя её можно смело ставить во главу угла, мы сегодня обсуждаем живое хранение с активным доступом, так что производительность тоже необходимо учитывать. Ещё одним важным свойством распределённых систем следующего поколения является унификация. Ведь никто не хочет иметь несколько разрозненных систем, управляемых из разных консолей. Все эти качества нашли воплощение в новой серии продуктов Huawei OceanStor Pacific.

Массовая СХД нового поколения


OceanStor Pacific отвечает требованиям надёжности на уровне шести девяток (99,9999%) и может использоваться для создания ЦОД класса HyperMetro. При расстоянии между двумя дата-центрами до 100 км системы демонстрируют добавочную задержку на уровне 2 мс, что позволяет строить на их основе любые катастрофоустойчивые решения, в том числе и с кворум-серверами.



Продукты новой серии демонстрируют универсальность по протоколам. Уже сейчас OceanStor 100D поддерживает блочный доступ, объектовый доступ и доступ Hadoop. В ближайшее время будет реализован и файловый доступ. Нет нужды хранить несколько копий данных, если их можно выдавать через разные протоколы.



Казалось бы, какое отношение концепция сеть без потерь имеет к СХД? Дело в том, что распределённые системы хранения данных строятся на основе быстрой сети, поддерживающей соответствующие алгоритмы и механизм RoCE. Дополнительно увеличить скорость сети и снизить задержки помогает поддерживаемая нашими коммутаторами система искусственного интеллекта AI Fabric. Выигрыш производительности СХД при активации AI Fabric может достигать 20%.



Что же представляет собой новый узел распределённой СХД OceanStor Pacific? Решение форм-фактора 5U включает в себя 120 накопителей и может заменить три классических узла, что даёт более чем двукратную экономию места в стойке. За счёт отказа от хранения копий КПД накопителей ощутимо возрастает (до +92%).

Мы привыкли к тому, что программно-определяемая СХД это специальное ПО, устанавливаемое на классический сервер. Но теперь для достижения оптимальных параметров это архитектурное решение требует и специальных узлов. В его состав входят два сервера на базе ARM-процессоров, управляющие массивом трёхдюймовых накопителей.



Эти серверы мало подходят для гиперконвергентных решений. Во-первых, приложений для ARM достаточно мало, а во-вторых, трудно соблюсти баланс нагрузки. Мы предлагаем перейти к раздельному хранению: вычислительный кластер, представленный классическими или rack-серверами, функционирует отдельно, но подключается к узлам хранения OceanStor Pacific, которые также выполняют свои прямые задачи. И это себя оправдывает.

Для примера возьмём классическое решение для хранения больших данных с гиперконвергентной системой, занимающее 15 серверных стоек. Если распределить нагрузку между отдельными вычислительными серверами и узлами СХД OceanStor Pacific, отделив их друг от друга, количество необходимых стоек сократится в два раза! Это снижает затраты на эксплуатацию дата-центра и уменьшает совокупную стоимость владения. В мире, где объём хранимой информации растет на 30% в год, подобными преимуществами не разбрасываются.

***


Больше информации о решениях Huawei и сценариях их применения вы можете получить на нашем сайте или обратившись непосредственно к представителям компании.
Подробнее..

Зачем бизнесу синергия PRA и AI?

22.10.2020 20:12:41 | Автор: admin

Можно ли извлечь пользу из ИИ?


image

Последнее время искусственный интеллект (ИИ) больше других технологий обсуждается СМИ. При этом технологии, лежащие в его основе и польза, которую он может приносить бизнесу, мало кому понятны. И это не только российский, а общемировой тренд. В 2019 году аналитики MIT Sloan Management Review и BCG провели исследование, в котором опросили более 2,5 тыс. руководителей компаний в 27 отраслях по всему миру. Выяснилось, что зарабатывать на ИИ бизнесу пока получается плохо: 70% бизнесменов заявили, что внедрение ИИ никак не повлияло на их бизнес, а получить хоть какую-то прибыль получилось только у 40% опрошенных.

По данным последнего исследования ВЦИОМ 69% российских компаний отмечают нехватку квалифицированных кадров в сфере ИИ. При этом крупные и высокотехнологичные корпорации осознают выгоды, которые можно получать уже сейчас, внедрив в свои процессы решения на основе ИИ. Но даже большим игрокам не хватает собственной экспертизы для работы с этими технологиями.

Важность вопроса понимается и на государственном уровне. В октябре 2019 года вышел указ Президента о развитии искусственного интеллекта в РФ, в котором предлагается утвердить национальную стратегию развития ИИ до 2030 года.

Пока чиновники размышляют над глобальными стратегиями, бизнес (даже средний и малый) научился использовать цифровые инструменты для автоматизации своих процессов. Одним из таких инструментов стали RPA-решения, которые получили широкое распространение они избавляют людей от регулярных рутинных процессов. Например, RPA умеют заполнять формы отчетов или переносить данные из одной базы в другую. К сожалению, пока компании применяют эти инструменты несистемно: в длинном сквозном бизнес-процессе сегодня в среднем автоматизируется лишь одна треть. Роботы не такие умные, как нам хотелось бы, потому что бизнес не использует все возможности ИИ.

Для большинства компаний ИИ на самом деле очень сложные и малопонятные технологии. IBM в своем исследовании указывает: большинство руководителей считают, что их компании не обладают необходимыми компетенциями в data science, machine learning и других смежных с ИИ технологиях для автоматизации процессов.

Бизнес готов платить деньги за конкретную выгоду, которую можно получить от автоматизации и цифровизации, но не понимает как это можно реализовать собственными силами.

На рынке стали появляться решения, которые помогают легко интегрировать в свои бизнес-процессы внешние наработки. Стали возникать и цифровые сервисы, которые помогают объединить ИИ с автоматизированными RPA-решениями.

Как ИИ помогает роботам



Сегодня с помощью синергии ИИ и RPA можно делать то, что ранее было невозможно в рамках обычной автоматизации рутинных бизнес-процессов. RPA занимается применением передовых технологий, включая искусственный интеллект (ИИ) и машинное обучение для все большей автоматизации процессов и расширения возможностей человека. Мы нашли несколько интересных свежих кейсов, которые иллюстрируют возможности использования этого подхода в различных сферах бизнеса.

В целом, около 90% нынешних кейсов использования ИИ это работа с документами в различных видах: распознавание паспортов, ПТС, дипломов, чеков и платежек. Особенно актуальным являются кейсы по распознавания полезного контента в письмах. Когда получив со стороны RPA письмо, ИИ помогает выбрать из текста главное, классифицировать письмо соответствующим образом и отправить нужному адресату. Сегодня роботы, с помощью ИИ, помогают бухгалтерии, отделу кадров, продаж, закупок, логистики и другим подразделениям, которые имеют дело со сбором и обработкой информации.

Мерчендайзинг по-новому

Среди трендсеттеров и инноваторов мерчандайзинга можно выделить, к примеру, Walmart, который в конце 2019 года запустил систему на основе искусственного интеллекта, дающую возможность в режиме реального времени делать мониторинг товара на полках. Система была установлена в одном из магазинов будущего, работающем в концепции Intelligent Retail Lab или сокращенно IRL. Камеры с искусственным интеллектом мониторят в реальном времени наличие товаров на полках. Гаджеты будут отслеживать уровень запасов, чтобы определить, например, нужно ли персоналу принести больше мяса из складских холодильников и пополнить запасы на полках, или давать сигнал, если некоторые свежие продукты слишком долго простояли на полке и их нужно оттуда вытащить.

image

Автоматический скоринг резюме

Предиктивная поведенческая аналитика новое слово в HR: крупнейшие компании мира стараются удержать с ее помощью ценные кадры, вовремя замечая опасные перемены в ощущениях людей от работы. Некоторые, например Сбербанк, идут дальше и уже на старте используют скоринг кандидатов по предварительным параметрам, чтобы предсказать вероятность их увольнения. Предполагается, что так банк сможет бороться с высокой текучкой кадров на массовых позициях.

Одно из самых продуктивных направлений применения ИИ в управлении кадрами связано с поиском выгоревших работников. Так, американская компания Ultimate Software Group, занимающаяся разработкой программного обеспечения для управления персоналом, создала индекс сохранности сотрудников. Это показатель, по которому на основе 50 индикаторов можно предсказать, собирается ли специалист в ближайшее время уволиться.

IBM для создания похожего решения использовала свой суперкомпьютер с системой AI Watson. Чтобы оценить настроение человека, суперкомпьютер анализирует историю его карьерного роста, продолжительность работы в компании, зарплату, служебные обязанности, расстояние от работы до дома и другие показатели. Теперь HR-служба компании может с 95% вероятностью предсказать, кто собирается уволиться, за шесть-девять месяцев до того, как это произойдет, и принять меры, которые позволят предотвратить увольнение.

Сентимент-анализ в блогах

Сентимент-анализ или анализ настроений информационных потоков имеет большой потенциал применения для мониторинговых, аналитических и сигнальных систем, для систем документооборота и рекламных платформ, таргетированных по тематике веб-страниц. Направление считается одним из самых привлекательных, которые побуждают изучать и применять ИИ в различных отраслях.

Авторы уже классического исследования применили сентимент-анализ для изучения мнений и отзывов людей о трех автомобильных компаниях: Mercedes, Audi и BMW. Робот извлекал все твиты с упоминаниями брендов, после чего они обрабатывались с помощью методов интеллектуального анализа текста. Все твиты делились на три категории: позитивные, негативные и нейтральные. Результаты этого исследования дали представление о важности анализа отзывов и мнений потребителей в этой отрасли. Авторам удалось получить очень ценную для маркетинга этих брендов информацию.

Результаты анализа твитов ИИ показали, что больше всех положительных отзывов досталось Audi (83%). При этом, и негатива Audi получили меньше (16%), чем другие исследуемые конкуренты. Очевидно, что рекламные предложения на сайте Audi достигнут большего количества лояльных пользователей, чем аналогичные на интернет-ресурсах BMW и Mercedes. Есть над чем задуматься и производителям и маркетологам этих авто.

Как реализовать синергию RPA и ИИ



На рынке есть несколько решений, которые с различным успехом помогают использовать возможности ИИ для роботизированных процессов. Если верить специализированным рейтингам, то лидер в создании сервисов для роботизации это компания UiPath. По статистике в среднем в сквозном бизнес-процессе сегодня автоматизируется около 30-40%. С помощью платформы UiPath, которая включает в себя решения для Process Mining, AI Fabric и другие продукты, можно повысить процент автоматизации таких процессов до 70.

Недавно вендор выпустил платформу AI Fabric, которая помогает получить синергию от работы RPA и ИИ. AI Fabric связующее звено между искусственным интеллектом и автоматизированными процессами. Платформа предназначена для того, чтобы вывести применение ML в бизнес-процессах за пределы небольших высококвалифицированных групп разработки и передать его бизнес-пользователям. Другими словами, с помощью этого решения даже джуниор-разработчик может внедрить ИИ в компании больше не нужно вникать в технические тонкости и самостоятельно разворачивать необходимую инфраструктуру. Для бизнеса платформа полезна тем, что помогает на практике понять пользу и возможности от использования ИИ в реальных бизнес-процессах.

Процент автоматизации различных бизнес-процессов можно еще повышать и повышать, но вот только с помощью RPA это сделать уже не получится у задач есть естественные ограничения по их формальной алгоритмизации. А вот в связке с ИИ это сделать возможно.

Платформа AI Fabric позволяет использовать вместе с роботами собственные модели машинного обучения или модели, приобретенные у сторонних производителей. Используя результаты их работы, можно автоматически получать данные для улучшения работы моделей. Таким образом, Вы получаете возможность бесшовно интегрировать ИИ в бизнес-процессы компании и одновременно удобные инструменты для управления своими моделями.

Начать работать с платформой вполне просто. Сначала нужно определить категорию вашего юзер-кейса. Потом выбрать соответствующую модель, подходящую под ваш запрос, например из тех, что поставляются в коробке, или разработанную в вашей компании. Как известно, модели машинного обучения достаточно прожорливы с точки зрения ресурсов CPU и GPU, и поэтому для работы моделей автоматически создаются AI-роботы, на самом деле являющиеся специальными контейнерами, позволяющими гибко управлять потреблением ресурсов.

В качестве примера можно рассмотреть кейс по прогнозированию оттока клиентов.
image

Платформа UiPath

  • Извлекает информацию о пользователях из CRM
  • Получает предсказание оттока клиентов от AI Fabric
  • Обновляет CRM на основе этой информации
  • Рассылает информацию о таких пользователях сотрудникам


Реализация сценария позволяет проактивно предотвращать отток клиентов, исключить человеческий фактор из-за позднего реагирования и провести оптимизацию расходов по удержанию и привлечению клиентов.

Сервисы, позволяющие использовать все возможности ИИ совместно с традиционными инструментами автоматизации, помогают бизнесу снизить порог требований к внедрению искусственного интеллекта. Они позволяют компаниям использовать коробочные решения и экономить собственные ресурсы. Сегодня это становится новым трендом по гиперавтоматизации, который в ближайшем будущем получит широкое распространение.
Подробнее..

Обучение с подкреплением и эвристический анализ на коммутаторах ЦОД предпосылки и преимущества

29.11.2020 16:21:40 | Автор: admin
Перед конференцией AI Journey, которую Huawei поддерживает как титульный партнёр и на которой выступит несколько наших спикеров, мы решили поделиться предварительной информацией о наших наработках, и в частности о том, как используем искусственный интеллект в умных сетях ЦОД. И заодно пояснить, почему устоявшихся технологий недостаточно для построения современных сетей ЦОД и нам нужна дружеская помощь от ИИ.




Что происходит в сфере условных lossless-сетей


За годы, когда среды передачи данных переживали бурное развитие, инженеры успели столкнуться со множеством явлений, препятствующих успешной реализации сетей хранения данных и высокопроизводительных кластеров вычислений на Ethernet: потерями, негарантированной доставкой информации, deadlock, microburst и другими малоприятными вещами.

Как следствие, считалось правильным строить референсную выделенную сеть под определённый сценарий:

  • IB для кластеров высоконагруженных вычислений;
  • FC для классической сети хранения;
  • Ethernet для сервисной задачи.


Попытки добиться универсальности выглядели приблизительно как на иллюстрации.



По каким-то задачам векторы могли совпадать (примерно как у лебедя и рака), и ситуативно универсальность достигалась, хоть и с меньшим КПД, чем при выборе узкоспециализированного сценария.

Сегодня Huawei видит будущее в многозадачных конвергентных фабриках и предлагает своим заказчикам решение AI Fabric, рассчитанное, с одной стороны, на сценарии повышения производительности сети без потерь (до 200 Гбит/с на порт сервера в 2020 году), с другой на увеличение производительности самих приложений (переход к RoCEv2).

О технической составляющей AI Fabric у нас, кстати, был отдельный подробный пост.

Что нуждается в оптимизации


Прежде чем рассуждать об алгоритмах, имеет смысл уточнить, что конкретно они призваны улучшить.

Static ECN приводит к тому, что с увеличением числа серверов-отправителей при едином получателе вырисовывается, мягко говоря, неоптимальная картина трафика (мы имеем дело с так называемой many-to-one incast моделью).



В традиционном Ethernet нам придётся вручную добиваться баланса между коэффициентами вероятности потерь на сети и низкой производительностью самой сети.



Те же предпосылки мы увидим также при использования связки PFC/ECN в случае реализации без постоянного тюнинга (см. рис. ниже).



Для решения описанных проблем мы задействуем алгоритм AI ECN, суть работы которого заключается в своевременном изменении порогов ECN. Как это выглядит, показано на схеме ниже.



Раньше, когда мы использовали связку чипсет Broadcom + ИИ-процессор Ascend 310, у нас было ограниченное количество возможностей по тюнингу таких параметров.

Такой вариант мы можем условно назвать Software AI ECN, так как логика делается на отдельном чипе и уже проливается в коммерческий чипсет.


У моделей, которые снабжены чипсетом P5 производства Huawei, ИИ-возможности существенно шире (особенно на свежем релизе), благодаря тому, что на нём реализована значительная часть необходимой для этого функциональности.



Как используем алгоритмы


Используя Ascend 310 (или встроенный в P-карты модуль), мы начинаем анализировать трафик и сравнивать его с эталонной базой известных приложений.



В случае с известными приложениями показатели трафика оптимизируются на лету, в случае с неизвестными происходит переход к следующему шагу.



Ключевые моменты:

  1. Производится обучение с подкреплением DDQN, исследование, накопление большого количества конфигураций базовых линий и исследование лучшей стратегии соответствия ECN.
  2. Классификатор CNN идентифицирует сценарии и определяет, является ли рекомендуемый порог DDQN надёжным.
  3. Если рекомендуемый порог DDQN ненадёжен, для его коррекции используется эвристический метод, с тем чтобы убедиться, что решение является обобщённым.


Такой подход позволяет скорректировать механизмы работы с неизвестными приложениями, а при большом желании можно и задать модель для своего приложения, используя Northbound API к системе управления коммутаторами.



Ключевые моменты:

  1. DDQN накапливает большое количество образцов памяти для конфигурации базовой линии и глубоко исследует логику согласования состояния сети и конфигурации базовой линии для изучения политик.
  2. Классификатор нейронных сетей CNN идентифицирует сценарии, чтобы избежать рисков, которые могут возникнуть, когда ненадёжные конфигурации ECN рекомендуются в неизвестных сценариях.


Что получаем


После такого цикла адаптации и изменения дополнительных сетевых порогов и настроек становится возможным избавиться от проблем сразу нескольких типов.

  • Проблемы производительности: низкая пропускная способность, длительная задержка, потеря пакетов, джиттер.
  • Проблемы с PFC: PFC-тупик, HOL, штормы и т. д. PFC-технология вызывает множество проблем системного уровня.
  • Проблемы приложений RDMA: ИИ / высокопроизводительные вычисления, распределённое хранение и их сочетания. RDMA-приложения чувствительны к производительности сети.


Резюме


В конечном счёте дополнительные алгоритмы машинного обучения помогают нам решить классические проблемы неотзывчивой сетевой среды Ethernet. Таким образом, мы ещё на шаг приближаемся к экосистеме прозрачных и удобных сквозных сетевых сервисов в противовес набору разрозненных технологий и продуктов.

***


Материалы по решениям Huawei продолжают появляться в нашей онлайн-библиотеке. В том числе по темам, затронутым в этом посте (например, до построении полноразмерных ИИ-решений под различные сценарии умных ЦОДов). А список наших вебинаров на ближайшие недели вы найдёте по ссылке.
Подробнее..

Категории

Последние комментарии

  • Имя: Макс
    24.08.2022 | 11:28
    Я разраб в IT компании, работаю на арбитражную команду. Мы работаем с приламы и сайтами, при работе замечаются постоянные баны и лаги. Пацаны посоветовали сервис по анализу исходного кода,https://app Подробнее..
  • Имя: 9055410337
    20.08.2022 | 17:41
    поможем пишите в телеграм Подробнее..
  • Имя: sabbat
    17.08.2022 | 20:42
    Охренеть.. это просто шикарная статья, феноменально круто. Большое спасибо за разбор! Надеюсь как-нибудь с тобой связаться для обсуждений чего-либо) Подробнее..
  • Имя: Мария
    09.08.2022 | 14:44
    Добрый день. Если обладаете такой информацией, то подскажите, пожалуйста, где можно найти много-много материала по Yggdrasil и его уязвимостях для написания диплома? Благодарю. Подробнее..
© 2006-2024, personeltest.ru