В ноябрьском рейтинге суперкомпьютеров лучший из российских занимает 79 место. Курчатовский вычислительный комплекс входит в число самых мощных суперкомпьютеров в России и является объединяющим звеном цепочки. В Саратовской области построят самый крупный в стране суперкомпьютер. hardware hpc iks-consulting анализ рынка ии облако россия суперкомпьютер. Компания iKS-Consulting обнародовала результаты исследования российского рынка облачных инфраструктур.
Академик Каляев предложил объединить суперкомпьютеры под управлением ИИ
Историк Марьяна Скуратовская Узнать больше Подпишитесь на ежемесячную рассылку новостей и событий российской науки! Самые интересные проекты, открытия и исследования, а также информация о конкурсах и мероприятиях в вузах и научных центрах России в одном удобном формате. Будьте в курсе событий Десятилетия науки и технологий!
Может показаться, что для запуска такого кластера самое сложное — это купить вагон GPU-карточек. В условиях «чипагеддона» это отчасти правда, но нет, самое сложное не в этом. Тут-то и начинается наша история. Пробный подход к снаряду В 2019 году произошла так называемая «революция трансформеров»: был опубликован ряд статей, которые показали, что применение гигантских нейросетей-трансформеров даёт удивительные результаты на задачах анализа текста. В частности, эти сети очень хорошо подходят для решения задачи ранжирования документов по запросу и для машинного перевода. Более того, их применение не ограничивается сугубо языковыми задачами: трансформерная архитектура позволяет генерировать голос из текста и наоборот, предсказывать действия пользователя и многое другое. В общем, именно трансформеры сейчас определяют качество основных продуктов Яндекса. Если вам интересны детали, коллеги уже рассказывали на Хабре о внедрении этой архитектуры в нашем поиске.
Но проблема была в том, что обучение таких моделей требует огромных вычислительных мощностей. Например, если обучать модель с нуля на обычном сервере, на это потребуется 40 лет, а если на одном GPU-ускорителе V100 — 10 лет. Но хорошая новость в том, что задача обучения легко параллелится, и если задействовать хотя бы 256 тех же самых V100, соединить их быстрым интерконнектом, то задачу можно решить всего за две недели. Сейчас мы такую задачу можем решить за несколько часов, но об этом позже. Мы попробовали собрать «нулевой» кластер буквально из того, что было под рукой. Результаты замеров показали низкий КПД масштабирования. В попытках понять причину придумали методику оценки, которая не требовала глубокого понимания алгоритма работы конкретного обучения. Достаточно построить график потребления энергии и обмена трафиком в одном масштабе. Обучение идет повторяющимися итерациями: 1. Каждый GPU получает свой batch и обсчитывает его синяя ступенька 2.
Затем GPU обменивается по сети с соседями посчитанными результатами зелёная ступенька 3. GOTO 1 На графике сразу же виден корень проблемы. Не самый эффективный способ использовать железо, согласитесь. Эксперименты на таком кластере проводить можно, но считать что-то серьёзное — нереально. Поэтому стали собирать новое решение, «расшивая» все узкие места интерконнекта. Попутно столкнулись и с другими сложностями. Яндекс, в свою очередь, уже много лет живёт в дата-центрах IPv6-only. Фиксы, кстати, выкладываем в опенсорс. Первые кластеры Первый мини-кластер GPU, созданный специально под задачи применения трансформеров c учётом описанных выше узких мест, появился у нас во владимирском дата-центре летом 2020 года. В кластере было 62 узла по 8 GPU в каждом — всего 496 видеокарт.
Казалось бы, сотни видеокарт! Но этого по-прежнему было мало для наших задач, хотя кластер и помог нам начать внедрять трансформеры для улучшения Поиска. Затем в другом нашем ДЦ, в городе Сасово в Рязанской области, появился первый большой кластер. Мы назвали его в честь Алексея Ляпунова — знаменитого математика, чьи работы лежат в основе кибернетики и теории машинного обучения. Пришлось искать причины и оптимизировать. Коллеги из локального офиса NVIDIA посоветовали потратить ещё несколько дней на замеры производительности, чтобы зарегистрировать кластер в списке Top500. Но в тот момент мы от этого отказались: торопились отдать кластер нашим ML-инженерам, чтобы загрузить его работой уже на новогодние праздники. Тем более, что тогда мы ещё не осознавали никакой практической пользы от замеров. Логично было распространить этот опыт и на GPU. Для размещения кластеров выбрали недавно переданные в эксплуатацию модули в дата-центрах Сасово и Владимира.
Сами кластеры назвали соответственно «Червоненкис» в честь Алексея Червоненкиса, одного из крупнейших теоретиков машинного обучения и «Галушкин» Александр Галушкин — один из главных исследователей теории нейронных сетей. Размер обусловлен встроенной системой охлаждения. Они связывают GPU для вычислений. Это продиктовано энергопотреблением — до 20 кВт. Cloud, но об этом поговорим в другой раз. Обратите внимание на отсутствие любых декоративных пластиковых элементов. Зато есть много свободного места, чтобы воздух мог обдувать огромные радиаторы GPU в центре, именно за счёт этого получается экономить электричество на охлаждении. В кластере 199 серверов с GPU — такое количество обусловлено экономической целесообразностью сборки ядра Infiniband по стандартной схеме на 800 портов с использованием 40-портовых 1U HDR-коммутаторов.
Поиску языковые модели из семейства YaLM помогают составлять и ранжировать быстрые ответы, а Алисе — поддерживать живой диалог с пользователем.
Каждая система объединяет больше сотни серверов, или узлов, связанных высокоскоростной сетью Infiniband HDR. Вычислительные узлы «Червоненкиса» и «Галушкина» созданы по проекту Яндекса. В них используется оптимизированная система отвода тепла — благодаря ей на охлаждение серверов уходит меньше электроэнергии. Всемирный рейтинг суперкомпьютеров Top500 выходит с 1993 года. Суперкомпьютеры Яндекса участвуют в нём впервые.
По мнению президента, в сфере создания систем искусственного интеллектам необходимо использовать российские решения. Еще Путин заявил, что в ближайшее время будет утверждена новая стратегия развития искусственного интеллекта.
По словам президента, в новую редакцию стратегии внесут ряд значительных изменений, будут конкретизированы цели и задачи. Во время осмотра выставки в рамках конференции Путину также показали сказку, которую сочинил для него искусственный интеллект. Восьмая международная конференция AI Journey — "Путешествие в мир искусственного интеллекта" проходит в Москве с 22 по 24 ноября.
«Сбербанк» представил самый мощный в России суперкомпьютер
На днях на выставке «Цифровая индустрия промышленной России» в Нижнем Новгороде, доцент кафедры компьютерных систем и сетей МГТУ имени Баумана Алексей Попов представил 24-ядерный микропроцессор «Леонард Эйлер» и суперкомпьютер «Тераграф». Фотонный суперкомпьютер, создаваемый учеными Научно-исследовательского центра супер ЭВМ и нейрокомпьютеров в Таганроге в рамках научной программы НЦФМ, будет работать на частоте в 1 ТГц, или триллион герц. Статья Суперкомпьютеры (рынок России), Российские суперкомпьютеры в рейтинге Top500 мира, 2024 Путин поручил нарастить мощность суперкомпьютеров в 10 раз На это нужны миллиарды рублей. Суперкомпьютер Яндекса «Червоненкис» занял 19-ю строчку всемирного рейтинга суперкомпьютеров Top500, став самой производительной системой в России и Восточной Европе.
Суперкомпьютеры 2023: новые чемпионы и старые аутсайдеры
Минпромторг решил вложить 7,6 млрд руб. в создание российского суперкомпьютера на базе российской архитектуры NeuroMatrix, разработанной АО НТЦ «Модуль». В России создают суперкомпьютер, работающий на частоте 1 трлн герц. Причём в первых реализациях таких гибридных суперкомпьютеров могут потребоваться квантовые сопроцессоры на различных физических платформах для различных алгоритмов. Сегодня в МГУ начинает работать новый суперкомпьютер мощностью 400 петафлопс (10 в 15 степени операций в секунду).
Вот это прорыв: Россия попала в мировой топ самых мощных суперкомпьютеров
Этот суперкомпьютер разработан на основе передовых технологий, и он войдёт в систему с ведущими научными центрами России. МГУ уже имеет опыт в создании суперкомпьютеров, и этот новый проект будет ещё более мощным. Суперкомпьютеры в МГУ уже использовались для различных научных исследований и стали важным ресурсом для многих учёных в России.
Широко внедряться в войска она начала с 2005 года на среднем оперативно-тактическом уровне. В 2014 году у неё появился и стратегический уровень, известный нам как Национальный центр управления обороной.
Успешно функционирует система и на тактическом звене. Всё это вместе позволяет снабжать наш суперкомпьютер всесторонней и качественной информацией, а уж людям принимать на её основе решения. Практика доказала, что схема работает. Самый наглядный пример — это, конечно же, Сирия.
Система рассчитала, что для нормализации обстановки туда не нужно гнать сотни тысяч военных, достаточно небольшой группировки ВКС, ВМФ, спецназа и военной полиции. Другой пример — это Венесуэла. Все вы помните, что до вмешательства в ситуацию России казалось, что крах Мадуро неминуем, а его противника Гуайдо западные страны поспешили провозгласить новым президентом. Но вмешательство России, которое обошлось даже без военной силы, позволило стабилизировать обстановку.
В итоге на сегодняшний день протесты против Мадуро сошли на нет, кровопролития удалось избежать, а экономика постепенно начала восстанавливаться. Доподлинно известно, что в этом процессе были задействованы мощности нашего Национального центра обороны. В общем, система работает, но возникают вопросы о её защищённости и возможностях развития. Военплан Конечно, говоря о суперкомпьютере Минобороны, мы подразумеваем не какой-то один ящик с электроникой, который стоит у всех на виду в центре Москвы.
Это геораспределённая сеть, спроектированная таким образом, что даже физическая потеря её части не скажется на работоспособности всей системы, на то она и военная. Также мы можем говорить о существовании автономного военного "интернета", который нигде не пересекается с глобальной сетью. При этом существующая система позволяет Минобороны координироваться с десятками гражданских министерств и ведомств, тысячами коммерческих структур, которые могут быть задействованы для тех или иных задач. То есть, по сути, уже создана автономная электронная система планового управления страной, правда пока её функционал ограничивается военными задачами.
Но вспомним слова Шойгу о возможностях расширения системы и включения в её состав новых модулей.
Для размещения кластеров выбрали недавно переданные в эксплуатацию модули в дата-центрах Сасово и Владимира. Сами кластеры назвали соответственно «Червоненкис» в честь Алексея Червоненкиса, одного из крупнейших теоретиков машинного обучения и «Галушкин» Александр Галушкин — один из главных исследователей теории нейронных сетей. Размер обусловлен встроенной системой охлаждения. Они связывают GPU для вычислений. Это продиктовано энергопотреблением — до 20 кВт. Cloud, но об этом поговорим в другой раз. Обратите внимание на отсутствие любых декоративных пластиковых элементов.
Зато есть много свободного места, чтобы воздух мог обдувать огромные радиаторы GPU в центре, именно за счёт этого получается экономить электричество на охлаждении. В кластере 199 серверов с GPU — такое количество обусловлено экономической целесообразностью сборки ядра Infiniband по стандартной схеме на 800 портов с использованием 40-портовых 1U HDR-коммутаторов. Двухсотый сервер не имеет GPU в своем составе и используется для управления сетью Infiniband. Это позволило создавать кластеры в два раза большего размера по сравнению с коробочным решением SuperPod. Например, вот так выглядят типичные итерации обучения. О г—Замеры После успешного решения этих и других проблем мы наконец-то получили заветное линейное масштабирование на 152 хостах, доступных на тот момент. Получилось 15,2 петафлопса. Но была одна проблема: пока мы настраивали кластер, закрылось окно подачи в июньский рейтинг.
Мы опоздали буквально на одну неделю. Поэтому решили взять паузу с замерами linpack до осени. За это время мы внедрили все найденные оптимизации на новых кластерах и отдали их пользователям — разработчикам и инженерам внутри компании. Кластер «Ляпунов» решили пока не выводить на обслуживание, потому что он в два раза меньше и у нас не было уверенности, что в нём проявится баг с адаптивным роутингом. Обслуживание означало задержку в расчётах критически важных ML-обучений. Поэтому тоже решили отложить до осени. Первый замер 8 октября мы провели первый замер всех трёх кластеров. ML-инженеры согласились отдать кластеры всего на несколько часов: за это время нужно было сделать несколько прогонов, чтобы подобрать оптимальные параметры.
Стало очевидно, что проблема с адаптивным роутингом влияет на него больше, чем мы полагали. Мы решили выводить кластер на обслуживание как можно раньше. Второй замер 19 октября «Ляпунов» был успешно обновлён. Теперь самое интересное. Это очень круто. В процессе второго замера обратили внимание, что график сети продолжает быть нестабильным. Как выяснилось, проблема в эффекте резонанса мониторинговых сервисов. Третий замер Буквально на прошлой неделе мы закончили монтаж новых стоек — число узлов в кластере «Галушкин» должно увеличиться со 104 до 195.
Очень хотелось успеть обновить результат до закрытия окна подачи в Top500, то есть до 7 ноября. Но к этому моменту мы успели подключить и проверить только 136 узлов. Зато у нас уже было гораздо больше опыта, и мы починили проблему с излишним влиянием мониторингов. Поэтому результат получился очень хороший: 16,02 петафлопса. В сумме по трём кластерам вышло 50,3 петафлопса. В ближайшее время нужно проверить оставшиеся узлы. Нам ещё есть над чем работать, но это уже другая история. Чему мы научились Мы строили свои кластеры для решения реальных задач машинного обучения, руководствуясь имеющимся опытом в серверах, сетях, средах окружения и так далее.
Linpack мы рассматривали как незначительную вспомогательную задачу. В результате мы поняли, что строить и валидировать такие системы — совершенно новый и полезный опыт для нас. Также оказалось, что linpack — отличный инструмент интеграционного тестирования. Он позволил найти и починить сразу несколько багов в продакшене, которые мы раньше просто не замечали. Возникает вопрос: почему именно linpack оказался настолько хорошим инструментом? Чтобы ответить, нужно посмотреть на график обмена данными за 1 секунду. Видно, что за секунду он успевает сделать 4,5 синхронных итерации — это в 2-4 раза чаще, чем наши реальные обучения.
Действующие мощности российских суперкомпьютеров следует, конечно же, нарастить не менее, чем на порядок", — сообщил российский лидер на пленарном заседании конференции AI Journey. По мнению президента, развитие мощностей суперкомпьютеров необходимо для дальнейшего развития генеративного искусственного интеллекта. Суперкомпьютер представляет собой специализированную вычислительную машину, значительно превосходящую по своим техническим параметрам и скорости вычисления обыкновенных компьютеров. В России самый мощный из общественно известных отечесвтенных суперкомпьютеров — "Червоненкис" находится в Сасове Рязанская область.
«Сбербанк» представил самый мощный в России суперкомпьютер
Поэтому круг потребителей ожидается весьма широким. Например, он может использоваться для автоматического распознавания объектов при спутниковой съемке, моделирования космических летательных аппаратов и оценки состояния их бортовых систем. Разработка обладает модульным построением, оснащена уникальными системами поддержания работоспособности, это позволяет создать мобильную вычислительную систему любой мощности, любого назначения в любой точке земного шара, — сказал исполнительный директор государственной корпорации «Ростех» Олег Евтушенко. Энергоэффективные суперкомпьютеры, созданные специалистами московского АО «Концерн «Вега» входит в состав холдинга «Росэлектроника» и Института программных систем Российской академии наук имени А.
Айламазяна, могут применяться для вычислений и в других отраслях. Например, в области робототехники, искусственного интеллекта и технического зрения, нейронных сетей глубокого обучения, трехмерного предсказательного моделирования, обработки больших данных, создания цифровых двойников образцов продукции. Потенциальными потребителями новой разработки в первую очередь являются организации оборонно-промышленного комплекса, космической отрасли, технополисы, научно-исследовательские институты и учебные заведения.
Помимо создания компактного мобильного суперкомпьютера специалисты холдинга «Росэлектроника» недавно завершили разработку новой технологии, улучшающей качество связи при передаче цифровой информации по радиоканалам КВ-диапазона. Эта технология позволит усовершенствовать аппаратуру телекодовой связи, которая используется в Вооруженных силах России.
Такая ЭВМ намного обгоняет по своим техническим параметрам и скорости большинство существующих в мире компьютеров. Машина супербыстро выполняет задачи и обрабатывает огромный массив данных одновременно. Производительность ЭВМ оценивается в петафлопсах — количествах миллионов миллиардов вычислений в секунду. Производительность «Червоненкис» составляет 21,53 петафлопса, «Галушкина» — 16,02, «Ляпунова» — 12,81. К примеру, «Переводчик» максимально корректно и быстро переводит текст с одного языка на другой. А голосовой помощник «Алиса» моделирует диалог с пользователями. Отметим, что в пятерку мирового топа попали Китай — доминирует со 173 суперкомпьютерами, затем США 149 , Япония 32 , Германия 26 и Франция 19.
Разработка Ростеха предназначена для решения задач молекулярной динамики: создания цифровых моделей веществ и прогнозирования поведения материалов в экстремальных состояниях. Проект реализован специалистами Научно-исследовательского центра электронной вычислительной техники холдинга «Росэлектроника». При этом вычислительные ресурсы суперкомпьютеров крайне востребованы и дорогостоящи.
Сеть «Ангара» успешно решает эти задачи, позволяя сравнительно дешево и в сжатые сроки формировать суперкомпьютеры на основе отдельных вычислительных узлов.
Сеть «Ангара» — это первое российское решение для создания суперкомпьютеров рекордной производительности, вычислительных кластеров для обработки больших данных и расчетов на основе параллельных алгоритмов. Возможности «Ангары» позволяют концентрировать в единой сети мощности тысяч компьютеров, в том числе разных производителей и с разной архитектурой центральных процессоров. События, связанные с этим.
Вот это прорыв: Россия попала в мировой топ самых мощных суперкомпьютеров
Математика в эпоху суперкомпьютеров. В списке суперкомпьютеров 2017 года, по данным Википедии, российские занимали три позиции 63, 227 и 412 места. Минобрнауки России сообщило о разработанном в Московском государственном техническом университете (МГТУ) им. Н. Э. Баумана новом российском суперкомпьютере, получившем название «Телеграф».
В России представили суперкомпьютер для воссоздания состояния Вселенной после Большого Взрыва
Заявленный 1 Пфлопс — довольно значительная мощность для суперкомпьютера. Например, чтобы попасть в мировой топ-500 суперкомпьютеру сейчас достаточно иметь пиковую мощность не ниже 700 Тфлопс. Таких установок в России всего три, как следует из российского суперкомпьютерного рейтинга топ-50. Поэтому в пятидесятом топ-500, обнародованном 13 ноября прошлого года, представлены только эти три российских суперкомпьютера, как и в предыдущей редакции рейтинга. Суперкомпьютер «Ломоносов-2» занял в последнем топе 63-е место. Его пиковая производительность, согласно рейтингу, составляет 2,96 Пфлопс, а производительность на тесте Linpack равняется 2,1 Пфлопс. На 227-м месте — суперкомпьютер «Ломоносов», пиковая производительность которого оценивается в 1,7 Пфлопс, а производительность на тесте Linpack достигает 901,9 Тфлопс. Оба суперкомпьютера были построены компанией «Т-платформы» и используются в Научно-исследовательском вычислительном центре МГУ им.
На 412-й строчке рейтинга находится суперкомпьютер «Политехник РСК торнадо». Производительность компьютера на тесте Linpack достигает 658,1 Тфлопс при пиковой производительности 829,3 Тфлопс. Система работает в Санкт-Петербургском государственном политехническом университете, ее производитель — РСК.
В ближайшее время планируется создать опытный образец аппаратуры, провести предварительные, а затем приемочные испытания.
Безусловно, военные связисты примут на вооружение эту новейшую технологию, как уже успели по достоинству оценить другую новинку от российских оборонщиков военнослужащие Сухопутных и Воздушно-десантных войск. Небольшое высокотехнологичное устройство входит в боевую экипировку «Ратник» и поставляется в рамках выполнения плана программы Гособоронзаказа. Комплекс «Стрелец» — это своеобразный индивидуальный компьютер мобильного типа. Он может сопрягаться с многими устройствами, обеспечивающими боевую работу подразделений на поле современного боя.
Такие технические средства позволяют создавать единые сети из данных индивидуальных комплексов военнослужащих на компьютере командира подразделения. Офицер может в режиме реального времени отслеживать текущую информацию о подчиненных, а также оперативно получать по закрытым каналам связи информацию о противнике. Солдат должен уметь нажать всего несколько комбинаций кнопок, и его координаты местонахождения или данные о расположении противника появятся на компьютере командира. Тот может без проблем совмещать полученные данные с электронной картой местности или с фотографией заданного района, полученной со спутника разведки.
Например, в области робототехники, искусственного интеллекта и технического зрения, нейронных сетей глубокого обучения, трехмерного предсказательного моделирования, обработки больших данных, создания цифровых двойников образцов продукции. Потенциальными потребителями новой разработки в первую очередь являются организации оборонно-промышленного комплекса, космической отрасли, технополисы, научно-исследовательские институты и учебные заведения. Помимо создания компактного мобильного суперкомпьютера специалисты холдинга «Росэлектроника» недавно завершили разработку новой технологии, улучшающей качество связи при передаче цифровой информации по радиоканалам КВ-диапазона. Эта технология позволит усовершенствовать аппаратуру телекодовой связи, которая используется в Вооруженных силах России. Радиоканалы КВ-диапазона являются наиболее сложными в помеховом отношении каналами связи.
Разработка Калужского научно-исследовательского института телемеханических устройств КНИИТМУ холдинга «Росэлектроника» позволяет существенно увеличить длину передаваемых сообщений с 1000 бит до нескольких Мбит. При этом вероятность недоведения сообщений сократилась до 1 процента. Новый комплекс относится к линейке устройств быстродействующей телекодовой аппаратуры связи Р-098, выпускаемой КНИИТМУ, которая успешно эксплуатируется на боевых самолетах, вертолетах, подводных лодках, в том числе и поставляемых на экспорт. В ближайшее время планируется создать опытный образец аппаратуры, провести предварительные, а затем приемочные испытания.
Силы нашего коллектива распределены по трем составляющим: элементная база, системное программное обеспечение и алгоритмы и математическое ПО. Цифровые кадры В «МГУ Сарове» из пяти магистерских программ две посвящены вычислительным технологиям. Они хорошо дополняют друг друга и позволяют понять основные научные и технологические проблемы. На мой взгляд, темы интересны студентам. Кроме того, мы стараемся их приобщать к решению практических задач, чтобы уже сейчас вовлечь в проблематику освоения машин зеттафлопсной производительности. Конечно, нам и им нужно сначала научиться работать с машинами эксафлопсной производительности. Если уж научился работать с параллелизмом большой степени, то переход дальше будет понятным и более простым. Сейчас важно активнее привлекать магистрантов и выпускников «МГУ Сарова» и в целом молодых исследователей к конкретным проектам НЦФМ, чтобы они не просто что-то изучали по своей научной тематике, но и участвовали в реализации конкретных задач в рамках научной программы центра. Слушателей школы исследования архитектур суперЭВМ мы хотим познакомить не только с вопросами разработки архитектурных и программных решений для создания суперкомпьютеров, но и с деятельностью лаборатории фотонных вычислительных устройств НЦФМ, где как раз будет идти разработка фотонных элементов и компьютеров на их основе. Школа математического моделирования на суперЭВМ экса- и зеттафлопсной производительности принимает заявки до 30 июня на сайте ncphm. Ребята узнают о новой лаборатории цифровых двойников сложных технических устройств, об исследованиях в интересах создания суперЭВМ, в том числе на новых физических принципах, математических методах и алгоритмах для моделирования высокотехнологичных индустриальных систем, и т. Хочу еще отметить, что каждый год в МГУ в Москве мы проводим конференцию «Суперкомпьютерные дни в России», в ней принимают участие представители практически всех научно-образовательных организаций этого направления. Конференция будет в сентябре, мы ожидаем из Китая большую группу, которая занимается разработкой эксафлопсных компьютеров. Дети очень быстро вникают в тему, проявляют интерес, задают вопросы. Считаю такую работу важной и необходимой для будущего страны в плане подготовки научных кадров и общего развития подрастающего поколения. Микросхемы усложняются по экспоненте.
Квантовые технологии в России 2023
В рейтинге Тор500 самых мощных мировых суперкомпьютеров проект «Яндекс» под названием «Червоненкис» занял 19 место в общемировом зачёте, и, таким образом, стал самым мощным решением в России и Восточной Европе. Президент России Владимир Путин поручил правительству разработать и осуществить реализацию мер, направленных на увеличение вычислительных мощностей отечественных суперкомпьютеров. Одним из предназначений суперкомпьютера российского Министерства обороны является моделирование и прогнозирование развития военных конфликтов. Планируется, что мощность компьютера будет увеличена до 234,4 Тфлопс к 2025 году, а конструкция расширится до 34 узлов. Финансирование суперкомпьютера велось на средства федерального гранта. Президент России Владимир Путин заявил, что в стране необходимо многократно увеличить мощности суперкомпьютеров.