Материал из РУВИКИ — свободной энциклопедии

Суперкомпьютер

«Cray-2» — самый быстрый компьютер 19851989 годов.

Суперкомпьютер (англ. Supercomputer, СверхЭВМ, СуперЭВМ, сверхвычислитель) — специализированная вычислительная машина, значительно превосходящая по своим техническим параметрам и скорости вычислений большинство существующих в мире компьютеров.

Как правило, современные суперкомпьютеры представляют собой большое число высокопроизводительных серверных компьютеров, соединённых друг с другом локальной высокоскоростной магистралью для достижения максимальной производительности в рамках реализации распараллеливания вычислительной задачи.

Определение понятия суперкомпьютер[править | править код]

Определение понятия «суперкомпьютер» не раз было предметом многочисленных споров и обсуждений.

Чаще всего авторство термина приписывается Джорджу Майклу (George Anthony Michael) и Сиднею Фернбачу (Sidney Fernbach), в конце 60-х годов XX века работавшим в Ливерморской национальной лаборатории, и компании CDC. Тем не менее, известен тот факт, что ещё в 1920 году газета New York World[en] рассказывала о «супервычислениях», выполнявшихся при помощи табулятора IBM, собранного по заказу Колумбийского университета.

В общеупотребительный лексикон термин «суперкомпьютер» вошёл благодаря распространённости компьютерных систем Сеймура Крэя, таких как, CDC 6600, CDC 7600, Cray-1, Cray-2, Cray-3[en] и Cray-4[en]. Сеймур Крэй разрабатывал вычислительные машины, которые по сути становились основными вычислительными средствами правительственных, промышленных и академических научно-технических проектов США с середины 60-х годов до 1996 года. Не случайно в то время одним из популярных определений суперкомпьютера было следующее: — «любой компьютер, который создал Сеймур Крэй». Сам Крэй никогда не называл свои детища суперкомпьютерами, предпочитая использовать вместо этого обычное название «компьютер».

Компьютерные системы Крэя удерживались на вершине рынка в течение 5 лет с 1985 по 1990 годы. 80-е годы XX века охарактеризовались появлением множества небольших конкурирующих компаний, занимающихся созданием высокопроизводительных компьютеров, однако к середине 90-х большинство из них оставили эту сферу деятельности, что даже заставило обозревателей заговорить о «крахе рынка суперкомпьютеров».

Ныне каждый суперкомпьютер представляет собой уникальную систему, создаваемую одним из «традиционных» игроков компьютерной индустрии (например: IBM, Hewlett-Packard, NEC и другими), которые приобрели множество ранних компаний, вместе с их опытом и технологиями. Компания Cray по-прежнему занимает достойное место в ряду производителей суперкомпьютеров.

Из-за большой гибкости самого термина до сих пор распространены довольно нечёткие представления о понятии «суперкомпьютер». Шутливая классификация Гордона Белла и Дона Нельсона, разработанная приблизительно в 1989 году, предлагала считать суперкомпьютером любой компьютер, весящий более тонны. Современные суперкомпьютеры действительно весят более 1 тонны, однако далеко не каждый тяжеловесный компьютер достоин чести считаться суперкомпьютером. В общем случае, суперкомпьютер — это компьютер намного более мощный, чем доступные для большинства пользователей машины. При этом скорость технического прогресса сегодня такова, что сегодняшний суперкомпьютер-лидер завтра легко может сдать лидерскую позицию.

Архитектура также не может считаться признаком принадлежности к классу суперкомпьютеров. Ранние компьютеры CDC были обычными машинами, всего лишь оснащёнными быстрыми для своего времени скалярными процессорами, скорость работы которых была в несколько десятков раз выше, чем у компьютеров, предлагаемых другими компаниями.

Большинство суперкомпьютеров 70-х оснащались векторными процессорами, а к началу и середине 80-х небольшое число (от 4 до 16) параллельно работающих векторных процессоров практически стало стандартной основой конфигурацией суперкомпьютеров. Конец 80-х и начало 90-х годов охарактеризовались сменой магистрального направления развития суперкомпьютеров от векторно-конвейерной обработки к большому и сверхбольшому числу параллельно соединённых скалярных процессоров.

Массово-параллельные системы стали объединять в себе сотни и даже тысячи отдельных процессорных элементов, причём ими могли служить не только специально разработанные, но и массово производимые и, следовательно, доступные в свободной продаже процессоры. Большинство массово-параллельных компьютеров создавалось на основе мощных процессоров с архитектурой RISC, наподобие PowerPC или PA-RISC.

В конце 90-х годов высокая стоимость специализированных суперкомпьютерных систем и нарастающая потребность разных слоёв общества в доступных вычислительных ресурсах привели к широкому распространению компьютерных кластеров. Для этого класса систем характерно использование отдельных узлов на основе дешёвых и широко доступных компьютерных комплектующих для серверов и персональных компьютеров и объединённых при помощи мощных коммуникационных систем и специализированных программно-аппаратных решений. Несмотря на кажущуюся простоту, кластеры довольно быстро заняли достаточно большой сегмент суперкомпьютерной индустрии, обеспечивая высочайшую производительность при минимальной стоимости системы.

В настоящее время суперкомпьютерами принято называть компьютеры с огромной вычислительной мощностью («числодробилки» или «числогрызы»). Такие машины используются для выполнения программ, реализующих наиболее интенсивные вычисления (например, прогнозирование погодно-климатических условий, моделирование ядерных взрывов и т. п.), что в том числе отличает их от серверов и мэйнфреймов (англ. mainframe) — компьютеров с высокой общей производительностью, призванных решать типовые задачи (например, обслуживание больших баз данных или одновременная работа с множеством пользователей).

Иногда суперкомпьютер выполняет одну-единственную программу, использующую всю доступную память и все процессоры системы. В иных случаях они обеспечивают выполнение большого числа разнообразных прикладных программ.

История суперкомпьютеров[править | править код]

Одним из первых суперкомпьютеров считается Cray-1, созданный в 1974 году. С помощью поддержки векторных операций эта суперЭВМ достигала производительности в 180 миллионов операций в секунду над числами с плавающей точкой (FLOPS).

По применению суперкомпьютеров Россия сильно отстаёт от США, Китая, Европы и Японии. Если в 2018 г. доля России в мировом ВВП составила 1,8 %, то в мировой производительности суперкомпьютеров лишь 0,32 %.[1]

Применение[править | править код]

Суперкомпьютеры используются во всех сферах:

  • где для решения задачи применяется численное моделирование, сопряженное с очень большим объёмом сложных вычислений;
  • там, где требуется огромный объём сложных вычислений, обработка большого количества данных в реальном времени, или решение задачи может быть найдено простым перебором множества значений множества исходных параметров (см. Метод Монте-Карло).

Совершенствование методов численного моделирования происходило одновременно с совершенствованием вычислительных машин, — чем сложнее были задачи, тем выше были требования к создаваемым машинам. Чем быстрее были машины, тем сложнее были задачи, которые на них можно было решать. Поначалу суперкомпьютеры применялись почти исключительно для оборонных задач: расчёты по ядерному и термоядерному оружию, ядерным реакторам, проектированию подводных кораблей. Потом, по мере совершенствования математического аппарата численного моделирования, развития знаний в других сферах науки — суперкомпьютеры стали применяться и в мирных расчётах и расчётах двойного назначения, создавая новые научные дисциплины, как то:

Ниже приведён далеко не полный список областей применения суперкомпьютеров:

  • Вычислительная химия и медицина: изучение строения вещества и природы химической связи как в изолированных молекулах, так и в конденсированном состоянии, поиск и создание новых катализаторов и лекарств.

Производительность[править | править код]

Производительность суперкомпьютеров чаще всего оценивается и выражается в количестве операций над числами с плавающей точкой в секунду (FLOPS). Это связано с тем, что задачи численного моделирования, под которые и создаются суперкомпьютеры, чаще всего требуют вычислений, оперирующих вещественными числами (зачастую с высокой степенью точности) а не целыми числами. Поэтому для суперкомпьютеров неприменима мера быстродействия обычных компьютерных систем — количество миллионов операций в секунду (MIPS). При всей своей неоднозначности и приблизительности, оценка во флопсах позволяет легко сравнивать суперкомпьютерные системы друг с другом, опираясь на объективный критерий.

Первые суперкомпьютеры имели производительность порядка 1 кфлопс, то есть 1000 операций с плавающей точкой в секунду. В США компьютер, имевший производительность в 1 МФлопс (1 миллион флопсов) (CDC 6600), был создан в 1964 году. Известно, что в 1963 году в московском НИИ-37 (позже НИИ ДАР) был разработан компьютер на основе модулярной арифметики с производительностью 2,4 млн оп/с. Это был экспериментальный компьютер второго поколения (на дискретных транзисторах) Т340-А[8] (гл. конструктор Д. И. Юдицкий). Однако следует отметить, что прямое сравнение производительности модулярных и классических («фон-немановских») ЭВМ некорректно. Модулярная арифметика оперирует только с целыми числами. Представление вещественных чисел в модулярных ЭВМ возможно только в формате с фиксированной запятой, недостатком коего является существенное ограничение диапазона представимых чисел.

  1. Планка в 1 миллиард флопс (1 Гигафлопс) была преодолена суперкомпьютерами NEC SX-2 в 1983 году с результатом 1.3 Гфлопс.
  2. В 1996 году суперкомпьютером ASCI Red взят барьер в 1 триллион флопс (1 Тфлопс).
  3. Рубеж 1 квадриллион флопс (1 Петафлопс) перейден в 2008 году суперкомпьютером IBM Roadrunner.
  4. Рубеж 1 квинтиллион флопс (1 Эксафлопс) перейден в 2022 году суперкомпьютером Frontier.

Программное обеспечение суперкомпьютеров[править | править код]

Наиболее распространёнными программными средствами суперкомпьютеров, так же, как и параллельных или распределённых компьютерных систем, являются интерфейсы программирования приложений (API) на основе MPI и PVM, и решения на базе открытого программного обеспечения, наподобие Beowulf и openMosix, позволяющего создавать виртуальные суперкомпьютеры даже на базе обыкновенных рабочих станций и персональных компьютеров. Для быстрого подключения новых вычислительных узлов в состав узкоспециализированных кластеров применяются технологии наподобие ZeroConf. Примером может служить реализация рендеринга в программном обеспечении Shake, распространяемом компанией Apple. Для объединения ресурсов компьютеров, выполняющих программу Shake, достаточно разместить их в общем сегменте локальной вычислительной сети.

В настоящее время границы между суперкомпьютерным и общеупотребимым программным обеспечением сильно размыты и продолжают размываться ещё более вместе с проникновением технологий параллелизации и многоядерности в процессорные устройства персональных компьютеров и рабочих станций. Исключительно суперкомпьютерным программным обеспечением сегодня можно назвать лишь специализированные программные средства для управления и мониторинга конкретных типов компьютеров, а также уникальные программные среды, создаваемые в вычислительных центрах под «собственные», уникальные конфигурации суперкомпьютерных систем.

Top500[править | править код]

Начиная с 1993, суперкомпьютеры ранжируют в списке Top500. Список составляется на основе теста LINPACK по решению системы линейных алгебраических уравнений, являющейся общей задачей для численного моделирования.

Самым мощным суперкомпьютером в ноябре 2022 года по этому списку стал Frontier, работающий в Ок-Риджской национальной лаборатории (ORNL) в США. Скорость вычислений, производимых им, составляет 1.102 эксафлопс (10 в 18 степени вычислительных операций с плавающей запятой в секунду). По этому показателю он в два с половиной раза производительнее предыдущего рекордсмена — Фугаку, работающего в Центре вычислительных наук Института физико-химических исследований (RIKEN) в Кобе, Япония.

Распределение суперкомпьютеров из списка Top500 по странам мира (ноябрь 2022 года)[9]
Страна Количество суперкомпьютеров
Китай Китай 162
Соединённые Штаты Америки США 127
Германия Германия 34
Япония Япония 31
Франция Франция 24
Великобритания Великобритания 15
Канада Канада 10
Республика Корея Южная Корея 8
Нидерланды Нидерланды 8
Бразилия Бразилия 8
Италия Италия 7
Россия Россия 7
Саудовская Аравия Саудовская Аравия 6
Швеция Швеция 6
Австралия Австралия 5
Ирландия Ирландия 5
Швейцария Швейцария 4
Сингапур Сингапур 3
Норвегия Норвегия 3
Индия Индия 3
Финляндия Финляндия 3
Польша Польша 3
Китайская Республика (Тайвань) Тайвань 2
Чехия Чехия 2
Люксембург Люксембург 2
Объединённые Арабские Эмираты ОАЭ 2
Австрия Австрия 2
Словения Словения 2
Испания Испания 1
Марокко Марокко 1
Болгария Болгария 1
Флаг Таиланда Таиланд 1
Флаг Бельгии Бельгия 1
Венгрия Венгрия 1

На всех суперкомпьютерах из списка Top500 по состоянию на ноябрь 2022 года используется операционная система Linux[10]. Linux стал использоваться на всех суперкомпьютерах списка с ноября 2017 года, вытеснив последним операционную систему UNIX OS.

Из Linux-систем 64,2 % не детализируют дистрибутив, 12,6 % используют CentOS, 8,6 % — Cray Linux, 5 % — SUSE, 3 % — RHEL, 0,6 % — Scientific Linux, 0,6 % — Ubuntu.

В России[править | править код]

Текущий рейтинг ТОП-50 (Редакция № 37 от 26.09.2022)[11][12][править | править код]

Название

Место установки

Узлов

Проц. Ускор.

Архитектура:

кол-во узлов: конфигурация узла сеть: вычислительная / сервисная / транспортная

Rmax

Rpeak (Тфлоп/с)

Разработчик

Область применения

1 «Червоненкис»

Яндекс, Москва

199

398 1592

199:
CPU: 2x AMD EPYC 7702 , 1024 GB RAM
Acc: 8x NVIDIA A100

HDR InfiniBand / нд / 100 Gigabit Ethernet

21530.0

29415.17

Яндекс

NVIDIA IT Services

2 «Галушкин»

Яндекс, Москва

136

272 1088

136:
CPU: 2x AMD EPYC 7702 , 1024 GB RAM
Acc: 8x NVIDIA A100

HDR InfiniBand / нд / 100 Gigabit Ethernet

16020.0

20636.1

Яндекс

NVIDIA IT Services

3 «Ляпунов»

Яндекс, Москва

137

274 1096

137:
CPU: 2x AMD Epyc 7662, 512 GB RAM
Acc: 8x NVIDIA A100

HDR InfiniBand / нд / 100 Gigabit Ethernet

12810.0

20029.19

NVIDIA

Inspur IT Services

4 «Кристофари Нео»

SberCloud (ООО «Облачные технологии») , СберБанк, Москва

99

198 792

99:
CPU: 2x AMD EPYC 7742, 2048 GB RAM
Acc: 8x NVIDIA A100

HDR InfiniBand / 10 Gigabit Ethernet / 200 Gigabit Ethernet

11950.0

14908.6

NVIDIA

SberCloud (ООО «Облачные технологии») Облачный провайдер

5 «Кристофари»

SberCloud (ООО «Облачные технологии») , СберБанк, Москва

75

150 1200

75: NVIDIA DGX-2
CPU: 2x Intel Xeon Platinum 8168 24C 2.7GHz, 1536 GB RAM
Acc: 16x NVIDIA Tesla V100

EDR Infiniband / 100 Gigabit Ethernet / 10 Gigabit Ethernet

6669.0

8789.76

SberCloud (ООО «Облачные технологии»)

NVIDIA Облачный провайдер

6 «Ломоносов-2»

Московский государственный университет имени М. В. Ломоносова, Москва

1696

1696 1856

1536:
CPU: 1x Intel Xeon E5-2697v3, 64 GB RAM
Acc: 1x NVIDIA Tesla K40M
160:
CPU: 1x Intel Xeon Gold 6126, 96 GB RAM
Acc: 2x NVIDIA Tesla P100

FDR Infiniband / Gigabit Ethernet / FDR Infiniband

2478.0

4946.79

Т‑Платформы

Наука и образование

7 «МТС GROM»

ПАО «МТС», Лыткарино

20

40 160

20:
CPU: 2x AMD EPYC 7742, 1024 GB RAM
Acc: 8x NVIDIA NVIDIA A100 40GB

InfiniBand / нд / нд

2258.0

3011.84

NVIDIA

Mellanox NetApp Искусственный интеллект

8 ФГБУ 'ГВЦ Росгидромета',

Москва

976

1952 н/д

976:
CPU: 2x Intel Xeon E5-2697v4, 128 GB RAM

Aries / Aries + Gigabit Ethernet / Aries + Infiniband

1200.35

1293.0

Т‑Платформы

Cray Исследования

9 «Политехник — РСК Торнадо»

Суперкомпьютерный центр, Санкт‑Петербургский политехнический университет, Санкт-Петербург

821

1642 128

625:
CPU: 2x Intel Xeon E5-2697v3, 64 GB RAM
56:
CPU: 2x Intel Xeon E5-2697v3, 64 GB RAM
Acc: 2x NVIDIA Tesla K40
54:
CPU: 2x Intel Xeon E5-2697v3, 128 GB RAM
30:
CPU: 2x Intel Xeon Platinum 8268, 192 GB RAM
2:
CPU: 2x Intel Xeon Gold 6248R, 768 GB RAM
Acc: 8x NVIDIA Tesla V100
51:
CPU: 2x Intel Xeon Gold 6248R, 192 GB RAM
3:
CPU: 2x Intel Xeon E5-2697v3, 256 GB RAM

FDR Infiniband / Gigabit Ethernet / Gigabit Ethernet

971.23

1521.27

Группа компаний РСК

Наука и образование

10 «cHARISMa»

Национальный исследовательский университет Высшая школа экономики, Москва

54

108 166

16:
CPU: 2x Intel Xeon Gold 6152, 768 GB RAM
Acc: 4x NVIDIA Tesla V100
10:
CPU: 2x Intel Xeon Gold 6152, 1536 GB RAM
Acc: 4x NVIDIA Tesla V100
6:
CPU: 2x Intel Xeon Gold 6152, 768 GB RAM
2:
CPU: 2x Intel Xeon Gold 6152, 768 GB RAM
Acc: 1x NVIDIA Tesla P40
3:
CPU: 2x Intel Xeon Gold 6240R, 768 GB RAM
Acc: 4x NVIDIA Tesla V100
11:
CPU: 2x Intel Xeon Gold 6248R, 384 GB RAM
6:
CPU: 2x AMD EPYC 7702 , 1024 GB RAM
Acc: 8x NVIDIA A100

EDR Infiniband / Gigabit Ethernet / EDR Infiniband

927.4

2027.0

Dell

Avilex Hewlett Packard Enterprise Институт системного программирования РАН (ИСП РАН) Наука и образование

11 «МВС-10П ОП2»

Межведомственный суперкомпьютерный центр, РАН, Москва

249

498 н/д

58:
CPU: 2x Intel Xeon Gold 6154, 192 GB RAM
51:
CPU: 2x Intel Xeon Platinum 8268, 192 GB RAM
140:
CPU: 2x Intel Intel Xeon Gold 6248R, 192 GB RAM

Intel OmniPath / Gigabit Ethernet / Intel OmniPath

759.42

1072.74

Группа компаний РСК

Наука и образование

12 НИЦ «Курчатовский институт»,

Москва

535

1070 365

148:
CPU: 2x Intel Xeon E5-2650v2, 128 GB RAM
Acc: 2x NVIDIA Tesla K80
23:
CPU: 2x Intel Xeon E5-2680v3, 128 GB RAM
Acc: 3x NVIDIA Tesla K80
364:
CPU: 2x Intel Xeon E5-2680v3, 128 GB RAM

FDR Infiniband / Gigabit Ethernet / Gigabit Ethernet

755.53

1100.55

НИЦ «Курчатовский Институт»

SuperMicro Борлас Т‑Платформы Наука и образование

13 «ZHORES CDISE Cluster»

Сколковский Институт Науки и Технологий, Москва

82

172 104

44:
CPU: 2x Intel Xeon Gold 6136, 192 GB RAM
26:
CPU: 2x Intel Xeon Gold 6140, 384 GB RAM
Acc: 4x NVIDIA Tesla V100
4:
CPU: 2x Intel Xeon Gold 6136, 192 GB RAM
2:
CPU: 2x Intel Xeon Gold 6134, 384 GB RAM
4:
CPU: 4x Intel Xeon Gold 6134, 192 GB RAM
2:
CPU: 2x Intel Xeon Gold 6136, 256 GB RAM

EDR Infiniband / 10 Gigabit Ethernet / Fast Ethernet

495.9

1011.6

Dell

Наука и образование

14 «PetaNode 1.2 Cluster»

Компьютерные Экосистемы, Новосибирск

6

12 112

2:
CPU: 2x Intel Xeon Platinum 8260, 384 GB RAM
Acc: 10x AMD Instinct MI50
2:
CPU: 2x Intel Xeon Platinum 8280L, 768 GB RAM
Acc: 18x AMD Instinct MI50
2:
CPU: 2x Intel Xeon Platinum 8280L, 1536 GB RAM
Acc: 28x AMD Instinct MI50

10 Gigabit Ethernet / Gigabit Ethernet / 10 Gigabit Ethernet

420.06

777.68

Компьютерные Экосистемы

ТехноСити Моделирование климата

15 «Колмогоров»

АО «Тинькофф Банк», Москва

10

20 80

10:
CPU: 2x Intel Xeon Gold 6154, 384 GB RAM
Acc: 8x NVIDIA Tesla V100

100 Gigabit Ethernet / 100 Gigabit Ethernet / 100 Gigabit Ethernet

418.9

658.5

NVIDIA

Mellanox Искусственный интеллект

16 «МВС-10П»

Межведомственный суперкомпьютерный центр, РАН, Москва

208

416 416

208:
CPU: 2x Intel Xeon E5-2690, 80 GB RAM
Acc: 2x Intel Xeon Phi 7110X

FDR Infiniband / Fast Ethernet / Gigabit Ethernet

383.21

523.83

Группа компаний РСК

Наука и образование

17 «имени Н. Н. Говоруна сегмент SKYLAKE»

Лаборатория Информационных Технологий, Объединённый Институт Ядерных Исследований, Дубна

104

208 н/д

104:
CPU: 2x Intel Xeon 8268, 192 GB RAM

Intel OmniPath / Fast Ethernet / Gigabit Ethernet

312.62

463.26

Группа компаний РСК

Наука и образование

18 «Лобачевский»

Нижегородский государственный университет им. Н. И. Лобачевского, Нижний Новгород

180

360 450

100:
CPU: 2x Intel Xeon E5-2660, 65.5 GB RAM
Acc: 3x NVIDIA Kepler K20X
50:
CPU: 2x Intel Xeon E5-2660, 65.5 GB RAM
Acc: 2x NVIDIA Fermi 2090
10:
CPU: 2x Intel Xeon E5-2660, 65.5 GB RAM
Acc: 2x Intel Xeon Phi 5110P
10:
CPU: 2x Intel Xeon E5-2660, 65.5 GB RAM
Acc: 3x NVIDIA Fermi 2090
10:
CPU: 2x Intel Xeon E5-2660, 65.5 GB RAM

QDR Infiniband / Gigabit Ethernet / QDR Infiniband

289.5

573.0

Ниагара Компьютерс

Наука и образование

19 «РСК Торнадо ЮУрГУ»

Южно‑Уральский государственный университет, Челябинск

384

768 384

384:
CPU: 2x Intel Xeon X5680, 24.6 GB RAM
Acc: 1x Intel Xeon Phi SE10X

QDR Infiniband / Gigabit Ethernet / QDR Infiniband

288.2

473.64

Группа компаний РСК

Наука и образование

20 new ФГБОУ ВО Марийский государственный университет,

Йошкар-Ола

111

221 20

56:
CPU: 2x Intel Xeon E5-2660 v4, 64 GB RAM
20:
CPU: 2x Intel Xeon Gold 6238R, 32 GB RAM
10:
CPU: 2x Intel Xeon Silver 4114, 64 GB RAM
4:
CPU: 2x Intel Xeon E5-2640 v4, 256 GB RAM
5:
CPU: 2x Intel Xeon E5520, 24 GB RAM
3:
CPU: 2x Intel Xeon E5-2690 v3, 96 GB RAM
Acc: 1x NVIDIA RTX 3080
3:
CPU: 2x Intel Xeon Gold 6154, 192 GB RAM
Acc: 1x NVIDIA RTX 3080
2:
CPU: 2x Intel Xeon Silver 4114, 384 GB RAM
Acc: 1x NVIDIA Tesla P40
3:
CPU: 2x Intel Xeon E5-2690v2, 96 GB RAM
Acc: 1x NVIDIA RTX 3080
1:
CPU: 1x Intel Xeon E5-2697v2, 48 GB RAM
Acc: 1x NVIDIA RTX 3080
1:
CPU: 2x IBM Xeon Silver 4214R, 512 GB RAM
Acc: 3x NVIDIA RTX 6000
1:
CPU: 2x Intel Xeon Silver 4108, 64 GB RAM
Acc: 3x NVIDIA RTX 2080
1:
CPU: 2x Intel Xeon E5-2683 v4, 256 GB RAM
Acc: 1x NVIDIA Tesla K80
1:
CPU: 2x Intel Xeon E5-2687W v4, 192 GB RAM
Acc: 1x NVIDIA Quadro P6000

2x10 Gigabit Ethernet + 2x1 Gigabit Ethernet / 2xGigabit Ethernet / 10 Gigabit Ethernet

275.36

555.06

HUAWEI

Наука и образование

21 ▽ НОВАТЭК НТЦ,

Тюмень

272

544 н/д

2:
CPU: 2x Intel Xeon Gold 5115, 256 GB RAM
1:
CPU: 2x Intel Xeon Gold 6144, 512 GB RAM
1:
CPU: 2x Intel Xeon Silver 4112, 64 GB RAM
36:
CPU: 2x Intel Xeon Gold 6144, 128 GB RAM
14:
CPU: 2x Intel Xeon Gold 5115, 128 GB RAM
204:
CPU: 2x Intel Xeon Gold 6244, 128 GB RAM
14:
CPU: 2x Intel Xeon Gold 6240, 128 GB RAM

10 Gigabit Ethernet / Gigabit Ethernet / 10 Gigabit Ethernet

273.28

496.87

Hewlett Packard Enterprise

Геофизика

22 ▽ «HPC park cloud»

HPC-park, Москва

5

10 40

5:
CPU: 2x Intel Xeon Gold 6230R, 512 GB RAM
Acc: 8x NVIDIA A100

10 Gigabit Ethernet / Gigabit Ethernet / 10 Gigabit Ethernet

214.9

405.47

Hewlett Packard Enterprise

Коммерческий сектор

23 ▽ «Российский университет дружбы народов»

Федеральное государственное автономное образовательное учреждение высшего образования «Российский университет дружбы народов», Москва

206

412 40

192:
CPU: 2x Intel Xeon E5-2690v4, 256 GB RAM
7:
CPU: 2x Intel Xeon E5-2680v4, 256 GB RAM
Acc: 2x NVIDIA Tesla K80
5:
CPU: 2x Intel Xeon E5-2680v4, 512 GB RAM
Acc: 2x NVIDIA K2
2:
CPU: 2x Intel Xeon E5-2698v4, 512 GB RAM
Acc: 8x NVIDIA Tesla V100

FDR Infiniband / Gigabit Ethernet / 40 Gigabit Ethernet

205.46

406.81

ФГАОУ ВО «Российский университет дружбы народов»

NX-IT Наука и образование

24 ▽ «Суперкомпьютер „Константинов“»

ПИЯФ, НИЦ «Курчатовский институт», Санкт-Петербург

268

496 н/д

160:
CPU: 2x Intel Xeon E5-2680v4, 128 GB RAM
40:
CPU: 1x Intel Xeon Phi 7250, 112 GB RAM
30:
CPU: 2x Intel Xeon E5-2680v4, 256 GB RAM
20:
CPU: 2x Intel Xeon E5-2650v4, 256 GB RAM
16:
CPU: 2x Intel Xeon E5-2680v4, 1024 GB RAM
2:
CPU: 2x Intel Xeon E5-2680v4, 1540 GB RAM

EDR Infiniband / Gigabit Ethernet / Gigabit Ethernet

200.44

362.38

NP-IT

Ниагара Компьютерс Исследования

25 ▽ «Уран»

Суперкомпьютерный центр, Институт математики и механики УрО РАН, Екатеринбург

76

152 394

20:
CPU: 2x Intel Xeon X5675, 49.2 GB RAM
Acc: 8x NVIDIA Tesla M2050
10:
CPU: 2x Intel Xeon X5675, 192 GB RAM
Acc: 8x NVIDIA Tesla M2090
16:
CPU: 2x Intel Xeon E5-2660, 192 GB RAM
Acc: 8x NVIDIA Tesla M2090
1:
CPU: 2x Intel Xeon Gold 6240, 384 GB RAM
Acc: 8x NVIDIA Tesla V100 SXM2
6:
CPU: 2x Intel Xeon E5-2650v2, 64 GB RAM
Acc: 3x NVIDIA Tesla K40M
16:
CPU: 2x Intel Xeon E5-2697v4, 256 GB RAM
7:
CPU: 2x Intel Xeon Gold 6254, 384 GB RAM

Infiniband 4x DDR / Gigabit Ethernet / Gigabit Ethernet

194.77

326.85

Hewlett Packard Enterprise

Открытые технологии Наука и образование

26 ▽ «ИБРАЭ РАН»

Федеральное государственное бюджетное учреждение науки Институт проблем безопасного развития атомной энергетики Российской академии наук, Москва

38

76 3

36:
CPU: 2x Intel Xeon Platinum 8368, 256 GB RAM
1:
CPU: 2x Intel Xeon Gold 6334, 1536 GB RAM
Acc: 1x NVIDIA A100
1:
CPU: 2x Intel Xeon® Gold 6334, 1536 GB RAM
Acc: 2x NVIDIA RTX 6000

HDR InfiniBand / Gigabit Ethernet / InfiniBand

191.8

239.8

СерверТрейд

Lenovo NX-IT Исследования

27 ▽ «Политехник — РСК ПетаСтрим»

Суперкомпьютерный центр, Санкт‑Петербургский политехнический университет, Санкт-Петербург

288

288 288

288:
8 GB RAM
Acc: 1x Intel Xeon Phi 5120D

FDR Infiniband / Gigabit Ethernet / FDR Infiniband

191.6

291.1

Группа компаний РСК

Исследования

28 ▽ «имени Н. Н. Говоруна сегмент DGX»

Лаборатория Информационных Технологий, Объединённый Институт Ядерных Исследований, Дубна

5

10 40

5:
CPU: 2x Intel Xeon E5-2698v4, 512 GB RAM
Acc: 8x NVIDIA Tesla V100

QDR Infiniband / Gigabit Ethernet / 10 Gigabit Ethernet

175.13

319.0

NVIDIA

IBS Platformix Наука и образование

29 ▽ «МВС-10П ОП»

Межведомственный суперкомпьютерный центр, РАН, Москва

178

356 н/д

42:
CPU: 2x Intel Xeon E5-2697v3, 128 GB RAM
136:
CPU: 2x Intel Xeon E5-2697Av4, 128 GB RAM

Intel OmniPath / Gigabit Ethernet / 10 Gigabit Ethernet

171.89

229.96

Группа компаний РСК

Наука и образование

30 ▽ «Cluster Platform 3000 BL460c Gen8»

IT Services Provider

н/д

2254 н/д

CPU: Intel Xeon E5-2660

Gigabit Ethernet / нд / нд

160.9

317.4

Hewlett‑Packard

IT Services

31 ▽ «Вычислительный комплекс K-60»

ИПМ им. М. В. Келдыша РАН, Москва

8

16 32

8:
CPU: 2x Intel Xeon Gold 6142, 768 GB RAM
Acc: 4x NVIDIA Tesla V100

FDR Infiniband / Gigabit Ethernet / Gigabit Ethernet

159.3

245.2

OFT Group

Наука и образование

32 ▽ «PTG-hpSeismic»

PetroTrace, Москва

152

304 н/д

32:
CPU: 2x Intel Xeon E5-2698v4, 512 GB RAM
32:
CPU: 2x Intel Xeon E5-2698v3, 256 GB RAM
32:
CPU: 2x Intel Xeon E5-2643v3, 384 GB RAM
32:
CPU: 2x Intel Xeon E5-2680v2, 256 GB RAM
24:
CPU: 2x Intel Xeon Gold 6148, 512 GB RAM

EDR Infiniband / EDR Infiniband / 10 Gigabit Ethernet

147.03

191.69

Hewlett Packard Enterprise

Seismic Processing

33 ▽ «DLHouse»

Высший колледж информатики НГУ, Новосибирский государственный университет, Новосибирск

3

6 24

3:
CPU: 2x Intel Xeon Gold 6148, 768 GB RAM
Acc: 8x NVIDIA Tesla V100

EDR Infiniband / Gigabit Ethernet / Gigabit Ethernet

144.9

196.7

Hewlett Packard Enterprise

Нонолет Наука и образование

34 ▽ «Лобачевский, сегмент A100»

Нижегородский государственный университет им. Н. И. Лобачевского, Нижний Новгород

2

4 16

2:
CPU: 2x AMD EPYC 7742, 512 GB RAM
Acc: 8x NVIDIA A100

EDR Infiniband / Gigabit Ethernet / EDR Infiniband

138.8

321.2

Группа компаний РСК

Наука и образование

35 ▽ «Cyberia»

Межрегиональный супервычислительный центр, Томский государственный университет, Томск

713

1426 16

283:
CPU: 2x Intel Xeon 5150, 8 GB RAM
358:
CPU: 2x Intel Xeon X5670, 48 GB RAM
20:
CPU: 2x Intel Xeon E5-2695v3, 256 GB RAM
5:
CPU: 2x Intel Xeon E5-2695v3, 256 GB RAM
Acc: 2x NVIDIA Tesla K80
7:
CPU: 2x Intel Intel Xeon E5-2670v3, 128 GB RAM
2:
CPU: 2x Intel Intel Xeon E5-2670v3, 128 GB RAM
Acc: 2x NVIDIA Tesla K80
22:
CPU: 2x Intel Xeon Gold 6148, 256 GB RAM
15:
CPU: 2x Intel Xeon Gold 5118, 256 GB RAM
1:
CPU: 2x Intel Xeon Gold 5118, 256 GB RAM
Acc: 2x NVIDIA Tesla V100

QDR Infiniband / Gigabit Ethernet / 10 Gigabit Ethernet

124.2

239.28

Т‑Платформы

NX-IT Наука и образование

36 ▽ «НКС-1П»

Сибирский суперкомпьютерный центр, ИВМиМГ СО РАН, Новосибирск

52

88 н/д

27:
CPU: 2x Intel Xeon E5-2697Av4, 128 GB RAM
16:
CPU: 1x Intel Xeon Phi 7290, 112 GB RAM
1:
CPU: 2x Intel Xeon Platinum 8268, 192 GB RAM
6:
CPU: 2x Intel Xeon Gold 6248R, 192 GB RAM
1:
CPU: 2x Intel Xeon Gold 6248R, 384 GB RAM
1:
CPU: 2x Intel Xeon Gold 6248R, 768 GB RAM

Intel OmniPath / Fast Ethernet / Gigabit Ethernet

120.17

181.74

Группа компаний РСК

Исследования

37 ▽ «Блоха (Flea)»

Нижегородская лаборатория, Intel, Нижний Новгород

100

200 н/д

100:
CPU: 2x Intel Xeon E5-2697v4, 128 GB RAM

FDR Infiniband / Gigabit Ethernet / Gigabit Ethernet

119.98

132.48

Intel

Производитель

38 ▽ «МВС-100К»

Межведомственный суперкомпьютерный центр, РАН, Москва

1275

2550 152

74:
CPU: 2x Intel Xeon X5670, 12.3 GB RAM
192:
CPU: 2x Intel Xeon X5365, 8.2 GB RAM
990:
CPU: 2x Intel Xeon E5450, 8.2 GB RAM
19:
CPU: 2x Intel Xeon X5675, 196.6 GB RAM
Acc: 8x NVIDIA Tesla M2090

Infiniband 4x DDR / Gigabit Ethernet / 2xGigabit Ethernet

119.93

227.84

Hewlett‑Packard

Наука и образование

39 new «Тульский Токарев»

Тульский Промышленный Технопарк, Щекино, Тульская область

1

2 8

1:
CPU: 2x AMD EPYC™ 7H12, 512 GB RAM
Acc: 8x NVIDIA Tesla M2090

10 Gigabit Ethernet / Gigabit Ethernet / 10 Gigabit Ethernet

105.9

156.0

Тульские Вычислительные Платформы

Экзаскалярные Решения Искусственный интеллект

40 ▽ «Cluster Platform 3000BL 2x220»

РНЦ Курчатовский институт, Москва

н/д

2576 н/д

CPU: Intel Xeon E5472

Infiniband 4x DDR / Gigabit Ethernet / Gigabit Ethernet

101.21

123.65

Hewlett‑Packard

Наука и образование

41 ▽ «СКИФ-Аврора ЮУрГУ»

Южно‑Уральский государственный университет, Челябинск

н/д

1472 н/д

CPU: Intel Xeon X5680

QDR Infiniband / нд / нд

100.35

117.64

Группа компаний РСК

Наука и образование

42 ▽ Промышленный сектор,

Москва

96

204 н/д

90:
CPU: 2x Intel Xeon E5-2697v3, 128 GB RAM
6:
CPU: 4x Intel Xeon E7-4830v3, 512 GB RAM

EDR Infiniband / Gigabit Ethernet / Gigabit Ethernet

97.32

114.51

Т‑Платформы

Ай‑Теко Промышленность

43 Вычислительный центр Дальневосточного отделения Российской академии наук,

г. Хабаровск

1

2 8

1:
CPU: 2x AMD EPYC 7742, 2048 GB RAM
Acc: 8x NVIDIA A100

нд / Gigabit Ethernet / HDR InfiniBand

94.64

156.0

NVIDIA

ООО «Форсайт Северо-Запад» Наука и образование

44 ▽ Т‑Нано,

Москва

320

640 н/д

70:
CPU: 2x Intel Xeon E5-2670, 128 GB RAM
25:
CPU: 2x Intel Xeon E5-2670, 64 GB RAM
50:
CPU: 2x Intel Xeon E5-2680v2, 128 GB RAM
61:
CPU: 2x Intel Xeon E5-2670v2, 128 GB RAM
114:
CPU: 2x Intel Xeon E5-2650v2, 128 GB RAM

FDR Infiniband / Gigabit Ethernet / Gigabit Ethernet

93.14

116.36

Т‑Платформы

Коммерческий сектор

45 new «Pangea PD Cluster»

АО ПАНГЕЯ, Москва

67

134 16

16:
CPU: 2x Intel Xeon E5-2690v2, 128 GB RAM
32:
CPU: 2x Intel Xeon E5-2680v2, 64 GB RAM
5:
CPU: 2x Intel Xeon E5-2650v4, 128 GB RAM
6:
CPU: 2x Intel Xeon Silver 4116, 128 GB RAM
8:
CPU: 2x Intel Xeon E5-2680v4, 128 GB RAM
Acc: 2x NVIDIA Tesla P100

10 Gigabit Ethernet / 10 Gigabit Ethernet / 40 Gigabit Ethernet

87.45

106.34

Hewlett Packard Enterprise

Dell NVIDIA SuperMicro Геофизика

46 ▽ НОВАТЭК НТЦ,

Тюмень

9

36 9

9:
CPU: 4x Intel Platinum 8168, 384 GB RAM
Acc: 1x NVIDIA Tesla V100

EDR Infiniband / Gigabit Ethernet / 10 Gigabit Ethernet

87.13

137.65

Hewlett Packard Enterprise

Геофизика

47 ▽ «Олег»

Сколковский Институт Науки и Технологий, Москва

60

120 н/д

60:
CPU: 2x Intel Xeon Gold 6230, 96 GB RAM

10 Gigabit Ethernet / Gigabit Ethernet / 10 Gigabit Ethernet

86.24

161.28

Lenovo

Наука и образование

48 ▽ Институт прикладной астрономии РАН,

Санкт-Петербург

40

80 80

32:
CPU: 2x Intel Xeon E5-2670, 64 GB RAM
Acc: 2x NVIDIA Tesla K20
8:
CPU: 2x Intel Xeon E5-2670, 64 GB RAM
Acc: 2x NVIDIA Tesla K20

FDR Infiniband / Gigabit Ethernet / Gigabit Ethernet

85.34

106.91

Т‑Платформы

Исследования

49 ▽ «Десмос»

Объединённый Институт Высоких Температур РАН, Москва

32

32 32

32:
CPU: 1x Intel Xeon E5-1650v3, 32 GB RAM
Acc: 1x AMD Instinct MI50

Ангара / Gigabit Ethernet / Gigabit Ethernet

85.26

221.85

ОАО 'НИЦЭВТ'

Ниагара Компьютерс Наука и образование

50 ▽ «МВС-10МП2»

Межведомственный суперкомпьютерный центр, РАН, Москва

38

38 н/д

38:
CPU: 1x Intel Xeon Phi 7290, 0.1 GB RAM

Intel OmniPath / Gigabit Ethernet / 10 Gigabit Ethernet

83.91

131.33

Группа компаний РСК

Наука и образование

Суперкомпьютеры России представленные в Top500 от ноября 2022 года[12]
Место Rmax / Rpeak (PFLOPS) Принадлежность Название Год создания
25 21.530 / 29.415 Яндекс Червоненкис * 2021
44 16.020 / 20.636 Яндекс Галушкин * 2021
47 12.810 / 20.029 Яндекс Ляпунов * 2020
50 11.950 / 14.909 Сбербанк Кристофари Нео 2021
86 6.669 / 8.790 Сбербанк Кристофари ** 2019
290 2.478 / 4.947 МГУ Ломоносов-2 2018
352 2.258 / 3.012 МТС МТС GROM 2021

* Червоненкис, Галушкин, Ляпунов — фамилии выдающихся советских и российских учёных.

** Кристофари — владелец первой Сберегательной книжки в истории России.

Суперкомпьютер Национального центра управления обороной России, имеющий производительность на уровне 16 петафлопс и по утверждению компетентных лиц являющийся самым мощным военным суперкомпьютером в мире, не участвует в рейтинге Top500. Тем не менее по факту на ноябрь 2021 года является третьим по производительности суперкомпьютером в России.

См. также[править | править код]

Примечания[править | править код]

Литература[править | править код]

Ссылки[править | править код]