В начале 2013 года в нашем университете появился свой вычислительный кластер. Он установлен на кафедре ЭВМ в лаборатории параллельных вычислений, открытой совместно с компанией EPAM Systems (ауд. 508-5).
Кластер (в нашем случае) – это разновидность вычислительных систем, которые строятся на основе одинаковых узлов, связанных высокоскоростной сетью. Таким образом, с точки зрения пользователя кластер является единым аппаратным ресурсом.
Часто вычислительной мощности кластера достаточно, чтобы рассматривать его как суперкомпьютер, то есть компьютер, который по производительности значительно превосходит средний уровень персональных компьютеров и рабочих станций. Так, почти все современные суперкомпьютеры являются кластерами. Но не каждый кластер является суперкопьютером.
Информацией о кластере БГУИРа с нами любезно поделился преподаватель кафедры ЭВМ Дмитрий Юрьевич Перцев.
На фото: вычислительный кластер БГУИР. Кластер построен на блейд-архитектуре. Для питания кластера используется электрическая сеть с напряжением 380 В.
– Каковы технические характеристики кластера?
– Наш кластер состоит из одного управляющего узла и семи вычислительных узлов. Основная вычислительная работа производится на GPU с использованием технологии NVIDIA® CUDA®. Установлена операционная система на ядре Linux.
Для поддержания бесперебойной работы кластера используется ИБП Smart UPS RT 10.000 с номинальной мощностью 8.000 Вт.
На фото слева: вычислительные узлы кластера. Во время фотосессии работал только управляющий узел, а все вычислительные узлы были переведены в режим ожидания. Однако шум от вентиляторов был довольно громким. Если же кластер работает в режиме полной загрузки, шум в помещении такой, что приходится кричать стоящему в полуметре от тебя человеку, чтобы он тебя услышал.
Подробные технические характеристики кластера представлены в таблице ниже:
Управляющий узел | Каждый вычислительный узел |
Blade: GPU SuperBlade SBI-7127RG | Blade: GPU SuperBlade SBI-7127RG |
2 х CPU Intel Xeon E5606 | 2 х CPU Intel Xeon E5-2650 |
24 Gb RAM | 32 Gb RAM |
2x SSD 80Gb, 4x HDD 300Gb | 2x Tesla M2075 6 Gb RAM |
InfiniBand 4x QDR (40Gbps) | InfiniBand 4x QDR (40Gbps) |
Network 2x Gigabit Ethernet | Network 2x Gigabit Ethernet |
– Какие задачи планируется решать с помощью нашего кластера?
– Вообще говоря, на кластере можно решать те же задачи, что и на привычных для нас персональных компьютерах. Практически любую задачу с десктопа можно перенести на кластер. Однако стоит сделать пару уточнений:
- Если задача быстро решается на десктопе, нет практического смысла в её переносе на кластер;
- Если задача написана «непараллельно» (для вычислений используется одно вычислительное ядро), прирост производительности от переноса на кластер будет незначительным.
Таким образом, есть смысл переносить задачи, которые в общем случае требуют существенного времени для вычислений на десктопе. Например, задачи математического моделирования, обработки больших объемов данных
На кафедре ЭВМ ведется научно-исследовательская работа по направлению «Цифровая обработка сигналов и изображений». Требуется обрабатывать аудио- и видеопотоки в режиме реального времени. С такой задачей наш кластер успешно справится.
На кафедре РЛС в рамках научно-исследовательской работы необходимо производить расчеты микроволнового излучения – ещё одна потенциальная задача для нашего кластера.
– Будет ли кластер использоваться в учебном процессе?
– Планируется использование кластера студентами специальности «Вычислительные машины, системы и сети» в рамках изучения дисциплины «Архитектура вычислительных машин и систем».
– Кто может использовать кластер?
– Сотрудники научно-исследовательских групп университета, преподаватели кафедр, студенты, аспиранты и магистранты могут получить доступ к кластеру. Доступ предоставляется из внутренней сети университета. Для каждого участника создается отдельный пользователь. Необходимо авторизоваться на сервере, а дальше работа ведется как с обычной удаленной машиной.
Для получения доступа необходимо связаться с А.А. Уваровым либо с Д.Ю. Перцевым (информация для связи размещена в конце статьи - прим. автора).
– Как написать программу, которая будет работать на кластере?
В общем случае можно запустить любую программу на одном из узлов кластера, и она будет работать. Вопрос лишь в том, насколько эффективно будут использоваться имеющиеся ресурсы.
В нашем случае акцент был сделан на использование ресурсов GPU для вычислений (в частности – на технологию NVIDIA CUDA). Для того чтобы попробовать написать программу с использованием NVIDIA CUDA, любой желающий может скачать пакет разработчика NVIDIA CUDA Toolkit с официального сайта NVIDIA и установить более или менее современную видеокарту от этой компании в свой домашний компьютер. Кроме того, на домашнем компьютере можно отладить программу, оптимизировать её производительность, а затем просто перенести программу на наш кластер и без дополнительных манипуляций запустить её на кластере. Процесс переноса в этом случае очень прост.
– Есть ли в Беларуси другие суперкомпьютеры?
– Свой суперкомпьютер есть в БГУ. Также есть знаменитый белорусский суперкомпьютер «Скиф», расположенный в Объединенном институте проблем информатики Национальной академии наук Беларуси.
Сравнительная характеристика двух перечисленных суперкомпьютеров и нашего кластера представлена в таблице ниже.
БГУИР | К1000/2 | СКИФ GPU | |
Узлов | 7 | 144 | 34 |
Процессоров | 14 | 288 | 68 |
Ядер CPU | 112 | 576 | 272 |
Частота ядра CPU, GHz | 2,4 | 2,2 | 2,93 |
Производительность на ядро CPU, GFLOPS | 19,2 | 4,4 | 11,7 |
Производительность на CPU, GFLOPS | 154 | 8,8 | 47 |
Производительность всех CPU, GFLOPS | 2150 | 2534 | 3188 |
Количество GPU | 14 | Н/Д | 34 |
Пиковая производительность GPU, GFLOPS | 515 | Н/Д | 149 |
Пиковая производительность всех GPU, GFLOPS | 7210 | Н/Д | 5067 |
Суммарная пиковая производительность, GFLOPS | 9360 | 2534 | 8255 |
По вопросам использования кластера обращайтесь:
Минск, ул. Платонова 39, аудитория 505, 5 корпус БГУИР, тел. +375 17 293-80-39
- Уваров Андрей Александрович, +375 29 509 15 16, uvarov.andrey@gmail.com
- Перцев Дмитрий Юрьевич, +375 29 127 35 76, DmitryPertsev@gmail.com