Обзор виртуальной машины серии HX
Применимо к: ✔️ Виртуальные машины Linux ✔️ Виртуальные машины Windows ✔️ Универсальные масштабируемые наборы
Сервер серии HX имеет 2 * 96-ядра EPYC 9V33X ЦП для всего 192 физических ядер "Zen4" с кэшем AMD 3D-V. Одновременная многопоточность (SMT) отключена на HX. Эти 192 ядра разделены на 24 раздела (12 на сокет), каждый раздел, содержащий 8 ядер процессора с универсальным доступом к кэшу L3 96 МБ. Серверы Azure HX также выполняют следующие параметры AMD BIOS:
Nodes per Socket (NPS) = 2
L3 as NUMA = Disabled
NUMA domains within VM OS = 4
C-states = Enabled
В результате сервер загружается с 4 доменов NUMA (2 на сокет) каждый 48 ядер в размере. Каждый NUMA имеет прямой доступ к 6 каналам физической DRAM.
Чтобы предоставить место для гипервизора Azure для работы без вмешательства в работу виртуальной машины, мы резервируем 16 физических ядер на сервер.
Топология виртуальной машины
На следующей схеме показана топология сервера. Мы зарезервируем эти 16 ядер узла гипервизора (желтый) симметрично в обоих сокетах ЦП, принимая первые 2 ядра из определенных основных сложных dies (CCD) в каждом домене NUMA с оставшимися ядрами для виртуальной машины серии HX (зеленый).
Граница CCD отличается от границы NUMA. В HX группа из шести последовательных CCD настраивается как домен NUMA, как на уровне узла, так и в гостевой виртуальной машине. Таким образом, все размеры виртуальных машин HX предоставляют 4 универсальных доменов NUMA, которые будут отображаться в ОС и приложении, как показано ниже, каждый из которых имеет разное количество ядер в зависимости от конкретного размера виртуальной машины HX.
Размер каждой виртуальной машины HX аналогичен физическому макету, функциям и производительности другого ЦП серии AMD EPYC 9004, как показано ниже.
Размер виртуальной машины серии HX | Домены NUMA | Количество ядер на домен NUMA | Сходство с AMD EPYC |
---|---|---|---|
Standard_HX176rs | 4 | 44 | EPYC 9V33X с двумя сокетами |
Standard_HX176-144rs | 4 | 36 | EPYC 9V33X с двумя сокетами |
Standard_HX176-96rs | 4 | 24 | EPYC 9V33X с двумя сокетами |
Standard_HX176-48rs | 4 | 12 | EPYC 9V33X с двумя сокетами |
Standard_HX176-24rs | 4 | 6 | EPYC 9V33X с двумя сокетами |
Примечание.
Размеры виртуальных машин с ограниченным количеством ядер уменьшают только количество физических ядер, предоставленных виртуальной машине. Все глобальные общие ресурсы (ОЗУ, пропускная способность памяти, кэш третьего уровня, подключение GMI и xGMI, InfiniBand, сеть Ethernet Azure, локальный SSD) остаются постоянными. Это позволяет клиенту выбрать размер виртуальной машины, наиболее подходящий для определенного набора рабочих нагрузок или лицензирования программного обеспечения.
Сопоставление виртуальной виртуальной машины NUMA для каждого размера виртуальной машины HX сопоставляется с базовой физической топологией NUMA. Нет потенциальной вводящей в заблуждение абстракции аппаратной топологии.
Точные топологии для различных размеров виртуальных машин HX отображаются следующим образом, используя выходные данные lstopo:
lstopo-no-graphics --no-io --no-legend --of txt
Щелкните, чтобы просмотреть выходные данные lstopo для Standard_HX176rs
Щелкните, чтобы просмотреть выходные данные lstopo для Standard_HX176-144rs
Щелкните, чтобы просмотреть выходные данные lstopo для Standard_HX176-96rs
Щелкните, чтобы просмотреть выходные данные lstopo для Standard_HX176-48rs
Щелкните, чтобы просмотреть выходные данные lstopo для Standard_HX176-24rs
Сеть InfiniBand
Виртуальные машины HX также имеют сетевые адаптеры NVIDIA Mellanox NDR InfiniBand (ConnectX-7), работающие до 400 Гигабит/с. Сетевой адаптер передается виртуальной машине через SRIOV, что позволяет сетевому трафику обойти гипервизор. В результате клиенты загружают стандартные драйверы Mellanox OFED на виртуальных машинах HX, так как они будут использовать среду без операционной системы.
Виртуальные машины HX поддерживают адаптивную маршрутизацию, динамический подключенный транспорт (DCT, в дополнение к стандартным транспортам RC и UD), а также аппаратные разгрузки коллективов MPI на процессор подключения адаптера ConnectX-7. Эти функции повышают производительность приложений, масштабируемость и согласованность и рекомендуется использовать их.
Временное хранилище
Виртуальные машины HX имеют 3 физически локальных SSD-устройства. Одно устройство предварительно отформатировано, чтобы служить файлом страницы, и он появился в виртуальной машине в качестве универсального устройства SSD.
Два других более крупных устройства SSD предоставляются в виде неформатированных блочных устройств NVMe через NVMeDirect. По мере того как устройство NVMe блока проходит гипервизор, он имеет более высокую пропускную способность, более высокую скорость ввода-вывода в секунду и более низкую задержку на IOP.
При паре в полосатый массив SSD NVMe предоставляет до 12 ГБ/с операций чтения и 7 ГБ/с, а также до 186 000 операций ввода-вывода в секунду (считывает) и 201 000 операций ввода-вывода в секунду (записывает) для глубины очереди.
Характеристики оборудования
Характеристики оборудования | Виртуальные машины серии HX |
---|---|
Ядра | 176, 144, 96, 48 или 24 (SMT отключен) |
ЦП | AMD EPYC 9V33X |
Частота ЦП (без AVX) | Базовый уровень 2,4 ГГц, пиковый импульс 3,7 ГГц |
Память | 1,4 ТБ (ОЗУ на ядро зависит от размера виртуальной машины) |
Локальный диск | 2 * 1,8 ТБ NVMe (блок), 480 ГБ SSD (файл страницы) |
InfiniBand | 400 Гб/с Mellanox ConnectX-7 NDR InfiniBand |
Network | 80 ГБ/с Ethernet (40 ГБ/с, доступный для использования) Второй 2-го поколения SmartNIC |
Характеристики программного обеспечения
Характеристики программного обеспечения | Виртуальные машины серии HX |
---|---|
Максимальный размер задания MPI | 52 800 ядер (300 виртуальных машин в одном масштабируемом наборе виртуальных машин с singlePlacementGroup=true) |
Поддержка MPI | HPC-X (2.13 или более поздней версии), Intel MPI (2021.7.0 или более поздней версии), OpenMPI (4.1.3 или более поздней версии), MVAPICH2 (2.3.7 или более поздней версии), MPICH (4.1 или более поздней версии) |
Дополнительные платформы | UCX, libfabric, PGAS или другие среды выполнения на основе InfiniBand |
Поддержка службы хранилища Microsoft Azure | Диски уровня "Стандартный" и "Премиум" (не более 32 дисков), Azure NetApp Files, Файлы Azure, Azure HPC Cache, Управляемой файловой системой Lustre Azure |
Поддерживаемая и проверенная ОС | AlmaLinux 8.6, 8.7, Ubuntu 20.04+ |
Рекомендуемая операционная система для повышения производительности | AlmaLinux HPC 8.7, Ubuntu-HPC 20.04+ |
Поддержка Orchestrator | Azure CycleCloud, пакетная служба Azure, AKS; параметры конфигурации кластера |
Примечание.
- Эти виртуальные машины поддерживают только поколение 2.
- Официальная поддержка уровня ядра от AMD начинается с RHEL 8.6 и AlmaLinux 8.6, которая является производным от RHEL.
- Windows Server 2012 R2 не поддерживается на HX и других виртуальных машинах с более чем 64 (виртуальными или физическими) ядрами. Дополнительные сведения см. в статье "Поддерживаемые гостевые операционные системы Windows" для Hyper-V на Windows Server. Windows Server 2022 требуется для 144 и 176 основных размеров, Windows Server 2016 также работает для 24, 48 и 96 основных размеров, Windows Server работает только для 24 и 48 основных размеров.
Внимание
Рекомендуемое изображение URN: almalinux:almalinux-hpc:8_7-hpc-gen2:8.7.2023060101, чтобы развернуть этот образ в Azure CLI, убедитесь, что следующие параметры включены --plan 8_7-hpc-gen2 --product almalinux-hpc-hpc -publisher almalinux. Для масштабирования тестов используйте рекомендуемый URN вместе с новым тарболом HPC-X.
Примечание.
- Поддержка NDR добавляется в UCX 1.13 или более поздней версии. Более старые версии UCX сообщают об ошибке выше. Ошибка UCX: недопустимая активная скорость
[1677010492.951559] [updsb-vm-0:2754 :0] ib_iface.c:1549 UCX ERROR Invalid active_speed on mlx5_ib0:1: 128
. - Ibstat показывает низкую скорость (SDR): старые версии Mellanox OFED (MOFED) не поддерживают NDR и могут сообщать о более медленных скоростях IB. Используйте MOFED версии MOFED 5.6-1.0.3.3 или более поздней версии.
Следующие шаги
- Ознакомьтесь с последними объявлениями, примерами рабочей нагрузки HPC, а также результатами оценки производительности в блогах технического сообщества Вычислений Azure.
- Сведения о более высоком уровне архитектурного представления выполнения рабочих нагрузок HPC см. в статье Высокопроизводительные вычисления (HPC) в Azure.