ConnectX-5 VPI Adapter Card (MCX556A-ECAT) — двухпортовый сетевой контроллер от NVIDIA/Mellanox с интерфейсом PCIe 3.0 x16, поддерживающий EDR InfiniBand (100 Гбит/с) и 100GbE. Форм-фактор MD2 Low-Profile (включает как низкопрофильную, так и стандартную планку). Чип ConnectX-5 VPI обеспечивает единый стек для Ethernet и InfiniBand, аппаратный offload, RDMA (RoCE v1/v2), SR-IOV, GPUDirect и другие технологии для дата-центров, HPC и AI.
Высокая производительность и универсальность
Адаптер построен на базе ConnectX-5 VPI — программируемого контроллера, который одновременно работает в режиме Ethernet или InfiniBand. Это позволяет гибко использовать адаптер в существующих 100GbE сетях или высокоскоростных InfiniBand-кластерах.
Два порта QSFP28
- Скорость 100 Гбит/с на порт (100GbE или EDR InfiniBand).
- Суммарная пропускная способность до 200 Гбит/с в полнодуплексном режиме.
- Поддержка трансиверов QSFP28 (оптика, медные кабели, AOC и DAC).
- Автоопределение режима — Ethernet или InfiniBand в зависимости от сети.
Интерфейс PCIe 3.0 x16
- 16 линий PCIe Gen3 обеспечивают пропускную способность до 128 Гбит/с (16 GT/s).
- Полное использование полосы — даже при загрузке двух портов 100GbE.
- Совместимость с PCIe 2.0/3.0 (обратная совместимость).
Управление и виртуализация
Контроллер поддерживает широкий набор функций для серверов, виртуализации и контейнеров.
Технологии ядра сети
- RDMA (RoCE v1/v2, InfiniBand) — прямой доступ к памяти, снижение задержек до ~1 мкс.
- SR-IOV — до 512 виртуальных функций для виртуальных машин и контейнеров.
- GPUDirect — прямой обмен данными между GPU (NVIDIA) без участия CPU.
- DPDK, SPDK, Open vSwitch — аппаратное ускорение для высоких нагрузок.
Управление и мониторинг
- Стек Mellanox (NVIDIA) — драйверы Linux, Windows, VMware, FreeBSD.
- NetQ, MLNX-OS — централизованное управление.
- Телеметрия и статистика — мониторинг через ethtool/sysfs.
Дополнительные возможности и протоколы
Гибкие режимы портов VPI
Каждый порт может независимо работать как Ethernet (10/25/40/50/100GbE) или InfiniBand (EDR) – без смены железа.
QoS и управление трафиком
Аппаратные очереди, приоритезация (IEEE 802.1p), DCBX, ECN для беспотерьной сети.
Встроенная поддержка гостевых ОС
Благодаря SR-IOV и VirtIO адаптер отлично работает в средах KVM, VMware, Hyper-V.
Совместимое оборудование и аксессуары
Для полноценной работы ConnectX-5 MCX556A-ECAT рекомендуется использовать сертифицированные кабели и трансиверы.
| Тип оборудования | Рекомендуемые модели / спецификации | Примечание |
|---|---|---|
| Оптические модули QSFP28 100G | Mellanox MCP1A0-C00x (SR4), MCP1B0-C00x (LR4), сторонние (FS.com, Flexoptix) | До 100 м (SR4) или до 10 км (LR4) |
| Медные кабели DAC QSFP28 | Mellanox MCP7A0-Hxxx (пассивные), MCP7A1-Hxxx (активные) | Длина от 0.5 до 5 м |
| Оптические кабели AOC QSFP28 | Mellanox MCP4A0-Cxxx, FS.com AOC QSFP28 | Длина до 100 м, лёгкая прокладка |
| Коммутаторы 100GbE / EDR IB | Mellanox SN2700, SN3700; NVIDIA Spectrum-2; InfiniBand EDR-коммутаторы | Для комплексных решений HPC |
| Серверные крепления (brackets) | Низкопрофильная и стандартная планка в комплекте | Дополнительно можно заказать винты M2.5 |
| Переходники PCIe x16 | Гибкие райзеры x16-to-x16 Gen3 (для нестандартных корпусов) | При использовании PCIe удлинителей |
Аналоги ConnectX-5 MCX556A-ECAT
Если эта модель недоступна, рассмотрите альтернативы с похожими характеристиками.
| Производитель | Модель | Ключевые отличия / сходство |
|---|---|---|
| NVIDIA | ConnectX-6 DX (MCX623106AN-CDAT) | 200GbE / HDR IB, PCIe 4.0 x16, больше виртуальных функций. Более современный, но дороже. |
| Intel | Ethernet Network Adapter E810-XXVDA2 | 2 порта 100GbE QSFP28, PCIe 4.0, поддержка RDMA (RoCE), дешевле, но без InfiniBand. |
| Broadcom | NetXtreme-E P2100D | 2 порта 100GbE, PCIe 4.0, RDMA (RoCE), SR-IOV, но не поддерживает InfiniBand. |
| Mellanox (старая) | ConnectX-4 LX (MCX414A-BCAT) | 2 порта 25GbE / 50GbE (100GbE только через комбинирование портов). Меньшая скорость. |
| Mellanox | ConnectX-5 MCX556A-MCAT | Аналогичный адаптер, но с поддержкой VPI и EDR. Отличается только артикулом (поставляется для разных OEM). |
Рекомендация: Если нужна обратная совместимость с InfiniBand и максимальная гибкость, ConnectX-5 VPI остаётся лучшим выбором. Если InfiniBand не требуется, можно рассмотреть Intel E810 или Broadcom P2100D.
Кому подойдёт ConnectX-5 MCX556A-ECAT
Рекомендуется, если вам нужно:
- Построить или модернизировать HPC-кластер с InfiniBand EDR.
- Обеспечить высокоскоростное подключение серверов к 100GbE сети (NVMe-oF, виртуализация).
- Использовать RDMA (RoCE или InfiniBand) для снижения задержек.
- Работать с GPU и NVIDIA NCCL для AI/ML-нагрузок.
- Гибко переключаться между Ethernet и InfiniBand без смены адаптера.
Вероятно, не подойдёт, если:
- Speed Networking не критична (достаточно 25GbE).
- InfiniBand совершенно не используется и не планируется.
- Бюджет ограничен и можно использовать Intel E810 или Broadcom.
- Нет потребности в RDMA и виртуализации (SR-IOV).
Конструкция и условия эксплуатации
Форм-фактор MD2 Low-Profile
Размеры 168×68 мм (без учёта планки). В комплекте две планки: низкопрофильная (Low-Profile) для 1U/2U серверов и стандартная (tall bracket) для tower-корпусов.
Охлаждение и энергопотребление
- Пассивный радиатор, airflow от сервера.
- Типичное потребление ~25 Вт (без трансиверов).
- Максимальное ~45 Вт (с активными кабелями).
Условия эксплуатации
- Температура работы: 0°C до +55°C (с обдувом).
- Температура хранения: -40°C до +70°C.
- Относительная влажность: 10% – 90% без конденсата.
Технические характеристики
| Модель | ConnectX-5 VPI Adapter Card, MCX556A-ECAT |
| Артикул | MCX556A-ECAT |
| Тип устройства | Сетевой адаптер Ethernet / InfiniBand VPI |
| Форм-фактор | MD2 Low-Profile (с низкопрофильной и tall bracket) |
| Интерфейс подключения | PCIe 3.0 x16 (Gen3 x16) |
| Чипсет | ConnectX-5 VPI |
| Количество портов | 2 |
| Тип порта | QSFP28 |
| Скорость порта | 100 Гбит/с (100GbE / EDR InfiniBand) |
| Поддержка протоколов | Ethernet: 10/25/40/50/100GbE, InfiniBand: EDR (100 Гбит/с) |
| Поддержка RDMA | RoCE v1/v2, InfiniBand RDMA |
| Поддержка SR-IOV | Да, до 512 виртуальных функций |
| GPUDirect | Да, совместимость с NVIDIA GPU |
| Поддержка DPDK/SPDK | Да |
| Поддержка Open vSwitch | Да |
| Поддерживаемые ОС | Windows Server, Linux, VMware ESXi, FreeBSD |
| Управление | ethtool, sysfs, MLNX-OS, NetQ |
| Безопасность | Secure Boot, IEEE 802.1AE (MACsec), IPSec |
| Напряжение питания | через PCIe (3.3V, 12V) |
| Максимальное энергопотребление | ~45 Вт (с активными трансиверами) |
| Размеры печатной платы | 168×68 мм |
| Вес нетто | ~250 г |
| Монтаж в сервер | Низкопрофильный или стандартный слот (крепеж в комплекте) |
| Диапазон температур при эксплуатации | 0°C до +55°C (с воздушным потоком) |
| Диапазон температур при хранении | от -40°C до +70°C |
| Относительная влажность при эксплуатации | 10–90% (без конденсата) |
| Производитель | NVIDIA / Mellanox |
Часто задаваемые вопросы
Для каких задач подходит ConnectX-5 MCX556A-ECAT?
Высокопроизводительные вычисления (HPC), дата-центры, серверы виртуализации, машинное обучение, хранение данных (NVMe-oF) и 100GbE сети. Поддерживает InfiniBand EDR и Ethernet 100GbE с единым универсальным портом.
Каков тип форм-фактора и как его крепить?
Форм-фактор MD2 Low-Profile (полувысокий). В комплекте есть низкопрофильная и стандартная (tall bracket) планки для установки в серверы различных типов.
Сколько портов и какая скорость?
Два порта QSFP28. Каждый порт поддерживает скорость 100 Гбит/с (100GbE или EDR InfiniBand), суммарная пропускная способность до 200 Гбит/с.
Какой интерфейс подключения?
PCIe 3.0 x16 (16 линий). Обеспечивает высокую пропускную способность шины до 128 Гбит/с (16 GT/s).
Поддерживает ли адаптер RDMA?
Да, RDMA (Remote Direct Memory Access) через RoCE v1/v2 и InfiniBand. Уменьшает задержки и нагрузку на CPU.
С какими ОС совместим адаптер?
Windows Server, Linux (RHEL, Ubuntu, CentOS), VMware ESXi, FreeBSD. Полный список драйверов — на сайте Mellanox (NVIDIA).
Какую максимальную скорость линии PCIe поддерживает?
PCI Express 3.0 x16 — до 128 Гбит/с полнодуплексный режим. Этого достаточно для двух портов 100GbE без узкого места.
Поддерживаются ли функции виртуализации?
Да, SR-IOV (до 512 виртуальных функций), VirtIO, NetQ, DPDK, Open vSwitch и другие технологии для контейнеров и виртуализации.
Можно ли использовать в кластерах для HPC?
Да, это один из лидеров для HPC. Поддерживает MPI, NCCL, UCX, GPUDirect, что критично для научных и AI-нагрузок.
Какой чипсет используется?
ConnectX-5 VPI — программируемый адаптер для единого стека Ethernet и InfiniBand. Обеспечивает аппаратный offload и низкую задержку.
Основные характеристики
Нет вопросов об этом товаре.
