Телеграм Чат
Артикул:
MCX556A-ECAT
Производитель:
Mellanox
EAN:
7290108480320
В наличии
Цену для юридических лиц запрашивайте по почте zakaz@comparema.ru
51 230 ₽

ConnectX-5 VPI Adapter Card (MCX556A-ECAT) — двухпортовый сетевой контроллер от NVIDIA/Mellanox с интерфейсом PCIe 3.0 x16, поддерживающий EDR InfiniBand (100 Гбит/с) и 100GbE. Форм-фактор MD2 Low-Profile (включает как низкопрофильную, так и стандартную планку). Чип ConnectX-5 VPI обеспечивает единый стек для Ethernet и InfiniBand, аппаратный offload, RDMA (RoCE v1/v2), SR-IOV, GPUDirect и другие технологии для дата-центров, HPC и AI.

Высокая производительность и универсальность

Адаптер построен на базе ConnectX-5 VPI — программируемого контроллера, который одновременно работает в режиме Ethernet или InfiniBand. Это позволяет гибко использовать адаптер в существующих 100GbE сетях или высокоскоростных InfiniBand-кластерах.

Два порта QSFP28

  • Скорость 100 Гбит/с на порт (100GbE или EDR InfiniBand).
  • Суммарная пропускная способность до 200 Гбит/с в полнодуплексном режиме.
  • Поддержка трансиверов QSFP28 (оптика, медные кабели, AOC и DAC).
  • Автоопределение режима — Ethernet или InfiniBand в зависимости от сети.

Интерфейс PCIe 3.0 x16

  • 16 линий PCIe Gen3 обеспечивают пропускную способность до 128 Гбит/с (16 GT/s).
  • Полное использование полосы — даже при загрузке двух портов 100GbE.
  • Совместимость с PCIe 2.0/3.0 (обратная совместимость).

Управление и виртуализация

Контроллер поддерживает широкий набор функций для серверов, виртуализации и контейнеров.

Технологии ядра сети

  • RDMA (RoCE v1/v2, InfiniBand) — прямой доступ к памяти, снижение задержек до ~1 мкс.
  • SR-IOV — до 512 виртуальных функций для виртуальных машин и контейнеров.
  • GPUDirect — прямой обмен данными между GPU (NVIDIA) без участия CPU.
  • DPDK, SPDK, Open vSwitch — аппаратное ускорение для высоких нагрузок.

Управление и мониторинг

  • Стек Mellanox (NVIDIA) — драйверы Linux, Windows, VMware, FreeBSD.
  • NetQ, MLNX-OS — централизованное управление.
  • Телеметрия и статистика — мониторинг через ethtool/sysfs.

Дополнительные возможности и протоколы

Гибкие режимы портов VPI

Каждый порт может независимо работать как Ethernet (10/25/40/50/100GbE) или InfiniBand (EDR) – без смены железа.

QoS и управление трафиком

Аппаратные очереди, приоритезация (IEEE 802.1p), DCBX, ECN для беспотерьной сети.

Встроенная поддержка гостевых ОС

Благодаря SR-IOV и VirtIO адаптер отлично работает в средах KVM, VMware, Hyper-V.

Совместимое оборудование и аксессуары

Для полноценной работы ConnectX-5 MCX556A-ECAT рекомендуется использовать сертифицированные кабели и трансиверы.

Тип оборудования Рекомендуемые модели / спецификации Примечание
Оптические модули QSFP28 100G Mellanox MCP1A0-C00x (SR4), MCP1B0-C00x (LR4), сторонние (FS.com, Flexoptix) До 100 м (SR4) или до 10 км (LR4)
Медные кабели DAC QSFP28 Mellanox MCP7A0-Hxxx (пассивные), MCP7A1-Hxxx (активные) Длина от 0.5 до 5 м
Оптические кабели AOC QSFP28 Mellanox MCP4A0-Cxxx, FS.com AOC QSFP28 Длина до 100 м, лёгкая прокладка
Коммутаторы 100GbE / EDR IB Mellanox SN2700, SN3700; NVIDIA Spectrum-2; InfiniBand EDR-коммутаторы Для комплексных решений HPC
Серверные крепления (brackets) Низкопрофильная и стандартная планка в комплекте Дополнительно можно заказать винты M2.5
Переходники PCIe x16 Гибкие райзеры x16-to-x16 Gen3 (для нестандартных корпусов) При использовании PCIe удлинителей

Аналоги ConnectX-5 MCX556A-ECAT

Если эта модель недоступна, рассмотрите альтернативы с похожими характеристиками.

Производитель Модель Ключевые отличия / сходство
NVIDIA ConnectX-6 DX (MCX623106AN-CDAT) 200GbE / HDR IB, PCIe 4.0 x16, больше виртуальных функций. Более современный, но дороже.
Intel Ethernet Network Adapter E810-XXVDA2 2 порта 100GbE QSFP28, PCIe 4.0, поддержка RDMA (RoCE), дешевле, но без InfiniBand.
Broadcom NetXtreme-E P2100D 2 порта 100GbE, PCIe 4.0, RDMA (RoCE), SR-IOV, но не поддерживает InfiniBand.
Mellanox (старая) ConnectX-4 LX (MCX414A-BCAT) 2 порта 25GbE / 50GbE (100GbE только через комбинирование портов). Меньшая скорость.
Mellanox ConnectX-5 MCX556A-MCAT Аналогичный адаптер, но с поддержкой VPI и EDR. Отличается только артикулом (поставляется для разных OEM).

Рекомендация: Если нужна обратная совместимость с InfiniBand и максимальная гибкость, ConnectX-5 VPI остаётся лучшим выбором. Если InfiniBand не требуется, можно рассмотреть Intel E810 или Broadcom P2100D.

Кому подойдёт ConnectX-5 MCX556A-ECAT

Рекомендуется, если вам нужно:

  • Построить или модернизировать HPC-кластер с InfiniBand EDR.
  • Обеспечить высокоскоростное подключение серверов к 100GbE сети (NVMe-oF, виртуализация).
  • Использовать RDMA (RoCE или InfiniBand) для снижения задержек.
  • Работать с GPU и NVIDIA NCCL для AI/ML-нагрузок.
  • Гибко переключаться между Ethernet и InfiniBand без смены адаптера.

Вероятно, не подойдёт, если:

  • Speed Networking не критична (достаточно 25GbE).
  • InfiniBand совершенно не используется и не планируется.
  • Бюджет ограничен и можно использовать Intel E810 или Broadcom.
  • Нет потребности в RDMA и виртуализации (SR-IOV).

Конструкция и условия эксплуатации

Форм-фактор MD2 Low-Profile

Размеры 168×68 мм (без учёта планки). В комплекте две планки: низкопрофильная (Low-Profile) для 1U/2U серверов и стандартная (tall bracket) для tower-корпусов.

Охлаждение и энергопотребление

  • Пассивный радиатор, airflow от сервера.
  • Типичное потребление ~25 Вт (без трансиверов).
  • Максимальное ~45 Вт (с активными кабелями).

Условия эксплуатации

  • Температура работы: 0°C до +55°C (с обдувом).
  • Температура хранения: -40°C до +70°C.
  • Относительная влажность: 10% – 90% без конденсата.

Технические характеристики

МодельConnectX-5 VPI Adapter Card, MCX556A-ECAT
АртикулMCX556A-ECAT
Тип устройстваСетевой адаптер Ethernet / InfiniBand VPI
Форм-факторMD2 Low-Profile (с низкопрофильной и tall bracket)
Интерфейс подключенияPCIe 3.0 x16 (Gen3 x16)
ЧипсетConnectX-5 VPI
Количество портов2
Тип портаQSFP28
Скорость порта100 Гбит/с (100GbE / EDR InfiniBand)
Поддержка протоколовEthernet: 10/25/40/50/100GbE, InfiniBand: EDR (100 Гбит/с)
Поддержка RDMARoCE v1/v2, InfiniBand RDMA
Поддержка SR-IOVДа, до 512 виртуальных функций
GPUDirectДа, совместимость с NVIDIA GPU
Поддержка DPDK/SPDKДа
Поддержка Open vSwitchДа
Поддерживаемые ОСWindows Server, Linux, VMware ESXi, FreeBSD
Управлениеethtool, sysfs, MLNX-OS, NetQ
БезопасностьSecure Boot, IEEE 802.1AE (MACsec), IPSec
Напряжение питаниячерез PCIe (3.3V, 12V)
Максимальное энергопотребление~45 Вт (с активными трансиверами)
Размеры печатной платы168×68 мм
Вес нетто~250 г
Монтаж в серверНизкопрофильный или стандартный слот (крепеж в комплекте)
Диапазон температур при эксплуатации0°C до +55°C (с воздушным потоком)
Диапазон температур при храненииот -40°C до +70°C
Относительная влажность при эксплуатации10–90% (без конденсата)
ПроизводительNVIDIA / Mellanox

Часто задаваемые вопросы

Для каких задач подходит ConnectX-5 MCX556A-ECAT?

Высокопроизводительные вычисления (HPC), дата-центры, серверы виртуализации, машинное обучение, хранение данных (NVMe-oF) и 100GbE сети. Поддерживает InfiniBand EDR и Ethernet 100GbE с единым универсальным портом.

Каков тип форм-фактора и как его крепить?

Форм-фактор MD2 Low-Profile (полувысокий). В комплекте есть низкопрофильная и стандартная (tall bracket) планки для установки в серверы различных типов.

Сколько портов и какая скорость?

Два порта QSFP28. Каждый порт поддерживает скорость 100 Гбит/с (100GbE или EDR InfiniBand), суммарная пропускная способность до 200 Гбит/с.

Какой интерфейс подключения?

PCIe 3.0 x16 (16 линий). Обеспечивает высокую пропускную способность шины до 128 Гбит/с (16 GT/s).

Поддерживает ли адаптер RDMA?

Да, RDMA (Remote Direct Memory Access) через RoCE v1/v2 и InfiniBand. Уменьшает задержки и нагрузку на CPU.

С какими ОС совместим адаптер?

Windows Server, Linux (RHEL, Ubuntu, CentOS), VMware ESXi, FreeBSD. Полный список драйверов — на сайте Mellanox (NVIDIA).

Какую максимальную скорость линии PCIe поддерживает?

PCI Express 3.0 x16 — до 128 Гбит/с полнодуплексный режим. Этого достаточно для двух портов 100GbE без узкого места.

Поддерживаются ли функции виртуализации?

Да, SR-IOV (до 512 виртуальных функций), VirtIO, NetQ, DPDK, Open vSwitch и другие технологии для контейнеров и виртуализации.

Можно ли использовать в кластерах для HPC?

Да, это один из лидеров для HPC. Поддерживает MPI, NCCL, UCX, GPUDirect, что критично для научных и AI-нагрузок.

Какой чипсет используется?

ConnectX-5 VPI — программируемый адаптер для единого стека Ethernet и InfiniBand. Обеспечивает аппаратный offload и низкую задержку.

Основные характеристики

Форм-фактор
MD2 Low-Profile
Тип
Сетевой адаптер Ethernet
Чип
ConnectX-5 VPI
Интерфейс подключения
PCIe 3.0 x16
Количество портов
2
Скорость порта
100 Гб/с
Вопросов: 0

Нет вопросов об этом товаре.

Похожие товары
Сетевой контроллер MCI-10G/82599-2S
90SC08J0-M0UAY0
В наличии
22 510 ₽
Адаптер Synology M2D20 PCIe 3.0x8 NVMe M.2 22110/2280 2 слота M-key
M2D20
В наличии
20 550 ₽
Сетевой адаптер HPE 10Gb 2 порта PCIe Gen3 x8 P21933-B21
P21933-B21
В наличии
29 300 ₽
Сетевой адаптер Intel X710-DA4 10GbE PCIe 3.0 x8 iSCSI NFS EX710DA4G1P5
EX710DA4G1P5
В наличии
18 560 ₽
Сетевой адаптер Intel Ethernet Server Adapter X710-DA4 (X710DA4G2P5)
X710DA4G2P5
В наличии
24 870 ₽
Вы смотрели
0
0