Mellanox ConnectX-6 (MCX653105A-ECAT) — это одно-портовый сетевой адаптер на 100 Гбит/с с разъёмом QSFP56, работающий по шине PCIe 4.0 x16 (совместим с PCIe 3.0). Оснащён контроллером Mellanox ConnectX‑6, поддерживает технологии VPI (Ethernet/InfiniBand), RDMA, SR-IOV, VLAN, QoS (PFC, ETS, CN) и Jumbo Frame до 9.6 КБ. Идеальное решение для серверов дата-центров, HPC‑кластеров и облачных инфраструктур, требующих минимальных задержек и максимальной пропускной способности.
Максимальная производительность для ЦОД и HPC
Адаптер Mellanox ConnectX‑6 обеспечивает пропускную способность до 100 Гбит/с на порт при использовании QSFP56. Благодаря интерфейсу PCIe 4.0 x16 (64 ГТ/с) достигается полное использование канала. Аппаратная поддержка RDMA (iWARP и RoCE) снижает задержки до <1 мкс и освобождает CPU.
Поддержка всех современных скоростей и стандартов
- 100GbE / HDR100 InfiniBand — основная скорость порта.
- Режимы EDR/FDR/QDR/DDR/SDR InfiniBand для развёртывания в InfiniBand-сетях.
- Автосогласование: 50, 40, 25, 10, 1 Гбит/с в Ethernet‑режиме.
- Jumbo Frame до 9.6 КБ, TCP Checksum Offload, Large Send Offload.
Расширенные возможности качества обслуживания (QoS)
Поддержка IEEE 802.1Qau (Congestion Notification), 802.1Qaz (ETS), 802.1Qbb (Priority‑based Flow Control), 802.1Qbg (EVB) — гарантирует необходимый уровень сервиса для чувствительных к задержкам приложений.
Виртуализация и безопасность сети
Адаптер оснащён полным набором функций для виртуализации и изоляции трафика.
Аппаратная виртуализация
- SR-IOV — до 64 виртуальных функций для виртуальных машин.
- VirtIO и NetQueue (VMware) — эффективное распределение ресурсов.
- NVGRE / VXLAN — аппаратное вытеснение инкапсуляции.
Управление и диагностика
- MFT (Mellanox Firmware Tools) — обновление прошивки, настройка.
- ibdiagnet / ibstatus для InfiniBand.
- SNMP и NetFlow — мониторинг.
Дополнительные возможности и технологии
IEEE 1588 v.2 (PTP)
Точная синхронизация времени с аппаратной меткой времени для критичных к времени приложений (финансовые транзакции, измерения).
Multi‑Host / Duo‑Host (опционально)
При использовании соответствующих плат возможна поддержка многопроцессорных систем и разделения порта между двумя хостами.
Загрузка драйверов и ОС
Поддерживаются все основные ОС: Linux (kernel 4.x+), Windows Server 2019/2022, VMware ESXi 7.0+, FreeBSD. Драйверы Mellanox WinOF-2, mlx5_core.
Совместимое оборудование и аксессуары
Для работы адаптер требует оптический/медный модуль QSFP56. Рекомендуется использовать совместимые трансиверы и кабели:
| Тип | Примеры моделей | Примечание |
|---|---|---|
| Модуль QSFP56 100G LR4 | Mellanox MMA4Z00‑NS (10 км), совместимые FS.com, Intel | Для одномодового волокна |
| Модуль QSFP56 100G SR4 | Mellanox MMA4Z00‑AS (100 м, MMF) | Для многомодового волокна |
| Медный DAC-кабель QSFP56 | Mellanox MCP1600‑xxx (до 3 м), FS SFS‑Q56‑10‑XXX | Подключение на короткие расстояния |
| Пассивный медно-оптический конвертер | Mellanox, Finisar | Для гибкой топологии |
Аналоги и альтернативные модели
Если данная модель недоступна, рассмотрите следующие варианты со сходными характеристиками:
| Производитель | Модель | Ключевые отличия |
|---|---|---|
| Mellanox | ConnectX‑6 Dx (MCX623106AN‑CDAT) | Два порта 100GbE QSFP56, аппаратный NVMe over Fabrics, поддержка SmartNIC |
| Mellanox | ConnectX‑5 Ex (MCX516A‑CCUT) | Два порта 100GbE QSFP28, PCIe 3.0 x16, ниже скорость RDMA, менее функционален |
| Intel | E810‑CQDA2 (XXV710‑DA2) | 2x100GbE, PCIe 4.0 x16, поддержка ADQ, RDMA (iWARP), но нет InfiniBand |
| Broadcom | NetXtreme‑E BCM57504 | 4x25GbE или 2x100GbE, PCIe 4.0, встроенный SmartNIC, поддержка RoCE |
| Chelsio | T6‑100‑SE1‑SY (T62100‑SO‑SE1) | 1x100GbE, PCIe 3.0 x16, iWARP, TOE, поддержка NVMe‑oF |
Кому подойдёт Mellanox ConnectX‑6 100GbE
Рекомендуется, если вам нужно:
- 100-гигабитное подключение для серверов ЦОД или HPC.
- Низкие задержки и поддержка RDMA (RoCE, iWARP).
- Аппаратная виртуализация (SR‑IOV) для облачных решений.
- Гибкость протоколов: работа как Ethernet, так и InfiniBand.
- Устойчивость к нагрузкам и продвинутые QoS‑функции.
Вероятно, не подойдёт, если:
- Требуется всего 1‑10 Гбит/с — избыточно, лучше взять дешёвый адаптер.
- Не нужен InfiniBand — можно рассмотреть Intel E810.
- У вас старый слот PCIe 2.0 — ограничит скорость.
- Бюджетные ограничения — ConnectX‑5 или 10‑гигабитные решения дешевле.
- Нужно более 1 порта — смотрите двухпортовые версии ConnectX‑6.
Конструкция и условия эксплуатации
Форм‑фактор и охлаждение
Адаптер выполнен в низкопрофильном форм‑факторе с возможностью установки в серверы 1U/2U. Комплектуется радиатором пассивного охлаждения (Tall Bracket). Для установки в корпус с ограниченным воздушным потоком может потребоваться дополнительный вентилятор.
Эксплуатационные параметры
- Рабочая температура: от 0°C до +55°C (без конденсата).
- Температура хранения: от -40°C до +70°C.
- Относительная влажность: 10%–90% (неконденсирующая).
- Энергопотребление: типовое 12 Вт (без модуля).
Технические характеристики
| Модель | Mellanox ConnectX‑6 MCX653105A-ECAT |
| Артикул | MCX653105A-ECAT |
| Модельный ряд | Серверный сетевой адаптер |
| Версия интерфейса | PCI Express 4.0 x16 (обратная совместимость с PCIe 3.0) |
| Скорость передачи данных, Мб/с | 100 000 (100 Гбит/с) |
| Контроллер | Mellanox ConnectX‑6 |
| Поддержка IEEE 802.1Q (VLAN) | Да |
| Поддержка IEEE 802.1Qau (CN) | Да |
| Поддержка IEEE 802.1Qaz (ETS) | Да |
| Поддержка IEEE 802.1Qbb (PFC) | Да |
| Поддержка IEEE 802.1Qbg (EVB) | Да |
| Jumbo Frame | 9.6 КБ |
| TCP Checksum Offload | Да |
| IEEE 1588 | v.2 |
| iWARP/RDMA | Да (iWARP и RoCE) |
| Особенности | Один порт QSFP56. Поддержка HDR100, EDR, FDR, QDR, DDR, SDR (InfiniBand). Режим VPI. PCIe 3.0/4.0 x16 |
| Вид поставки | RTL (Retail) |
| Комплект поставки | Инструкция, адаптер, радиатор, низкопрофильный кронштейн |
| Ссылка на описание | Mellanox Store |
| Поддержка виртуализации | SR-IOV (до 64 VF), VirtIO, NetQueue |
Часто задаваемые вопросы
Для каких задач подходит сетевой адаптер Mellanox ConnectX‑6 100GbE?
Для дата-центров, HPC‑кластеров, облачных платформ и любого окружения, где нужна скорость 100 Гбит/с, низкие задержки и аппаратная виртуализация.
Какие стандарты IEEE поддерживает адаптер?
802.1Q (VLAN), 802.1Qau (CN), 802.1Qaz (ETS), 802.1Qbb (PFC), 802.1Qbg (EVB). Также Jumbo Frame 9.6 КБ, TCP Checksum Offload, IEEE 1588 v.2.
Поддерживает ли адаптер RDMA и iWARP?
Да, полная поддержка RDMA (iWARP и RoCE). Это снижает задержки и нагрузку на CPU.
Какой интерфейс подключения используется?
PCI Express 4.0 x16 (обратно совместим с PCIe 3.0). Один порт QSFP56, скорость до 100 Гбит/с.
Можно ли использовать адаптер для виртуализации?
Да, поддерживаются SR‑IOV, VirtIO, VMware NetQueue. Эффективно распределяет ресурсы между виртуальными машинами.
Какая максимальная скорость передачи данных?
100 Гбит/с в полном дуплексе на один порт QSFP56. Также поддерживаются более низкие скорости: 50, 40, 25, 10, 1 Гбит/с.
Поддерживается ли работа с InfiniBand?
Да, это VPI‑адаптер: поддерживает InfiniBand HDR100, EDR, FDR, QDR, DDR, SDR. Работает как в Ethernet, так и в InfiniBand режимах.
Какая поддерживаемая длина Jumbo Frame?
До 9.6 КБ, что увеличивает эффективность передачи больших блоков данных.
Входит ли радиатор в комплект поставки?
Адаптер поставляется с пассивным радиатором (Tall Bracket). В некоторых модификациях может быть низкопрофильный кронштейн. Проверяйте комплектацию.
Какая задержка у адаптера Mellanox ConnectX‑6?
Типичная задержка менее 1 микросекунды при передаче сообщений через MPI или RDMA, что критически важно для HPC и финансовых приложений.
Основные характеристики
Нет вопросов об этом товаре.
