Телеграм Чат
Артикул:
MCX653106A-ECAT
Производитель:
Mellanox
EAN:
7290108480658
В наличии
Цену для юридических лиц запрашивайте по почте zakaz@comparema.ru
81 820 ₽
Скорость передачи данных, Мб/с
100000
IEEE 802.1Q (VLAN)
Да
IEEE 802.1Qau (CN)
Да
IEEE 802.1Qaz (ETS)
Да
IEEE 802.1Qbb (PFC)
Да
IEEE 802.1Qbg (EVB)
Да
Особенности
Два порта QSFP56. Интерфейс PCIe 3.0/4.0 x16. Поддержка HDR100, EDR, FDR, QDR, DDR, SDR
Модельный ряд
Серверный сетевой адаптер
Все характеристики

Сетевой адаптер Mellanox MCX653106A-ECAT ConnectX-6 VPI 100Gb/s — это высокопроизводительный двухпортовый адаптер, созданный для критически важных задач в центрах обработки данных и высокопроизводительных вычислительных системах. Он поддерживает скорость передачи данных до 100 Гбит/с на порт в режимах InfiniBand HDR100/EDR и Ethernet 100GbE. Благодаря интерфейсу PCIe 4.0 x16, аппаратному ускорению (RDMA, TCP Offload) и поддержке современных стандартов QoS, адаптер обеспечивает минимальные задержки и максимальную пропускную способность для самых требовательных приложений.

Мощность и эффективность для современных ЦОД

Адаптер Mellanox ConnectX-6 VPI представляет собой новое поколение сетевых технологий, объединяющее высокоскоростной Ethernet и InfiniBand в одном решении. Два порта QSFP56 обеспечивают гибкость конфигурации и масштабируемость. Аппаратная реализация RDMA (iWARP) и технологий ускорения TCP разгружают центральные процессоры серверов, значительно повышая общую эффективность системы и снижая задержки при работе с большими данными, в задачах машинного обучения, виртуализации и хранения.

Высочайшая скорость и универсальность

Адаптер построен на передовом контроллере Mellanox ConnectX-6:

  • Двухпортовый интерфейс QSFP56: Каждый порт поддерживает скорости до 100 Гбит/с в режимах Ethernet (100GbE) и InfiniBand (HDR100/EDR). Обратная совместимость с более медленными стандартами InfiniBand (FDR, QDR, DDR, SDR) и Ethernet.
  • Пропускная способность PCIe 4.0: Интерфейс PCI Express 4.0 x16 полностью раскрывает потенциал адаптера, устраняя узкие места в передаче данных между сетью и системой.
  • Аппаратное ускорение: Полная аппаратная поддержка RDMA (удаленный прямой доступ к памяти) через iWARP и TCP Offload Engine (TOE) для минимизации загрузки CPU и снижения задержек.

Продвинутые функции для качества обслуживания (QoS)

Адаптер оснащен комплексным набором технологий для гарантированного качества обслуживания в сложных сетевых средах:

  • Приоритизация трафика: Поддержка IEEE 802.1Qbb (Priority Flow Control - PFC) и IEEE 802.1Qaz (Enhanced Transmission Selection - ETS) для предотвращения потерь и управления полосой пропускания.
  • Виртуализация и управление: Поддержка IEEE 802.1Q (VLAN) и IEEE 802.1Qbg (Edge Virtual Bridging - EVB) для эффективной изоляции и управления виртуальным трафиком.
  • Точная синхронизация времени: Встроенная поддержка стандарта IEEE 1588v2 (PTP) для высокоточной синхронизации времени в распределенных системах.

Оптимизация для высокопроизводительных вычислений и хранения

Благодаря технологии RDMA (Remote Direct Memory Access) адаптер позволяет приложениям напрямую обмениваться данными между памятью разных серверов, минуя операционную систему и процессоры. Это критически важно для кластерных систем HPC, AI/ML, а также для сетей хранения данных (SAN) на основе NVMe over Fabrics (NVMe-oF). Поддержка Jumbo Frame (до 9.6 КБ) повышает эффективность передачи крупных блоков данных.

Технические характеристики

Модельный ряд Серверный сетевой адаптер
Контроллер Mellanox ConnectX-6
Версия интерфейса PCI Express 4.0 x16
Скорость передачи данных 100000 Мбит/с (100 Гбит/с) на порт
Количество и тип портов 2 порта QSFP56
Поддерживаемые протоколы Ethernet 100GbE, InfiniBand HDR100, EDR, FDR, QDR, DDR, SDR
IEEE 802.1Q (VLAN) Да
IEEE 802.1Qbb (PFC) Да
IEEE 802.1Qaz (ETS) Да
Jumbo Frame До 9.6 КБ
TCP Checksum Offload Да
IEEE 1588 Версия 2 (PTP)
iWARP/RDMA Да
Вид поставки RTL (Retail)
Комплект поставки Инструкция, адаптер с высокой скобой (Tall Bracket)

Часто задаваемые вопросы

В чем разница между режимами VPI, Ethernet и InfiniBand?

Адаптер ConnectX-6 VPI (Virtual Protocol Interconnect) является универсальным. Он может быть сконфигурирован программно для работы либо в режиме Ethernet (например, 100GbE), либо в режиме InfiniBand (например, HDR100/EDR). Это позволяет использовать одну и ту же аппаратную платформу в разных сетевых средах.

Что такое RDMA и iWARP? Зачем они нужны?

RDMA (Remote Direct Memory Access) — технология прямого доступа к удаленной памяти, позволяющая передавать данные между серверами, минуя CPU и ОС. iWARP — это реализация RDMA поверх стандартного TCP/IP (Ethernet). Это drastically снижает задержки и нагрузку на процессор, что критически важно для высокопроизводительных вычислений, баз данных и систем хранения.

Совместим ли адаптер с PCI Express 3.0?

Да, адаптер имеет обратную совместимость с интерфейсом PCIe 3.0 x16. Однако для полного раскрытия пропускной способности двух портов 100 Гбит/с настоятельно рекомендуется использовать шину PCIe 4.0.

Какие типы трансиверов и кабелей поддерживаются портами QSFP56?

Порты поддерживают широкий спектр QSFP28/QSFP56 трансиверов и кабелей (DAC, AOC) для скоростей 100G, 50G, 40G, 25G в зависимости от выбранного режима работы (Ethernet или InfiniBand). Необходимо проверять совместимость конкретных модулей с firmware адаптера.

Поддерживается ли виртуализация (SR-IOV) на этом адаптере?

Да, адаптеры Mellanox ConnectX-6 имеют аппаратную поддержку SR-IOV (Single Root I/O Virtualization), позволяя напрямую назначать виртуальные функции (VF) виртуальным машинам, что обеспечивает почти "нативную" производительность сети в виртуализированных средах.

Для каких задач предназначен этот адаптер?

Адаптер предназначен для высоконагруженных серверов в ЦОД: кластеры HPC и AI/ML, гиперконвергентные инфраструктуры (HCI), платформы для Big Data (Hadoop, Spark), высокопроизводительные системы хранения (NVMe-oF, SDS), стеки виртуализации и облачные платформы.

Что требуется для работы адаптера в системе?

1. Сервер с совместимым слотом PCIe x16 (предпочтительно версии 4.0).
2. Установка последних драйверов Mellanox OFED (для Linux) или WinOF-2 (для Windows).
3. Для InfiniBand — наличие соответствующего коммутатора InfiniBand. Для Ethernet — совместимый коммутатор 100GbE.
4. Соответствующие трансиверы или кабели QSFP.

Что означает "Tall Bracket" в названии?

Это обозначение высокой монтажной скобы (кронштейна), которая предназначена для установки адаптера в серверные шасси стандартной высоты (например, 1U/2U). В комплекте может поставляться только такая скоба. Для корпусов иной конструкции может потребоваться замена на "Low Profile" (половинной высоты) скобу, приобретаемую отдельно.

Основные характеристики

Скорость передачи данных, Мб/с
100000
IEEE 802.1Q (VLAN)
Да
IEEE 802.1Qau (CN)
Да
IEEE 802.1Qaz (ETS)
Да
IEEE 802.1Qbb (PFC)
Да
IEEE 802.1Qbg (EVB)
Да
Особенности
Два порта QSFP56. Интерфейс PCIe 3.0/4.0 x16. Поддержка HDR100, EDR, FDR, QDR, DDR, SDR
Модельный ряд
Серверный сетевой адаптер
Ссылка на описание
https
Комплект поставки
Инструкция
IEEE 1588
v.2
Вид поставки
RTL
iWARP/RDMA
Да
TCP Checksum Offload
Да
Версия интерфейса
PCI Express 4.0 x16
Jumbo Frame
9.6 КБ
Контроллер
Mellanox ConnectX-6
Вопросов: 0

Нет вопросов об этом товаре.

Похожие товары
Адаптер ThinkSystem M.2 SATA 2-Bay RAID Enablement Kit 4Y37A09739 Accessory
4Y37A09739
В наличии
10 550 ₽
Сетевой адаптер HPE BCM57412 P26259-B21
P26259-B21
В наличии
21 020 ₽
Сетевой адаптер HPE BCM57414 P26262-B21
P26262-B21
В наличии
27 730 ₽
Сетевая карта Intel X520-DA2 E10G42BTDABLKCP
E10G42BTDABLK
В наличии
12 950 ₽
Сетевая карта Intel I350-T2V2 I350T2V2BLK
I350T2V2BLK
В наличии
8 610 ₽
Сетевая карта Dell 540-BBVI
540-BBVI
В наличии
24 990 ₽
Сетевой адаптер Dell 540-BCOC
540-BCOC
В наличии
15 810 ₽
Вы смотрели
0
0