Сетевой контроллер NVIDIA ConnectX®-6 VPI adapter card, HDR IB (200Gb/s) and 200GbE — это высокопроизводительный адаптер нового поколения, созданный для центров обработки данных и высоконагруженных вычислительных систем. Карта поддерживает скорость передачи данных до 200 Гбит/с в режимах InfiniBand HDR и Ethernet 200GbE, обеспечивая минимальные задержки и максимальную пропускную способность. Идеальное решение для высокоскоростных сетей, систем искусственного интеллекта, машинного обучения и высокопроизводительных вычислений (HPC).
Мощь и эффективность для вашей сети
Контроллер ConnectX®-6 VPI — это ключевой компонент для построения высокоскоростной и низколатентной сетевой инфраструктуры. Благодаря поддержке как InfiniBand HDR, так и Ethernet 200GbE, адаптер обеспечивает беспрецедентную гибкость развертывания. Передовые технологии аппаратного ускорения разгружают центральный процессор, повышая общую эффективность системы и сокращая задержки в самых требовательных рабочих нагрузках.
Высокая производительность и универсальность
Адаптер построен на передовой архитектуре ConnectX-6 VPI:
- Максимальная скорость: Поддержка скорости порта 200 Гбит/с в режимах InfiniBand HDR и Ethernet 200GbE обеспечивает высокую пропускную способность для передачи больших объемов данных.
- Двойной протокол (VPI): Технология Virtual Protocol Interconnect позволяет использовать один адаптер как для сетей InfiniBand, так и для Ethernet, что упрощает инфраструктуру и снижает затраты.
- Аппаратное ускорение: Встроенные механизмы ускорения (RoCE, GPUDirect, TCC) минимизируют задержки и нагрузку на CPU, что критически важно для HPC, AI/ML и систем хранения.
Надежность и совместимость
Форм-фактор HHHL (Half Height, Half Length) и интерфейс PCIe 4.0 x16 обеспечивают широкую совместимость с современными серверными платформами. Адаптер поставляется с высокой скобой (tall bracket), подходящей для стандартных серверных корпусов. Строгий контроль качества и пассивное охлаждение гарантируют стабильную работу 24/7.
Для самых требовательных задач
ConnectX®-6 VPI создан для ускорения современных рабочих нагрузок: высокопроизводительные вычисления (HPC), искусственный интеллект и машинное обучение (AI/ML), облачные платформы, виртуализация и высокоскоростные системы хранения данных (NVMe over Fabrics). Один порт QSFP56 обеспечивает подключение к сетям следующего поколения.
Технические характеристики
| Тип адаптера | Сетевой адаптер Infiniband (VPI) |
| Форм-фактор | HHHL (Half Height, Half Length) |
| Интерфейс подключения | PCIe 4.0 x16 |
| Контроллер (чип) | NVIDIA ConnectX-6 VPI |
| Количество портов | 1 |
| Тип порта | QSFP56 |
| Скорость порта | 200 Гбит/с |
| Поддерживаемые протоколы | InfiniBand HDR (200Gb/s), Ethernet 200GbE |
| Комплектная скоба | Высокая (Tall Bracket) |
| Комплектация | Одиночная упаковка (Single Pack) |
| Ключевые технологии | Аппаратное ускорение RoCE, GPUDirect, TCC |
| Рекомендуемое применение | ЦОД, HPC, AI/ML, облачные вычисления, высокоскоростные сети |
Часто задаваемые вопросы
В чем преимущество технологии VPI?
VPI (Virtual Protocol Interconnect) позволяет одному адаптеру работать как в сетях InfiniBand, так и в сетях Ethernet. Это дает гибкость при развертывании и модернизации инфраструктуры, позволяя выбирать протокол в зависимости от задач без замены оборудования.
Какое оборудование необходимо для работы на скорости 200 Гбит/с?
Для полного использования скорости 200 Гбит/с необходима совместимая сеть: коммутаторы InfiniBand HDR или Ethernet 200GbE, соответствующие кабели (активные или пассивные) или оптические трансиверы QSFP56, а также сервер с поддержкой PCIe 4.0.
Совместим ли адаптер с PCIe 3.0?
Да, адаптер с интерфейсом PCIe 4.0 x16 обратно совместим со слотами PCIe 3.0. Однако для достижения максимальной пропускной способности в 200 Гбит/с рекомендуется использовать платформу с поддержкой PCIe 4.0, чтобы избежать ограничений по шине.
Что такое GPUDirect и для чего оно нужно?
GPUDirect — это набор технологий, позволяющих графическим ускорителям (GPU) напрямую обмениваться данными с сетевыми адаптерами или другими GPU, минуя оперативную память хоста. Это drastically снижает задержки и нагрузку на CPU, что критически важно для кластеров AI/ML и HPC.
Подойдет ли этот адаптер для высокоскоростного хранилища?
Абсолютно. Адаптер идеально подходит для организации сетей хранения данных с использованием технологий, таких как NVMe over Fabrics (NVMe-oF). Аппаратное ускорение RoCE (RDMA over Converged Ethernet) обеспечивает высокую скорость доступа к удаленным NVMe-накопителям с минимальной задержкой.
Какой тип кабеля требуется для порта QSFP56?
Для подключения необходимы кабели или трансиверы стандарта QSFP56, поддерживающие скорость 200 Гбит/с. Это могут быть прямые медные кабели (DAC), активные оптические кабели (AOC) или оптические трансиверы (например, QSFP56 200G SR4/DR4/FR4) с соответствующими патч-кордами.
В чем разница между InfiniBand и Ethernet режимами?
InfiniBand традиционно обеспечивает экстремально низкие задержки и высокую эффективность в кластерных вычислениях. Ethernet 200GbE предлагает более широкую экосистему и совместимость. ConnectX-6 VPI позволяет выбрать оптимальный протокол для конкретной задачи в рамках одной аппаратной платформы.
Какое программное обеспечение требуется для работы адаптера?
Необходимо установить драйверы NVIDIA MLNX_OFED (для InfiniBand/RoCE) или стандартные драйверы Ethernet от NVIDIA. Эти пакеты включают все необходимые драйверы, утилиты и библиотеки для полной реализации функциональности адаптера под различными ОС (Linux, VMware, Windows).
Что означает форм-фактор HHHL?
HHHL (Half Height, Half Length) — это компактный форм-фактор платы расширения, примерно вдвое меньший по высоте и длине, чем стандартная полноразмерная карта. Он предназначен для установки в серверы с ограниченным пространством, включая многие современные стоечные и blade-серверы.
Основные характеристики
Нет вопросов об этом товаре.
