Сетевой контроллер NVIDIA ConnectX-5 VPI — это высокопроизводительный адаптер для центров обработки данных и высоконагруженных рабочих станций. Карта поддерживает технологию VPI (Virtual Protocol Interconnect), обеспечивая работу как в сетях InfiniBand EDR (100 Гбит/с), так и в Ethernet (100GbE). Два порта QSFP28 и интерфейс PCIe 3.0 x16 гарантируют максимальную пропускную способность и минимальные задержки для задач искусственного интеллекта, машинного обучения, высокопроизводительных вычислений (HPC) и виртуализации.
Мощь и гибкость для современных сетей
Адаптер ConnectX-5 VPI представляет собой ключевое решение для построения высокоскоростной сетевой инфраструктуры. Благодаря поддержке двух протоколов (InfiniBand и Ethernet) на одной аппаратной платформе, он обеспечивает беспрецедентную гибкость развертывания. Встроенные аппаратные ускорители (например, для MPI, NVMe over Fabrics, GPUDirect) значительно снижают нагрузку на ЦП и задержки, раскрывая полный потенциал вашего вычислительного кластера или сервера.
Высшая линия производительности
Контроллер построен на передовой архитектуре NVIDIA ConnectX-5:
- Двойная протокольная поддержка: Технология VPI позволяет выбрать и динамически использовать либо InfiniBand EDR для минимальных задержек и максимальной эффективности в HPC, либо 100GbE для интеграции в стандартные Ethernet-сети дата-центров.
- Аппаратные ускорители: Полный набор технологий NVIDIA GPUDirect (RDMA, RMA, GPU-to-GPU), ускорение обработки пакетов (SwitchDev) и функций виртуализации (SR-IOV) для изоляции и производительности.
- Эффективность ЦП: Выгрузка ключевых сетевых операций на аппаратные движки адаптера освобождает ресурсы процессора для прикладных задач.
Надежность и универсальность
Адаптер выполнен в форм-факторе MD2 Low-Profile (с комплектной высокой планкой — tall bracket), что обеспечивает совместимость с широким спектром серверных корпусов и шасси. Качественные компоненты и пассивный алюминиевый радиатор гарантируют стабильную работу 24/7 даже при полной нагрузке.
Идеальное решение для самых требовательных задач
ConnectX-5 VPI создан для ускорения современных рабочих нагрузок: искусственный интеллект и глубокое обучение (AI/DL), высокопроизводительные вычисления (HPC), анализ больших данных, масштабируемые облачные среды и программно-определяемые сети (SDN). Он является фундаментом для построения высокоскоростных, низколатентных кластерных и сетевых решений.
Технические характеристики
| Тип устройства | Сетевой адаптер Ethernet/InfiniBand |
| Форм-фактор | MD2 Low-Profile (комплектуется высокой планкой — tall bracket) |
| Интерфейс подключения | PCI Express 3.0 x16 |
| Контроллер (чип) | NVIDIA ConnectX-5 VPI |
| Количество портов | 2 |
| Тип портов | QSFP28 |
| Скорость порта | 100 Гбит/с на порт |
| Поддерживаемые протоколы | InfiniBand EDR (100Gb/s) и Ethernet (100GbE) |
| Ключевые технологии | VPI, GPUDirect RDMA/RMA, SR-IOV, NVMe over Fabrics (NVMe-oF), SwitchDev |
| Рекомендуемое применение | ЦОДы, HPC-кластеры, AI/ML-серверы, высоконагруженные рабочие станции, виртуализация |
Часто задаваемые вопросы
Что означает технология VPI?
VPI (Virtual Protocol Interconnect) — это технология NVIDIA, позволяющая одному и тому же аппаратному адаптеру работать как в сетях InfiniBand, так и в сетях Ethernet. Протокол выбирается при загрузке драйвера, что дает гибкость в выборе сетевой инфраструктуры.
В чем преимущество InfiniBand перед Ethernet для HPC и AI?
InfiniBand обеспечивает экстремально низкие и предсказуемые задержки, высокую пропускную способность с минимальными накладными расходами и встроеную поддержку RDMA (удаленный прямой доступ к памяти). Это критически важно для параллельных вычислений, где узлы кластера активно обмениваются данными (например, в задачах машинного обучения).
Что такое GPUDirect и для чего он нужен?
GPUDirect — это набор технологий NVIDIA, позволяющих GPU напрямую обмениваться данными с сетевыми адаптерами (RDMA), устройствами хранения или другими GPU, минуя оперативную память и ЦП хоста. Это резко снижает задержки и нагрузку на процессор, ускоряя работу кластерных приложений и AI-фреймворков.
Совместим ли адаптер с моим сервером?
Адаптер требует слота PCIe 3.0 x8 или x16. Форм-фактор MD2 Low-Profile с высокой планкой (tall bracket) совместим с большинством серверных корпусов. Перед покупкой проверьте наличие свободного слота нужного размера и физического пространства вокруг него для установки адаптера с пассивным охлаждением.
Какие кабели и трансиверы нужны для подключения?
Для подключения необходимы кабели или модули QSFP28, соответствующие выбранному протоколу: для InfiniBand EDR — QSFP28 кабели или модули InfiniBand EDR; для 100GbE — QSFP28 оптические трансиверы (например, 100GBASE-SR4) и соответствующие патч-корды, либо DAC/AOC кабели. Совместимость конкретных моделей уточняйте в документации.
Поддерживается ли виртуализация (SR-IOV)?
Да, адаптер ConnectX-5 полностью поддерживает технологию SR-IOV (Single Root I/O Virtualization). Это позволяет создавать несколько виртуальных функций (VF), напрямую назначаемых виртуальным машинам, обеспечивая им нативную производительность сетевого интерфейса и изоляцию.
Нужны ли специальные драйверы?
Да, для работы адаптера необходимо установить пакет драйверов и утилит NVIDIA MLNX_OFED (для Linux) или драйверы WinOF-2 (для Windows Server). Эти пакеты включают все необходимые драйверы, библиотеки (например, Libfabric, UCX) и средства управления для полного раскрытия возможностей адаптера.
Можно ли использовать адаптер в режиме SwitchDev?
Да, ConnectX-5 поддерживает режим SwitchDev (Embedded Switch), позволяющий превратить адаптер в программно-управляемый виртуальный коммутатор. Это ключевая функция для построения гиперконвергентных инфраструктур (HCI) и SDN решений, где требуется гибкое управление трафиком на уровне хоста.
Основные характеристики
Нет вопросов об этом товаре.
