Сетевой контроллер NVIDIA ConnectX-5 Ex VPI adapter card, EDR IB (100Gb/s) and 100GbE, dual-port QSFP28, PCIe4.0 x16, tall bracket — это высокопроизводительный адаптер для центров обработки данных и высокопроизводительных вычислений (HPC). Карта поддерживает технологию Virtual Protocol Interconnect (VPI), что позволяет работать как в сетях InfiniBand EDR (100 Гбит/с), так и в Ethernet (100 Гбит/с). Два порта QSFP28, интерфейс PCIe 4.0 x16 и продвинутые функции ускорения обеспечивают максимальную пропускную способность и минимальные задержки для самых требовательных задач.
Мощность и гибкость для современных ЦОД и HPC
Адаптер ConnectX-5 Ex VPI — это ключевое решение для построения высокоскоростных сетей с ультранизкой задержкой. Благодаря поддержке как InfiniBand EDR, так и 100 Gigabit Ethernet, карта предлагает беспрецедентную гибкость развертывания. Аппаратное ускорение для технологий виртуализации, облачных сред и хранилищ делает её идеальным выбором для современных центров обработки данных, искусственного интеллекта и машинного обучения.
Высокая производительность и универсальность
Контроллер построен на передовой архитектуре NVIDIA ConnectX-5:
- Двойной протокол: Технология VPI позволяет одному адаптеру работать в сетях InfiniBand EDR (100 Гбит/с) или 100 Gigabit Ethernet, обеспечивая инвестиционную защиту и гибкость инфраструктуры.
- Максимальная скорость: Скорость порта 100 Гбит/с и пропускная способность PCIe 4.0 x16 устраняют узкие места в передаче данных, критически важные для HPC, AI/ML и распределенных хранилищ.
- Аппаратное ускорение: Встроенные механизмы ускорения (RoCE, GPUDirect, NVMe over Fabrics) значительно снижают загрузку ЦП и задержки, повышая общую эффективность системы.
Надежность и эффективное управление
Адаптер предназначен для круглосуточной работы в условиях высокой нагрузки. Поддержка технологий качественного обслуживания (QoS), мониторинга в реальном времени и удаленного управления обеспечивает стабильность и предсказуемость работы критически важных приложений.
Идеален для виртуализации и облаков
Благодаря продвинутой поддержке SR-IOV и виртуализации сетевых функций (NFV), один физический адаптер может быть разделен на множество виртуальных с выделенной производительностью, что оптимально для многопользовательских облачных сред и виртуализированных ЦОД.
Технические характеристики
| Количество портов | 2 |
| Тип адаптера | Сетевой адаптер Infiniband (VPI: InfiniBand и Ethernet) |
| Форм-фактор платы | MD2 Low-Profile (с кронштейном стандартной высоты - tall bracket) |
| Интерфейс подключения | PCIe 4.0 x16 |
| Контроллер (чип) | NVIDIA ConnectX-5 Ex VPI |
| Скорость порта | 100 Гбит/с на порт |
| Тип портов | QSFP28 |
| Поддерживаемые сети | InfiniBand EDR (100 Gb/s), 100 Gigabit Ethernet |
| Ключевые технологии | VPI, SR-IOV, RoCE, GPUDirect, NVMe over Fabrics |
| Основное применение | ЦОД, HPC, Искусственный интеллект, Машинное обучение, Хранилища |
Часто задаваемые вопросы
Что означает технология VPI?
Virtual Protocol Interconnect (VPI) — это технология, позволяющая одному сетевому адаптеру работать в сетях как InfiniBand, так и Ethernet. Вы можете выбрать и настроить нужный протокол (IB или Eth) для каждого порта через ПО, что обеспечивает максимальную гибкость инфраструктуры.
Подойдет ли этот адаптер для сервера с PCIe 3.0?
Да, адаптер с интерфейсом PCIe 4.0 x16 обратно совместим со слотами PCIe 3.0. Однако для полного раскрытия пропускной способности двух портов 100 Гбит/с рекомендуется использовать его в системе с поддержкой PCIe 4.0.
В чем преимущество InfiniBand перед Ethernet для HPC?
InfiniBand обеспечивает экстремально низкую задержку и высокую пропускную способность с эффективным аппаратным оффлоудом, что критически важно для кластеров высокопроизводительных вычислений, где узлы активно обмениваются данными. Ethernet, особенно с RoCE, предлагает больше знакомства и интеграции в стандартные сети.
Что такое GPUDirect и для чего оно нужно?
GPUDirect — это набор технологий, позволяющих GPU напрямую обмениваться данными с сетевыми адаптерами или другими GPU, минуя буферы в оперативной памяти ЦП. Это резко снижает задержки и повышает производительность в задачах AI, машинного обучения и параллельных вычислений.
Нужны ли специальные кабели или трансиверы?
Да, для подключения необходимы совместимые модули QSFP28 (оптические трансиверы) и кабели (оптические патч-корды или DAC/AOC) для выбранного протокола (InfiniBand EDR или 100GbE). Тип трансивера и кабеля зависит от расстояния и инфраструктуры.
Поддерживает ли адаптер NVMe over Fabrics (NVMe-oF)?
Да, адаптер ConnectX-5 Ex аппаратно ускоряет NVMe over Fabrics как через InfiniBand, так и через Ethernet (с использованием RoCE). Это позволяет строить высокопроизводительные распределенные системы хранения с доступом к удаленным NVMe-накопителям как к локальным.
Что означает "tall bracket" в названии?
Адаптер имеет форм-фактор платы MD2 Low-Profile, но комплектуется кронштейном стандартной высоты (tall bracket), который подходит для большинства серверных корпусов и стоек. При необходимости его можно заменить на низкопрофильный (low-profile bracket).
Какое программное обеспечение требуется для работы?
Необходимо установить пакет драйверов и утилит управления NVIDIA MLNX_OFED (для Linux) или драйверы для Windows Server. Это ПО предоставляет все необходимые драйверы, firmware и инструменты для настройки протоколов и функций ускорения.
Можно ли использовать один порт в режиме IB, а другой в режиме Ethernet?
Нет, как правило, режим протокола (InfiniBand или Ethernet) выбирается и применяется одновременно ко всем портам адаптера через firmware. Для смешанной среды потребуются отдельные адаптеры или планирование сети на уровне коммутаторов.
Основные характеристики
Нет вопросов об этом товаре.
