Сетевой адаптер Mellanox ConnectX-5 MCX512A-ACUT 25/10/1GbE — это высокопроизводительное двухпортовое решение корпоративного класса, построенное на передовой архитектуре ConnectX-5. Адаптер поддерживает скорости 25, 10 и 1 Гбит/с в режиме Ethernet, а также работу в сетях InfiniBand, обеспечивая сверхнизкие задержки и максимальную пропускную способность для критически важных задач. Благодаря аппаратной поддержкой iWARP, RDMA (включая RoCEv2) и интеллектуальным оффлоадам, карта идеально подходит для центров обработки данных, высокопроизводительных кластеров, систем хранения и виртуализации.
Ключевой компонент для высокопроизводительных сетей
Сетевая карта Mellanox ConnectX-5 MCX512A-ACUT задает новый стандарт скорости и эффективности. Аппаратная реализация RDMA (Remote Direct Memory Access) позволяет осуществлять прямую передачу данных между памятью серверов, минуя процессор и операционную систему, что радикально снижает задержки и нагрузку на CPU. Поддержка современных протоколов Storage Over Ethernet делает адаптер универсальным решением для построения быстрых и отзывчивых IT-инфраструктур.
Универсальная производительность и гибкость
Адаптер предлагает уникальное сочетание возможностей:
- Двойной режим работы: Поддержка как высокоскоростного Ethernet (25/10/1GbE), так и InfiniBand обеспечивает гибкость выбора сетевой технологии в зависимости от задач инфраструктуры.
- Технологии ускорения: Полная аппаратная поддержка iWARP и RoCEv2 для эффективного RDMA, а также интеллектуальные оффлоады (Intelligent Offloads) для разгрузки центрального процессора.
- Интеграция с системами хранения: Поддержка ключевых протоколов Storage Over Ethernet (SRP, iSER, NFS RDMA, SMB Direct, NVMe-oF) позволяет создавать высокоскоростные сети хранения данных с минимальной задержкой.
Надежность и совместимость
Адаптер выполнен в форм-факторе стандартной полновысотной карты с поддержкой низкопрофильной установки (с помощью комплектного рельса), что обеспечивает совместимость с широким спектром серверных корпусов. Интерфейс PCI-E 3.0 x8 гарантирует отсутствие узких мест при передаче данных на максимальной скорости. Высококачественные компоненты и фирменный чипсет Mellanox гарантируют стабильную работу 24/7.
Идеальное решение для современных задач
ConnectX-5 MCX512A-ACUT создан для разгрузки и ускорения работы виртуализированных сред, баз данных, машинного обучения и высокопроизводительных вычислений (HPC). Снижение задержек и потребления ресурсов CPU напрямую влияет на общую эффективность и плотность размещения виртуальных машин, обеспечивая быструю окупаемость инвестиций в IT-инфраструктуру.
Технические характеристики
| Тип устройства | Новые |
| Производитель | Mellanox |
| Количество портов | 2 |
| Совместимость с низкопрофильными решениями | Да |
| Скорость передачи данных | 25/10/1GbE |
| Интерфейс подключения | PCI-E 3.0 X8 |
| Чипсет | Mellanox MCX512A-ACUT |
| Тип портов (коннекторов) | 2x SFP28 (25GbE) |
| Поддержка протоколов передачи данных | Ethernet, InfiniBand |
| Поддержка iWARP/RDMA | Да |
| Storage Over Ethernet (поддерживаемые протоколы) | SRP, iSER, NFS RDMA, SMB Direct, NVMe-oF |
| Поддержка RoCEv2/RDMA | Да |
| Интеллектуальные оффлоады (Intelligent Offloads) | Да |
| Fiber Channel over Ethernet (FCoE) | Нет |
Часто задаваемые вопросы
В чем основное преимущество RDMA (iWARP/RoCEv2)?
RDMA позволяет сетевым адаптерам напрямую читать и записывать данные в память другого сервера, минуя CPU и операционную систему. Это drastically снижает задержку (latency) и нагрузку на процессор, что критически важно для высокопроизводительных вычислений (HPC), виртуализации и систем хранения.
Что означают протоколы SRP, iSER, NVMe-oF в характеристиках?
Это протоколы для доступа к блочным устройствам хранения данных через сеть Ethernet или InfiniBand (Storage Over Ethernet). Они позволяют создать высокоскоростную сеть хранения данных (SAN) с очень низкими задержками, используя стандартную сетевую инфраструктуру, что эффективнее традиционных решений на основе Fiber Channel.
Чем отличается iWARP от RoCEv2?
Обе технологии реализуют RDMA. iWARP работает поверх стандартного TCP/IP, что обеспечивает лучшую маршрутизируемость в крупных сетях. RoCEv2 (RDMA over Converged Ethernet v2) работает поверх UDP/IP и обычно обеспечивает еще более низкие задержки в пределах одного центра обработки данных. Адаптер поддерживает обе технологии.
Что такое "Интеллектуальные оффлоады" (Intelligent Offloads)?
Это аппаратное ускорение сетевых операций (чексуммирование, шифрование, сегментация/сборка пакетов, обработка протоколов и т.д.) непосредственно на чипе сетевого адаптера. Это значительно снижает нагрузку на центральный процессор сервера, высвобождая его ресурсы для выполнения прикладных задач.
Можно ли использовать этот адаптер в обычном ПК или он только для серверов?
Адаптер является корпоративным/серверным решением. Он физически совместим со стандартным слотом PCI-E x8 и может работать в мощной рабочей станции для специализированных задач (например, для высокоскоростного сетевого хранилища или кластерных вычислений). Однако для полноценного использования всех функций (особенно в ОС Windows) потребуются специализированные драйверы и настройка.
Какие трансиверы (SFP+) или кабели нужны для подключения?
Для работы на 25 Гбит/с необходимы SFP28 трансиверы (оптические или DAC/AOC медные кабели), совместимые с 25GbE. Порты также поддерживают скорости 10 и 1 Гбит/с с использованием соответствующих SFP+ или SFP трансиверов. Рекомендуется использовать сертифицированные Mellanox или совместимые трансиверы.
Поддерживает ли адаптер виртуализацию SR-IOV?
Да, адаптеры Mellanox ConnectX-5, включая модель MCX512A-ACUT, поддерживают технологию SR-IOV (Single Root I/O Virtualization). Это позволяет напрямую назначать виртуальные функции (VF) сетевого адаптера виртуальным машинам, обеспечивая им нативную производительность и низкие задержки, близкие к физическому серверу.
Совместима ли карта с операционной системой Linux?
Да, Mellanox предоставляет полную поддержку драйверов (пакет MLNX_OFED) для основных дистрибутивов Linux. Поддержка в ядре Linux также является нативной. Для ОС семейства Windows Server также доступны драйверы и утилиты управления от Mellanox.
Что означает поддержка InfiniBand? Нужен ли для этого специальный коммутатор?
Да, адаптер может работать в сетях InfiniBand, которые часто используются в HPC-кластерах. Для построения такой сети необходима соответствующая инфраструктура: коммутаторы InfiniBand и кабели. В режиме Ethernet адаптер работает с обычными Ethernet-коммутаторами соответствующей скорости (25/10/1GbE).
Основные характеристики
Нет вопросов об этом товаре.
