NVIDIA ConnectX-7 NDR 400Gb/s InfiniBand Adapter MCX75310AAS-HEAT

Szczegóły Produktu:

Nazwa handlowa: Mellanox
Numer modelu: MCX75310AAS-Heat (900-9x766-003n-ST0)
Dokument: Connectx-7 infiniband.pdf

Zapłata:

Minimalne zamówienie: 1 szt
Cena: Negotiate
Szczegóły pakowania: Pudełko zewnętrzne
Czas dostawy: Na podstawie zapasów
Zasady płatności: T/T
Możliwość Supply: Dostawa według projektu/partii
Najlepsza cena Kontakt

Szczegóły informacji

Nr modelu: MCX75310AAS-Heat (900-9x766-003n-ST0) Porty: Pojedynczy port
Technologia: Infiniband Typ interfejsu: OSFP56
Specyfikacja: 16,7 cm x 6,9 cm Pochodzenie: Indie / Izrael / Chiny
szybkość transmisji: 200 Gbe Interfejs hosta: Gen3 X16

opis produktu

NVIDIA ConnectX-7 NDR 400Gb/s InfiniBand Smart Adapter
MCX75310AAS-HEAT. PCIe Gen5 Dual-Port 400GbE / NDR

Ultra-niskie opóźnienie RDMA sieci dla fabryk AI, klastrów HPC i chmury hiperskałowej.przyspieszenie bezpieczeństwa sprzętu, a GPUDirect® Gotowy do przechowywania.

✓ PCIe 5. 0 x16 ✓ RoCE i InfiniBand ✓ Bezpieczne uruchamianie + IPsec/TLS/MACsec w trybie wbudowanym ✓ zbiorowe rozładunki SHARPv3
Przegląd produktu

Rodzina NVIDIA ConnectX-7 redefiniuje połączenia między centrami danych z przepustowością do 400 Gb/s, niezawodnym transportem opartym na sprzęcie i zaawansowanym obliczeniem w sieci.MCX75310AAS-HEATnależy do serii adapterów ConnectX-7 VPI obsługujących zarówno InfiniBand (NDR/HDR/EDR) jak i Ethernet (400GbE do 10GbE).zapewnia opóźnienie poniżej mikrosekundy i uwalnia rdzenie procesora za pośrednictwem silników przyspieszenia w celu zapewnienia bezpieczeństwa, wirtualizacji i NVMe-oF. Dzięki interfejsowi hosta PCIe Gen5 adapter ten maksymalizuje przepływ danych dla klastrów GPU i środowisk handlowych o wysokiej częstotliwości.

Wykorzystując ASAP2 (Accelerated Switch and Packet Processing) i Zero-Touch RoCE, adapter upraszcza wdrażanie, zapewniając jednocześnie szyfrowanie sprzętu w linii ′′ od krawędzi do rdzenia.Przedsiębiorstwa mogą zabezpieczyć swoją infrastrukturę z wykorzystaniem szybkości NDR i elastycznego wsparcia dla wielu hostów.

Kluczowe cechy
Ultrawysoka przepustowość

Podwójny port NDR 400Gb/s InfiniBand lub 400GbE, PCIe Gen5 x16 (do 32 pasów).

In-Network Computing

SHARPv3 zbiorowe operacje rozładunek, protokół rendezvous rozładunek, pamięć pokładowa dla wybuchów.

Silniki zabezpieczeń sprzętu

Inline IPsec/TLS/MACsec AES-GCM 128/256-bit, bezpieczne uruchamianie z hardware root-of-trust, szyfrowanie flash.

Dokładny czas

IEEE 1588v2 PTP (12ns dokładności), SyncE, klasa C G.8273.2, wyzwalający tempo.

Szybkie przechowywanie i GPUDirect

GPUDirect RDMA, GPUDirect Storage, NVMe-oF offload, przekazanie podpisu T10-DIF.

SDN i nakłady nakładowe

VXLAN, GENEVE, NVGRE, programowalny elastyczny analizator, śledzenie połączeń (firewall L4).

Technologia stworzona do przyspieszenia opartego na danych

NVIDIA ASAP2 (Accelerated Switch and Packet Processing) odładowuje całe ścieżki danych, zapewniając wydajność SDN z zerowym obciążeniem procesora.Strona internetowa na życzenie (ODP), rejestracja trybu użytkownika (UMR) i usługi tłumaczenia adresów (ATS) dla efektywnych obciążeń kontenerowych.adapter umożliwia wykonanie bare-metal w wirtualizowanych środowiskachNapędowy silnik RoCE zapewnia wdrożenie zero-touch dla konwergowanych tkanin Ethernet, podczas gdy pamięć sieciowa zmniejsza opóźnienie dla bibliotek MPI i komunikacji zbiorowej (NVIDIA HPC-X, UCX,NCCL).

Aby rozwiązać problem bezpieczeństwa od krawędzi do rdzenia, silniki kryptografii w linii obsługują IPsec, TLS 1.3, i MACsec bez zużywania rdzeni wykonywania, co czyni go idealnym rozwiązaniem dla chmur multi-tenant i usług finansowych.

Typowe rozmieszczenia
  • Klustery AI i dużych modeli językowych:RDMA i GPUDirect przyspieszają rozproszone szkolenie na setkach procesorów graficznych.
  • Wypożyczalnia wysokiej wydajności (HPC):MPI offloads, SHARPv3 dla redukcji w sieci, adaptive routing.
  • Centrum danych w chmurze i na krawędzi:Przyspieszenie sieci, VXLAN, SR-IOV.
  • Systemy pamięci masowej (SDS) definiowane oprogramowaniem:NVMe/TCP, NVMe-oF, iSER, NFS przez RDMA.
  • Analityka i handel w czasie rzeczywistym:Ultra niskie opóźnienie + synchronizacja klasy C PTP.
Zgodność
Składnik / Ekosystem Opcje obsługiwane
Interfejs hosta PCIe Gen5 (do pasów x32, typowe dla x16), bifurkacja PCIe, Multi-Host (4 hosta)
Systemy operacyjne Linux (RHEL, Ubuntu, sterowniki w pakiecie), Windows Server, VMware ESXi (SR-IOV), Kubernetes
Wirtualizacja i pojemniki SR-IOV, przyspieszenie VirtIO, NVMe przez TCP w przypadku kontenerów
HPC Middleware / Biblioteki OpenMPI, MVAPICH, MPICH, UCX, NCCL, UCC, OpenSHMEM, PGAS
Protokoły przechowywania NVMe-oF (RDMA/TCP), SRP, iSER, NFS przez RDMA, SMB Direct, GPUDirect Storage
Specyfikacje techniczne
Parametry Specyfikacja
Model produktu MCX75310AAS-HEAT
Czynniki formy PCIe HHHL / FHHL, OCP 3.0 SFF/TSFF (patrz przewodnik zamówienia)
Prędkości InfiniBand NDR 400 Gb/s, HDR 200 Gb/s, EDR 100 Gb/s
Prędkości Ethernet 400GbE, 200GbE, 100GbE, 50GbE, 25GbE, 10GbE (NRZ/PAM4)
Porty sieciowe konfiguracje portów 1/2/4 (zależne od SKU; 2-port typowy dla tego modelu)
Autobus gospodarza PCI Express Gen 5.0 (kompatybilny z Gen4/Gen3), do pasów x32, wskazówki przetwarzania TLP, ATS, PASID
Bezpieczeństwo Inline IPsec (AES-GCM 128/256), TLS 1.3, MACsec, bezpieczne uruchamianie, szyfrowanie flash, potwierdzenie urządzenia
RDMA / Transport Niezawodny transport sprzętowy, XRC, DCT, paging na żądanie, UMR, GPUDirect RDMA
Czas i synchronizacja IEEE 1588v2 PTP, G.8273.2 klasa C, dokładność 12 ns, syncE, włączenie/wyłączenie PPS, planowanie wywołane czasowo
Zarządzanie NC-SI, MCTP przez PCIe/SMBus, PLDM (DSP0248/0267/0218), SPDM, SPI flash, JTAG
Wyrzucić urządzenie InfiniBand zdalne uruchomienie, iSCSI, UEFI, PXE
Otwarte sieci ASAP2 dla SDN, VXLAN/GENEVE/NVGRE offload, odzwierciedlenie przepływu, hierarchiczne QoS, śledzenie połączeń L4
Energetyka i środowisko Odwołanie do instrukcji obsługi (typowe ~15W-25W w zależności od konfiguracji), temperatura pracy: od 0°C do 55°C (nie podana publicznie, potwierdzenie w odniesieniu do SKU)
Uwaga: Pełne specyfikacje różnią się w zależności od dokładnego SKU.
Wskazówka wyboru ConnectX-7 Adaptory VPI
Przykład numeru części Porty / Prędkość Wskaźnik kształtu Typowe zastosowanie
MCX75310AAS-HEAT NDR 400Gb/s podwójny port, PCIe 5.0 x16 PCIe HHHL / FHHL Najnowocześniejsze klastry AI i HPC, GPU
MCX75340AAS-HEAT (przykład) 4-port NDR200 / 200GbE OCP 3.0 Hiperskala i wieloprzestrzenny
Pozostałe SKU ConnectX-7 Jednorazowy/podwójny port, 100G/200G/400G OCP, FHHL Przedsiębiorstwa, urządzenia magazynowe

W celu uzyskania pomocy w wyborze odpowiedniego SKU (podtrzymanie kable, rodzaj uchwytu, wysoki/krótki uchwyt) skontaktuj się z zespołem Starsurge.

Zalety: Dlaczego wybrać Starsurge + NVIDIA ConnectX-7
  • Części oryginalne i certyfikowane√ pełna gwarancja, bezpieczny łańcuch dostaw.
  • Doradztwo w zakresie architektury przedsprzedażowejProjekt klastra HPC / AI, tuning RDMA.
  • Globalna logistyka i szybkie realizacje∆ zasoby w Azji/Europie/Amerykach.
  • Niestandardowe oprogramowanie napędowe i opcje OEMWymaganie konfiguracji masowej.
  • Wsparcie techniczne po sprzedaży Integracja sterowników, aktualizacje oprogramowania, RMA.
Usługi i wsparcie

Hong Kong Starsurge Group zapewnia pełne wsparcie cyklu życia: od walidacji kompatybilności do wdrożenia i bieżącej konserwacji.

  • Projektowanie tkaniny InfiniBand i optymalizacja wydajności.
  • Konfiguracja RoCE dla środowisk Ethernet.
  • Integracja z GPUDirect Storage i NVMe-oF.
  • 3-letnia gwarancja standardowa plus rozszerzone pokrycie dostępne.

Ceny objętościowe, przesyłka hurtowa i dostosowanie (przyczepy, kartki) są dostępne na żądanie.

Częste pytania
1Jaka jest podstawowa różnica między NDR InfiniBand a trybem 400GbE?

NDR obejmuje zaawansowane funkcje obliczeniowe w sieci, takie jak SHARP, adaptive routing i niezawodny transport sprzętowy; tryb Ethernet wykorzystuje RoCE do RDMA z tą samą szybkością linii.ConnectX-7 obsługuje zarówno poprzez podwójną osobowość.

2Czy MCX75310AAS-HEAT jest kompatybilny z płytami macierzystymi PCIe Gen4?

Tak, adapter jest kompatybilny z PCIe Gen4 i Gen3, ale przy zmniejszonej prędkości jazdy.

3Czy ten model obsługuje Multi-Host?

Tak, ConnectX-7 obsługuje technologię NVIDIA Multi-Host, umożliwiającą udostępnianie tego samego adaptera do 4 niezależnych hostów (zależnie od konkretnego SKU i okablowania).

4Jakie standardy szyfrowania są przyspieszone w linii?

IPsec (AES-GCM 128/256-bit), TLS (AES-GCM 128/256-bit) i MACsec (AES-GCM 128/256-bit).

5Mogę użyć tego adaptera do przyspieszenia NVMe/TCP?

ConnectX-7 rozładowuje NVMe przez TCP, a także NVMe-oF, zmniejszając koszty przechowywania.

Środki ostrożności i instrukcje montażu
  • Zapewnienie prawidłowego przepływu powietrza w podwozie serwera przy użyciu nadajników wysokiej mocy (aktywny system optyczny lub DAC).
  • Użyj oprogramowania naprawczego dostarczonego przez NVIDIA lub zatwierdzonego przez Starsurge w celu naprawy zabezpieczeń.
  • Zainstalować najnowszy sterownik (MLNX_OFED lub native inbox), aby umożliwić pełne wyładowanie sprzętu.
  • Zweryfikowanie zgodności QSFP-DD lub OSFP dla optyki 400G; patrz przewodnik NVIDIA dotyczący nadajnika Ethernet.
  • Wymagana obsługa antystatyczna
Wprowadzenie do firmy
Hong Kong Starsurge Group office and network hardware integration center

Hong Kong Starsurge Group Co., Limitedjest technologicznym dostawcą sprzętu sieciowego, usług IT i rozwiązań integracji systemów.NICStarsurge wspiera branże takie jak rząd, opieka zdrowotna, produkcja,edukacjaFirma oferuje również rozwiązania IoT, systemy zarządzania siecią, niestandardowy rozwój oprogramowania, wsparcie wielojęzyczne i globalną dostawę.Starsurge koncentruje się na niezawodnej jakości, odpowiedzialne usługi i dostosowane rozwiązania, które pomagają klientom budować wydajną, skalowalną i niezawodną infrastrukturę sieciową.

✓ Autoryzowany partner wiodących marek, w tym produktów sieciowych NVIDIA.

Kluczowe fakty ️ Na pierwszy rzut oka
Maksymalna przepustowość 400 Gb/s (NDR / 400GbE) PCIe Gen5 Do 32 pasów
Wsparcie RDMA InfiniBand & RoCE Ochrona IPsec/TLS/MACsec wewnętrzny
GPUDirect RDMA + Przechowywanie Dokładność czasu 12ns PTP
Macierza zgodności
Składnik Zalecane / wspierane Wskazania
Serwery GPU (HGX/DGX) Całkowicie kompatybilny z GPUDirect SHARP rozładowanie na InfiniBand
Przełączniki na szczycie regału NVIDIA QM9700 (NDR), SN4000 (Ethernet) Wsparcie
Hosty wirtualizacji VMware ESXi 7.0/8.0, KVM, Hyper-V Włączone SR-IOV
Systemy magazynowania PureStorage, VAST Data, WEKA, Dell PowerScale NVMe-oF / RoCE gotowe
Kable / optyka NVIDIA pasywny miedziany DAC, aktywny optyczny (400G SR4/DR4) Potwierdzenie macierzy zgodności
Lista kontrolna nabywcy MCX75310AAS-HEAT
  • Potwierdź, że konfiguracja portu (2-port NDR lub 2x200G) pasuje do planu przełączania.
  • Potwierdzenie długości fizycznej gniazda PCIe i typu uchwytu (HHHL / FHHL).
  • Sprawdź kierunek przepływu powietrza i wymagania dotyczące pasywnego/aktywnego kabla.
  • Zapewnić obsługę sterowników systemu operacyjnego (wersja MLNX_OFED dla jądra).
  • W przypadku zabezpieczeń: włączyć bezpieczne uruchamianie i kryptowalutę w systemie.
  • Przejrzyj gwarancję i wcześniejsze opcje wymiany.
Produkty pokrewne
NVIDIA Quantum-2 NDR Switch

64-port 400G InfiniBand, integracja SHARPv3.

ConnectX-6 HDR 200G Adapter

Kosztowo efektywne 200Gb/s dla mniejszych klastrów.

NVIDIA BlueField-3 DPU

Akceleracja pamięci masowej i zabezpieczeń + programowalna ścieżka danych.

Kable 400G DAC / AOC

Zgodne z OSFP do 2xOSFP lub 2xQSFP56.

Chcesz dowiedzieć się więcej o tym produkcie
Jestem zainteresowany NVIDIA ConnectX-7 NDR 400Gb/s InfiniBand Adapter MCX75310AAS-HEAT czy mógłbyś przesłać mi więcej informacji, takich jak rodzaj, rozmiar, ilość, materiał itp.
Dzięki!
Czekam na Twoją odpowiedź.