Adapter NVIDIA ConnectX-7 VPI – dwuportowy NDR 400 Gb/s, PCIe 5.0, GPUDirect, RoCE – MCX75310AAS-NEAT

Szczegóły Produktu:

Nazwa handlowa: Mellanox
Numer modelu: MCX75310AAS-Neat (900-9x766-003n-SQ0)
Dokument: Connectx-7 infiniband.pdf

Zapłata:

Minimalne zamówienie: 1 szt
Cena: Negotiate
Szczegóły pakowania: Pudełko zewnętrzne
Czas dostawy: Na podstawie zapasów
Zasady płatności: T/T
Możliwość Supply: Dostawa według projektu/partii
Najlepsza cena Kontakt

Szczegóły informacji

Nr modelu: MCX75310AAS-Neat (900-9x766-003n-SQ0) Porty: Pojedynczy port
Technologia: Infiniband Typ interfejsu: OSFP56
Specyfikacja: 16,7 cm x 6,9 cm Pochodzenie: Indie / Izrael / Chiny
szybkość transmisji: 400GBE Interfejs hosta: Gen3 X16
Podkreślić:

Adapter sieciowy NVIDIA ConnectX-7

,

Dwuporotwa karta PCIe NDR 400 Gb/s

,

Adapter Mellanox RoCE GPUDirect

opis produktu

Adapter InfiniBand NVIDIA ConnectX‑7 HDR 200Gb/s
MCX755106AS‑HEAT | Dwustronna karta Smart NIC PCIe 5.0

Przyspieszaj obciążenia związane ze sztuczną inteligencją, obliczeniami naukowymi i chmurą korporacyjną dzięki rodzinie NVIDIA ConnectX-7. MCX755106AS-HEAT zapewnia przepustowość do200 Gb/s InfiniBand (HDR) i elastyczność Ethernet 200 GbE, silniki obliczeniowe w sieci, zabezpieczenia na poziomie sprzętowym oraz ultra-niskie opóźnienia — wszystko zasilane przez PCIe 5.0.

InfiniBand HDR 200 Gb/s PCIe 5.0 x16 GPUDirect® RDMA i Storage Sprzętowe RoCE / IPsec / TLS / MACsec
Przegląd produktu

Adapter NVIDIA ConnectX-7 VPI MCX755106AS-HEAT to dwustronna, inteligentna karta sieciowa o przepustowości 200 Gb/s, przeznaczona dla klastrów obliczeniowych o wysokiej wydajności (HPC), fabryk AI i centrów danych przedsiębiorstw. Łącząc obsługę protokołów InfiniBand i Ethernet, umożliwia zdalny dostęp do pamięci bezpośredniej (RDMA), GPUDirect Storage oraz zaawansowane silniki obliczeniowe w sieci, takie jak SHARPv3 i offload protokołu rendezvous. Dzięki interfejsowi hosta PCIe 5.0 i akceleratorom bezpieczeństwa opartym na sprzęcie, ten adapter odciąża procesor, zmniejsza całkowity koszt posiadania (TCO) i zapewnia spójną wydajność przy niskich opóźnieniach.

Idealna dla organizacji modernizujących swoją infrastrukturę IT od brzegu sieci po rdzeń, rodzina ConnectX-7 zapewnia programowo definiowane, akcelerowane sprzętowo sieci, przechowywanie danych i zabezpieczenia — umożliwiając skalowalne i bezpieczne rozwiązania przy minimalnym narzucie.

Kluczowe cechy i możliwości
 InfiniBand HDR 200 Gb/s Zgodny ze specyfikacją InfiniBand Trade Association 1.5, obsługuje RDMA, 16 milionów kanałów I/O, MTU do 4 KB.
 Wiele protokołów i prędkości InfiniBand: HDR 200 Gb/s, EDR 100 Gb/s; Ethernet: 200 GbE, 100 GbE, 50 GbE, 25 GbE, 10 GbE.
 Wbudowane akceleratory bezpieczeństwa Sprzętowe IPsec, TLS, MACsec (AES-GCM 128/256-bit) bez obciążenia procesora; bezpieczne uruchamianie i sprzętowe źródło zaufania.
GPUDirect® RDMA i Storage Bezpośrednia komunikacja GPU-do-NIC, GPUDirect Storage, offload NVMe-oF, T10-DIF i szyfrowanie na poziomie blokowym.
Obliczenia w sieci Offload operacji zbiorczych SHARPv3, offload protokołu rendezvous, pamięć pokładowa do buforowania pakietów, ulepszone operacje atomowe.
 Zaawansowane PTP i synchronizacja IEEE 1588v2 Klasa C, dokładność 12 ns, SyncE, PPS wejście/wyjście — idealne dla infrastruktury wrażliwej na czas.
PCIe 5.0 i Multi-Host Do 32 linii, obsługa rozwidlenia PCIe, NVIDIA Multi-Host™ (do 4 hostów), PASID, ATS, ACS, SR-IOV.
ASAP² i akceleracja SDN Przyspieszone przetwarzanie przełączników i pakietów, offload nakładek (VXLAN, GENEVE, NVGRE), programowalny parser, śledzenie połączeń, hierarchiczne QoS.
Technologia: Akceleracja sprzętowa spotyka inteligentne sieci

ConnectX-7 integruje technologię NVIDIA ASAP² (Accelerated Switch and Packet Processing), aby zapewnić programowo definiowane sieci z prędkością linii bez zużywania rdzeni procesora. Wbudowane silniki sprzętowe obsługują szyfrowanie/deszyfrowanie dla IPsec, TLS i MACsec, chroniąc dane w ruchu od brzegu sieci po rdzeń. W przypadku przechowywania danych, wbudowany offload NVMe-oF i GPUDirect Storage umożliwiają bezpośredni ruch danych między pamięcią masową a pamięcią GPU, zmniejszając opóźnienia i maksymalizując przepustowość. Karta obsługuje również zaawansowaną synchronizację czasu (PTP z dokładnością 12 ns) i stronicowanie na żądanie (ODP) dla RDMA bez rejestracji, co czyni ją idealną dla architektur rozproszonych i skoncentrowanych na pamięci.

Typowe wdrożenia
  • Klastry AI i dużych modeli językowych (LLM): Szybkie połączenie dla serwerów GPU, wykorzystujące GPUDirect RDMA i offload operacji zbiorczych SHARP.
  • Obliczenia o wysokiej wydajności (HPC): Sieć InfiniBand HDR 200 Gb/s dla MPI, OpenSHMEM i symulacji naukowych.
  • Centra danych chmury hiperskalowalnej i SDN: RoCEv2, akceleracja nakładek i SR-IOV dla wirtualizacji wielodostępnej.
  • Korporacyjna brama bezpieczeństwa: Wbudowane szyfrowanie MACsec/IPsec dla komunikacji od brzegu sieci do rdzenia z offloadem sprzętowym.
  • Systemy przechowywania danych: Offload NVMe-oF/TCP, rozproszone platformy przechowywania danych wymagające ultra-niskich opóźnień i wysokiego IOPS.
Kompatybilność i ekosystem
✅ Interfejs hosta: PCIe Gen5.0 (do 32 linii), wstecznie kompatybilny z PCIe 4.0/3.0.
✅ Systemy operacyjne: Sterowniki w zestawie dla Linux (RHEL, Ubuntu), Windows Server, VMware ESXi (SR-IOV), Kubernetes (wtyczki CNI).
✅ Protokoły: InfiniBand (HDR/EDR), Ethernet (200 GbE do 10 GbE), RoCE, RoCEv2, iSCSI, NVMe-oF, SRP, iSER, NFS over RDMA, SMB Direct.
✅ Oprogramowanie pośredniczące HPC: NVIDIA HPC-X, UCX, UCC, NCCL, OpenMPI, MVAPICH, MPICH, OpenSHMEM.
✅ Zarządzanie: NC-SI, MCTP over PCIe/SMBus, PLDM, Redfish, SPDM, bezpieczna aktualizacja oprogramowania układowego.
Specyfikacje techniczne
Specyfikacja Szczegóły
Model produktu MCX755106AS-HEAT (NVIDIA ConnectX-7 VPI)
Maksymalna prędkość InfiniBand HDR 200 Gb/s; Ethernet do 200 GbE
Konfiguracja portów Dwustronny (obsługuje warianty 1/2 portu, ten model dwustronny QSFP56)
Interfejs hosta PCIe 5.0 x16 (do 32 linii z rozwidleniem / Multi-Host)
Format PCIe HHHL (Half Height Half Length) – standardowy wspornik
Obsługa protokołów InfiniBand (HDR/EDR) i Ethernet (200 GbE/100 GbE/50 GbE/25 GbE/10 GbE)
RDMA RoCE, RoCEv2, sprzętowy transport niezawodny, DCT, XRC, stronicowanie na żądanie (ODP)
Offload bezpieczeństwa Wbudowany IPsec/TLS/MACsec (AES-GCM 128/256-bit), bezpieczne uruchamianie, szyfrowanie pamięci flash, uwierzytelnianie urządzenia
Offload przechowywania danych NVMe-oF (TCP/Fabrics), NVMe/TCP, T10-DIF, XTS-AES 256/512-bit na poziomie blokowym
Czas i synchronizacja IEEE 1588v2 (PTP), dokładność 12 ns, SyncE (G.8262.1), konfigurowalny PPS, planowanie wyzwalane czasem
Wirtualizacja SR-IOV, akceleracja VirtIO, offload nakładek (VXLAN, GENEVE, NVGRE)
Zaawansowane funkcje GPUDirect RDMA, GPUDirect Storage, offload SHARP, routing adaptacyjny, offload bufora pakietów
Zarządzanie i uruchamianie UEFI, PXE, uruchamianie iSCSI, zdalne uruchamianie InfiniBand, PLDM, Redfish, SPDM, MCTP

*Specyfikacje opierają się na publicznej dokumentacji NVIDIA. Przed złożeniem zamówienia zweryfikuj dokładną konfigurację dla swojego systemu.

Przewodnik wyboru: Który adapter ConnectX-7 pasuje do Twojego obciążenia?
Model Porty / Prędkość Interfejs hosta Główny cel
MCX755106AS-HEAT 2-portowy InfiniBand HDR 200 Gb/s / 200 GbE PCIe 5.0 x16 Klastry AI, HPC, centra danych przedsiębiorstw
MCX75310AAS-NEAT 2-portowy InfiniBand NDR 400 Gb/s PCIe 5.0 x16 Zaawansowane AI, HPC na dużą skalę
Warianty OCP 3.0 SFF / TSF z HDR/NDR PCIe Gen5 Serwery Open Compute Project
Zalety wyboru ConnectX-7 MCX755106AS-HEAT
  • Ultra-niskie opóźnienia i wysoka przepustowość: Sprzętowe RDMA i obliczenia w sieci minimalizują opóźnienia końcowe aplikacji.
  • Zunifikowana sieć: Jeden adapter obsługuje zarówno InfiniBand, jak i Ethernet, upraszczając inwentaryzację i wdrożenie.
  • Przyszłościowy PCIe 5.0: 32 GT/s na linię, dwukrotna przepustowość PCIe 4.0, eliminująca wąskie gardła I/O.
  • Zmniejszony TCO: Odciąża procesor od zadań sieciowych, przechowywania danych i bezpieczeństwa, umożliwiając bardziej efektywne wykorzystanie serwera.
  • Zoptymalizowany pod kątem AI: Natywne GPUDirect i operacje zbiorcze SHARPv3 przyspieszają trenowanie i wnioskowanie modeli.
Serwis i wsparcie — Globalny zasięg od Starsurge

Hong Kong Starsurge Group Co., Limited zapewnia kompleksowe wsparcie, w tym konsultacje przedsprzedażowe, niestandardową konfigurację oprogramowania układowego i wysyłkę na cały świat. Wszystkie adaptery ConnectX-7 objęte są roczną gwarancją (z możliwością przedłużenia) i pomocą techniczną doświadczonych inżynierów sieciowych. Oferujemy wsparcie wielojęzyczne, usługi RMA i szybką logistykę wymiany, aby zminimalizować przestoje.

Najczęściej zadawane pytania
P: Czy MCX755106AS-HEAT jest kompatybilny zarówno z przełącznikami InfiniBand, jak i Ethernet?
Tak, obsługuje VPI (Virtual Protocol Interconnect) dwu-protokołowe. Można go używać w trybie InfiniBand dla maksymalnej wydajności RDMA lub w trybie Ethernet (RoCE) dla środowisk konwergentnych.
P: Czy ten adapter wymaga dodatkowego chłodzenia dla PCIe 5.0?
Standardowy przepływ powietrza w serwerze jest wystarczający, ale wdrożenia o dużej gęstości powinny zapewniać odpowiednie chłodzenie od przodu do tyłu. Zapoznaj się z przewodnikiem projektowania termicznego firmy NVIDIA.
P: Czy mogę używać tej karty w gniazdach PCIe 4.0?
Tak, jest wstecznie kompatybilna z PCIe 4.0/3.0, ale maksymalna przepustowość będzie ograniczona do możliwości gniazda.
P: Czy obsługuje system Windows Server 2022?
Tak, certyfikowane sterowniki są dostępne dla systemów Windows Server 2019/2022, a także dla głównych dystrybucji Linuksa.
P: Jakie jest typowe zużycie energii?
Przy pełnym obciążeniu około 20-28 W, w zależności od prędkości portu i konfiguracji. Proszę potwierdzić w oficjalnej karcie katalogowej.
Środki ostrożności i zgodność
  • Upewnij się, że gniazdo PCIe zapewnia wystarczającą moc (75 W przez gniazdo, brak dodatkowego zasilania wymaganego do standardowego działania).
  • Sprawdź prześwit fizyczny: format HHHL pasuje do większości serwerów 1U/2U; warianty OCP wymagają odpowiedniego gniazda mezaniny.
  • W przypadku wdrożeń RoCE, skonfiguruj DCB (Priority Flow Control) i ECN na przełącznikach dla sieci Ethernet bez strat.
  • Zawsze aktualizuj oprogramowanie układowe do najnowszej stabilnej wersji, aby korzystać z ulepszeń bezpieczeństwa i wydajności.
O firmie Hong Kong Starsurge Group

Założona w 2008 roku, Hong Kong Starsurge Group Co., Limited jest dostawcą sprzętu sieciowego, usług IT i rozwiązań integracji systemów opartych na technologii. Obsługujemy klientów na całym świecie, oferując produkty takie jak przełączniki sieciowe, karty sieciowe, punkty dostępu bezprzewodowego, kontrolery, kable i sprzęt sieciowy. Nasz doświadczony zespół sprzedaży i techniczny wspiera branże takie jak rząd, opieka zdrowotna, produkcja, edukacja, finanse i przedsiębiorstwa. Dzięki podejściu stawiającemu klienta na pierwszym miejscu, Starsurge koncentruje się na niezawodnej jakości, responsywnej obsłudze i dopasowanych rozwiązaniach — pomagając klientom budować wydajną, skalowalną i niezawodną infrastrukturę sieciową.

Dostarczamy rozwiązania IoT, systemy zarządzania siecią, niestandardowe tworzenie oprogramowania, wsparcie wielojęzyczne i globalną dostawę. Wybierz Starsurge jako swojego zaufanego partnera w rozwiązaniach sieciowych NVIDIA.


Chcesz dowiedzieć się więcej o tym produkcie
Jestem zainteresowany Adapter NVIDIA ConnectX-7 VPI – dwuportowy NDR 400 Gb/s, PCIe 5.0, GPUDirect, RoCE – MCX75310AAS-NEAT czy mógłbyś przesłać mi więcej informacji, takich jak rodzaj, rozmiar, ilość, materiał itp.
Dzięki!
Czekam na Twoją odpowiedź.