Porównanie sieci superkomputerów: InfiniBand vs. Ethernet

October 12, 2025

najnowsze wiadomości o firmie Porównanie sieci superkomputerów: InfiniBand vs. Ethernet
Konfrontacja sieci obliczeniowych o wysokiej wydajności: InfiniBand vs. Ethernet dla nowoczesnego HPC

Austin, Teksas¢ KrajobrazSieci HPCDziałania w zakresie technologii InfiniBand i Ethernet nadal nasilają się, co ma istotne konsekwencje dla badań nad sztuczną inteligencją,symulacja naukowaW tym badaniu analizowane są kluczowe różnice techniczne wInfiniBand vs EthernetDziałalność technologii superkomputerów w Europie

Rozdzielność architektoniczna: dwa podejścia do sieci HPC

Podstawą nowoczesnych superkomputerów jest kluczowy wybór technologii połączeń.Sieci HPCEthernet, w szczególności z ulepszeniami z protokołu RoCEv2 (RDMA over Converged Ethernet), wykorzystuje architekturę tkaniny bez strat z natywnymi zdalnymi możliwościami bezpośredniego dostępu do pamięci (RDMA).Zmienił się w celu podważenia dominacji InfiniBand w środowiskach o wysokiej wydajności.Podstawowe różnice w filozofii projektowania tworzą wyraźne cechy wydajności, które bezpośrednio wpływają na wydajność i skalowalność aplikacji.

Wskaźniki wydajności: opóźnienie, przepustowość i skalowalność

Przy ocenieInfiniBand vs EthernetObecna generacja technologii InfiniBand HDR, zwłaszcza zMellanox(obecnie NVIDIA Networking), wykazuje znaczące zalety w aplikacjach wrażliwych na opóźnienie.Poniższa tabela porównuje kluczowe wskaźniki wydajności oparte na niezależnych testach i danych o wdrożeniu superkomputerów TOP500:

Metryka wydajności InfiniBand HDR Ethernet (400GbE) Zalety
Przesyłanie opóźnienia 90 ns 250 ns 64% niższa (InfiniBand)
Częstotliwość wysyłania wiadomości 200 milionów wiadomości SMS/s 85 milionów wiadomości SMS/s 135% wyższa (InfiniBand)
Efektywność MPI (10k węzłów) 94% 78% 16% wyższa (InfiniBand)
Wydajność energetyczna (na Gbps) 10,8 W 20,5 W 28% lepsze (InfiniBand)
Innowacje Mellanox: przywództwo w InfiniBand

Technologiczne przywództwo InfiniBand wSieci HPCWskaźniki przestrzeniMellanoxIch podejście od końca do końca obejmuje adaptacyjne routing, ostre kontroli zatłoczenia i możliwości obliczeniowe w sieci, które jeszcze bardziej przyspieszają zbiorowe operacje.w szczególności protokołu skalowalnej hierarchicznej agregacji i redukcji (SHARP), wykazać, w jaki sposób inteligentne sieci mogą obniżyć obciążenie zadań obliczeniowych z procesora, zapewniając korzyści wydajnościowe niemożliwe do osiągnięcia przy standardowych podejściach Ethernet.

Ewolucja ethernetu: wypełnianie luki dzięki zjednoczonym ulepszeniom

Ethernet poczynił znaczący postęp w rozwiązywaniu swoich historycznych ograniczeń dla HPC.Zwiększone zarządzanie ruchem zwiększyło jego przydatność do obciążeń roboczych RDMAWsparcie ekosystemu dla sieci Ethernet, w tym szersza kompatybilność z dostawcami i znane narzędzia zarządzania,przedstawia przekonujący argument dla niektórych zastosowań, w których absolutny szczyt wydajności nie jest jedynym czynnikiem decydującym.

Zważyń strategicznych dla infrastruktury HPC

Wybór między InfiniBand a Ethernet wykracza poza surowe metryki wydajności.InfiniBand zazwyczaj zapewnia lepszą wydajność dla ściśle połączonych aplikacji, takich jak obliczeniowa dynamika płynów, modelowanie pogody i szkolenie AI, gdzie mikrosekundy mają znaczenie.Ethernet oferuje większą elastyczność dla środowisk heterogenicznych i zbieżnej infrastruktury obsługującej zarówno obciążenia HPC, jak i przedsiębiorstwaCałkowity koszt posiadania, wiedza specjalistyczna pracowników oraz długoterminowe dostosowanie planu działania muszą mieć wpływ na decyzję dotyczącą infrastruktury.

Wniosek: dopasowanie technologii do wymagań obciążenia pracą

W sprawieInfiniBand vs EthernetRozmowa wSieci HPCInfiniBand utrzymuje pozycję lidera w zakresie wydajności dla najbardziej wymagających zastosowań superkomputerów.Ethernet nadal ewoluuje jako realna alternatywa dla wielu przypadków zastosowańDecyzja opiera się ostatecznie na specyficznych wymaganiach aplikacji, progach wydajności i strategicznych celach infrastrukturalnych.