Nvidia lijmt AI-datacenters op verschillende locaties samen tot één cluster

Nvidia lijmt AI-datacenters op verschillende locaties samen tot één cluster

Nvidia introduceert Spectrum-XGS Ethernet om meerdere, verspreide datacenters als één AI-omgeving te laten samenwerken.

Nvidia wil verspreide datacenters koppelen tot enorme clusters. Daartoe kondigt het op de Hot Chips-beurs in de VS Nvidia Spectrum-XGS Ethernet aan.

Over locaties heen

Spectrum-XGS voegt een scale-across-laag toe aan de bestaande Spectrum-X-architectuur. Datacenters op verschillende locaties, gekoppeld via Spectrum-XGS, functioneren zoals één cluster. Nvidia noemt afstandsafhankelijke congestiebeheersing, precieze latentiesturing en end-to-end-telemetrie als kernfuncties. De technologie moeten collectieve GPU-communicatie versnellen en prestaties voorspelbaar houden over langere afstanden.

Spectrum-XGS is ingebed in het bredere Spectrum-X-platform met Spectrum-X-switches en ConnectX-8 SuperNICs. Het platform mikt op hogere bandbreedtedichtheid en lagere latentie dan standaard Ethernet in multi-tenant AI-omgevingen. Volgens Nvidia verdubbelen de verbeteringen bijna de prestaties van NCCL-communicatie over meerdere nodes en locaties. Spectrum-XGS is per direct beschikbaar binnen het Spectrum-X-portfolio.

Evolutie van Spectrum

Spectrum-XGS Ethernet bouwt voort op het in 2023 geïntroduceerde Spectrum-X, Ethernet afgestemd op AI-verkeer. De fotonische innovaties uit Spectrum-X Photonics en Quantum-X Photonics leggen de basis binnen één datacenter-locatie. Co-packaged optics in de switches leveren hoge poortsnelheden en betere efficiëntie. Dat vergroot bandbreedte en signaalintegriteit voor AI-clusters met veel GPU’s.

Spectrum-XGS voegt daar scale-across-functionaliteit aan toe over meerdere locaties. Het resultaat moet één AI-cluster zijn, gespreid over meerdere locaties. Nvidia laat weten dat er al klanten klaarstaan om datacenters met de technologie aan elkaar te koppelen.