Quantcast
Channel: Next - Flux Complet
Viewing all articles
Browse latest Browse all 2363

☕️ GPU Blackwell : les GB200 NVL72 de NVIDIA débarquent dans les datacenters

$
0
0

Cela fait presque un an que NVIDIA a présenté sa nouvelle architecture Blackwell pour les GPU. Elle propose, entre autres nouveautés, des Tansformer Engine de seconde génération capable de prendre en charge la précision FP4 et FP6.

NVIDIA propose aussi des Compute Node comprenant chacun deux GB200 (puces Grace Blackwell Superchip) avec 2x CPU Grace et 4x GPU B200 (chaque GB200 intègre un CPU avec 72 cœurs Arm Neoverse V2 et deux GPU). NVIDIA empile ensuite jusqu’à 18 Compute Node pour former des configurations GB200 de type NVL36 ou NVL72. Avec la version NVL 72, NVIDIA propose ainsi pas moins de « 36 CPU Grace et 72 GPU Blackwell au sein d’une configuration rackable ».

En l’espace de quelques jours, plusieurs annonces se sont succédé. Au début du mois, CoreWeave ouvrait le bal et lançait « les premières instances cloud basées sur GB200 NVL72 », selon NVIDIA. Quelques jours plus tôt, la même CoreWeave annonçait « son intention de livrer à IBM l’un des premiers supercalculateurs IA NVIDIA GB200, avec des systèmes NVIDIA GB200 NVL72 ».

Cette semaine, c’était au tour de HPE d’annoncer « la livraison de son premier système NVIDIA Grace Blackwell », sans plus de précisions (notamment le nom du client). Remontons de nouveau à début février, quand ASUS affirmait qu’elle était prête à « accélérer la production » de son AI POD avec des GB200 NVL72. Les expéditions sont prévues à partir du mois de mars.

Tout ne serait pas rose pour NVIDIA, selon The Information, repris par Reuters. « Les principaux clients retardent les commandes des racks « Blackwell » en raison de problèmes de surchauffe », affirment nos confrères. Ces derniers ajoutent que cela concernerait des commandes d’Amazon, Google, Meta et Microsoft, avec des montants de plus de 10 milliards de dollars à chaque fois.

Le 31 janvier, Sam Altam affirmait que les premiers systèmes GB200 NVL72 « fonctionnaient désormais dans Azure pour OpenAI ». Au même moment, Google Cloud annonçait l’arrivée de Blackwell en preview dans les instances A4 avec HGX B200. Google a déjà indiqué que le GB200 NVL72 serait aussi proposé en ce début d’année.

« Le HGX B200 est conçu pour les charges de travail d’IA, d’analyse de données et HPC les plus exigeantes, tandis que le GB200 NVL72 permet l’inférence de grands modèles de langage en temps réel et des performances de haute volée pour la formation pour des modèles avec plusieurs milliards de paramètres », expliquait le géant du Net.


Viewing all articles
Browse latest Browse all 2363

Trending Articles