in

Nvidia Ampere: le GPU A100 80 Go passe à DGX Station et DGX / HGX A100

Après l’annonce du «GPU A100 80 Go», Nvidia suit des systèmes correctement équipés. Pour les data scientists, la station de travail DGX Station A100 est conçue avec quatre GPU Ampere. Dans le centre de données, cependant, de nouvelles générations de DGX A100 directement de Nvidia et HGX A100 de partenaires sont utilisées.

En passant de HBM2 à HBM2e, Nvidia peut pour la première fois proposer le GPU A100 dans une configuration avec 80 Go de mémoire, ce qui atteint un débit mémoire d’un peu plus de 2 To / s. Nvidia met non seulement cette puissance de calcul à disposition dans le data center, mais désormais aussi sur le bureau, où un produit correspondant, la DGX Station A100, sera proposé ce trimestre. Nvidia n’a pas encore nommé de prix, mais le prédécesseur avec quatre Tesla V100 était de 49 900 $ (net) pour le premier système et de 69 000 $ pour chaque système supplémentaire.

Station de travail de bureau avec quatre A100 80 Go

Lors de la présentation de l’architecture Ampère en mai, Nvidia n’avait pas encore présenté de station DGX correctement équipée et s’était concentrée sur l’utilisation dans le centre de données. En attendant, Nvidia propose également le GPU A100 en tant que carte plug-in PCIe unique pour les serveurs. En revanche, quatre des nouveaux «GPU A100 80 Go» sont installés dans la nouvelle station de travail, de sorte qu’un total de 320 Go de mémoire est disponible. Ceux-ci sont interconnectés avec la troisième génération de NVLink avec une bande passante bidirectionnelle de 200 Go / s entre chaque paire de GPU. Les GPU peuvent être divisés en un total de 28 instances (7 par GPU), chacune avec 10 Go de mémoire allouée. Alternativement, la station de travail est disponible avec la version 40 Go présentée en mai.

Équipement de la DGX Station A100 (Image: Nvidia)

AMD livre à nouveau le CPU

Le système est également équipé d’un AMD Epyc avec 64 cœurs comme CPU, jusqu’à 512 Go de RAM, un SSD NVMe de 1,92 To pour le système d’exploitation et jusqu’à 7,68 To de stockage SSD avec connexion U.2 comme Cache de données équipé. Pour la connectivité dans le réseau, deux 10GbE et un Gigabit Ethernet sont disponibles spécialement pour l’accès à distance. L’image est sortie via un «adaptateur d’affichage DGX» spécial avec quatre Mini DisplayPort prenant en charge la résolution 4K.

La DGX Station A100 est refroidie par un refroidissement par compresseur fermé, comparable à celui d’un réfrigérateur, qui est responsable du CPU et des GPU.

Le DGX A100 obtient une mise à niveau

En outre, Nvidia propose désormais le serveur KI DGX A100 avec une nouvelle configuration de huit «GPU A100 80 Go», qui est également proposé en tant que mise à niveau pour les clients existants de la variante huit 40 Go. Jusqu’à présent, il n’y a pas de prix pour le nouveau serveur ou la mise à niveau, pour l’ancien DGX A100 Nvidia réclame 199 000 dollars américains avant taxes.

CAMBRIDGE-1 avec GPU de 80 ampères

À partir du DGX A100, le soi-disant DGX SuperPOD peut être créé en tant que serveur clé en main directement à partir de Nvidia dans des configurations de 20 systèmes DGX ou plus. Le SuperPOD, qui a été introduit en mai, peut désormais également être équipé du serveur DGX mis à jour avec un GPU de 80 Go. La première utilisation se fera au Royaume-Uni dans le supercalculateur CAMBRIDGE-1, qui est équipé de 80 DGX A100 et 50 To de mémoire GPU, 400 PetaFLOPS AI performance, 20 To / s via Mellanox InfiniBand et 2 PB de mémoire NVMe avec une consommation de Offres de 500 kW.

DGX A100 est mis à niveau à 640 Go

DGX A100 est mis à niveau à 640 Go

GPU A100 80 Go également pour le SuperPOD

GPU A100 80 Go également pour le SuperPOD

80 DGX A100 sont intégrés au CAMBRIDGE-1

80 DGX A100 sont intégrés au CAMBRIDGE-1

Interfaces réseau Nvidia Mellanox avec 400 Gbit / s

Interfaces réseau Nvidia Mellanox avec 400 Gbit / s

400 Gbit / s avec les nouveaux adaptateurs Mellanox

Pour des vitesses plus élevées dans le réseau du centre de données, Nvidia a également présenté le Mellanox 400G InfiniBand, qui fonctionne à 400 Gbit / s. En plus du nouvel adaptateur réseau, il existe une unité de traitement de données (DPU) mise à jour avec des cœurs ARM supplémentaires, qui peuvent désormais également gérer 400 Gbit / s, ainsi qu’un commutateur associé avec 64 ports 400 Gbit / s et 128 ports 200 Gbit / s. Avec les câbles optiques et les câbles en cuivre (actifs) associés, Nvidia / Mellanox fournit les autres composants nécessaires.

HGX A100 suivra dans la seconde moitié de 2021

Une nouvelle édition du HGX A100 est prévue pour le second semestre 2021. HGX A100 est la plate-forme de Nvidia avec laquelle des partenaires tels que Atos, Dell, Fujitsu, Gigabyte, Hewlett Packard Enterprise, Inspur, Lenovo, Quanta et Supermicro peuvent offrir leurs propres serveurs dans des configurations avec quatre ou huit «GPU A100 80 Go» similaires au DGX A100 .

ComputerBase a reçu des informations sur cet article de Nvidia sous NDA. La seule exigence était la date de publication la plus proche possible.

Partager cet article

Robin Vigneron

Par Robin Vigneron

Robin est un passionné de nouvelles technologies et il n'hésites pas à creuser le web pour vous trouver les meilleurs bons plans et astuce High-Tech !

NAS à 5 baies de TerraMaster: le F5-422 moins cher repose sur un double LAN et un SoC à deux cœurs 13

NAS à 5 baies de TerraMaster: le F5-422 moins cher repose sur un double LAN et un SoC à deux cœurs

Ice Lake-SP: le nouveau processeur de serveur d'Intel peut battre les 64 cœurs d'AMD 14

Ice Lake-SP: le nouveau processeur de serveur d’Intel peut battre les 64 cœurs d’AMD