in

Instinct MI100: la carte FP32 / FP64 la plus rapide vient d’AMD

Avec l’Instinct MI100, AMD s’attaque à l’A100 de Nvidia dans le segment HPC. Le fabricant se concentre principalement sur les FP32 et FP64, la nouvelle carte professionnelle de FP64 étant la solution la plus rapide au monde. Les comparaisons avec la génération d’amplis de Nvidia ne sont toujours pas faciles, car Nvidia recherche ses atouts dans le domaine Int8.

AMD va dans l’autre sens avec le nouveau monstre. Avec plus de 11,5 TFLOP dans les environnements FP64, il offre près de 20% de performances en plus que l’A100 de Nvidia avec 9,7 TFLOPS, dans les applications FP32, la valeur double comme d’habitude, le nouvel Instinct MI100 d’AMD atteint 23,1 TFLOP, tandis que le A100 de Nvidia se tient debout. à 19,5 TFLOP.

Mais à partir d’ici au plus tard, l’image devient floue, car il existe maintenant divers cas et environnements spéciaux. Par exemple, AMD spécifie FP32 (Matrix) avec 46,1 TFLOP, tandis que Nvidia utilise TF32 (comme nouveau standard pour les opérations FP32) avec 160 TFLOPS. Si cela passe à INT4 / INT8, AMD se situe à 184,6 TOPS, Nvidia avec leurs cœurs de tenseur spéciaux est massivement à l’avant avec 624 TOPS. Et si l’accélération de parcimonie est utilisée, les chiffres de Nvidia doublent à nouveau.

Au final, les MI100 et A100 sont rapidement deux solutions pour des marchés différents.

AMD Instinct MI100

AMD Instinct MI100

AMD Instinct MI100

AMD Instinct MI100

AMD Instinct MI100

AMD Instinct MI100

AMD Instinct MI100

Pour le MI100, AMD s’appuie à nouveau sur l’architecture Vega, qui désormais fonctionne sous CDNA. Cela rend la scission complètement officielle, les solutions de jeu et les cartes graphiques professionnelles doivent être développées séparément à l’avenir. Bien entendu, le savoir-faire respectif de l’autre est utilisé, mais adapté en fonction du marché visé.

L’ADNC est une solution de calcul pure et élimine complètement le soi-disant matériel à fonction fixe, n’a donc pas d’unités vidéo et donc pas de sorties graphiques. L’accélération matérielle pour le contenu vidéo reste cependant, car elle est parfois également nécessaire dans l’environnement HPC.

Contrairement à la famille AMD RDNA orientée graphique, la famille AMD CDNA supprime tout le matériel à fonction fixe conçu pour accélérer les tâches graphiques telles que la rastérisation, la tessellation, les caches graphiques, le mélange et même le moteur d’affichage. Cependant, la famille AMD CDNA conserve une logique dédiée pour le décodage HEVC, H.264 et VP9 qui est parfois utilisée pour les charges de travail de calcul qui fonctionnent sur des données multimédias, telles que l’apprentissage automatique pour la détection d’objets. La suppression du matériel graphique à fonction fixe libère de l’espace et de l’énergie pour investir dans des unités de calcul supplémentaires, ce qui améliore les performances et l’efficacité.

Schéma fonctionnel AMD MI100

Schéma fonctionnel AMD MI100

AMD MI100 - Unité de calcul en détail

AMD MI100 – Unité de calcul en détail

AMD Instinct MI100: quatre puces HBM flanquent le GPU

AMD Instinct MI100: quatre puces HBM flanquent le GPU

Un plein de 120 CU et donc 7 680 ALU sont présents sur la puce, qui est pilotée avec une horloge de 1 502 MHz. Quatre puces HBM2 de 8 Go sont connectées qui cadencent à 1,2 GHz et offrent ainsi une bande passante de 1,2 To / s. Ce serait suffisant par rapport à la précédente solution ampère de Nvidia, mais ils l’ont encore complétée aujourd’hui avec un produit phare de 80 Go grâce à HBM2e. Là, la bande passante est augmentée à plus de 2 To par seconde.

La communication avec le monde extérieur de la carte TDP 300 watts à refroidissement passif s’effectue via l’interface PCI Express selon la norme 4.0. Trois autres cartes MI100 du même système sont connectées via Infinity Fabrik Link.

AMD Instinct MI100 dans un quatuor

AMD Instinct MI100 dans un quatuor

AMD Instinct MI100 dans un double quatuor dans le serveur

AMD Instinct MI100 dans un double quatuor dans le serveur

Prix ​​et disponibilité

Au final, le prix devrait également convaincre les clients du nouvel AMD Instinct MI100. Le constructeur le précise à 6 400 dollars américains, tandis qu’AMD explique que l’A100 de Nvidia coûte entre 9 800 et 11 300 dollars américains, à condition qu’il soit acheté en magasin. Nvidia ne nomme aucun prix officiel.

Les nouvelles cartes HPC doivent être installées sur des serveurs avec AMD Epyc ainsi que Intel Xeon de Dell, Gigabyte, HPE et Supermicro, entre autres. La disponibilité devrait être garantie en novembre.

ComputerBase a reçu des informations sur cet article d’AMD sous NDA. La seule exigence était la date de publication la plus proche possible.

Partager cet article

Robin Vigneron

Par Robin Vigneron

Robin est un passionné de nouvelles technologies et il n'hésites pas à creuser le web pour vous trouver les meilleurs bons plans et astuce High-Tech !

AMD Epyc Gen3: Milan avec l'architecture Zen 3 démarre au premier trimestre 2021 13

AMD Epyc Gen3: Milan avec l’architecture Zen 3 démarre au premier trimestre 2021

Sharkoon RGB Slider: la lumière colorée et le verre coûtent moins de 40 euros 14

Sharkoon RGB Slider: la lumière colorée et le verre coûtent moins de 40 euros