in

HBM2 avec AI: la RAM spéciale de Samsung apporte le traitement en mémoire

Image: Samsung

Basé sur le HBM2 classique (sans e), Samsung a développé une adaptation avec une unité de contrôle programmable, qui est principalement destinée à l’accélération AI et donc au marché correspondant. Il y a de gros bonus d’une part, mais des compromis doivent être faits d’autre part.

Samsung décrit la technologie comme « Function-In-Memory DRAM » (FIMDRAM) et le produit fini comme HBM-PIM (Processing-In-Memory). La principale nouveauté n’est pas seulement une unité de calcul programmable (PCU), mais également 32 pièces par matrice HBM. Cela permet à la puce de mémoire d’effectuer des opérations FP16 en tant que deuxième option en plus du mode mémoire classique en utilisant des commandes DRAM normales.

Ce faisant, le système vise naturellement les calculs qui dépendent fortement de la bande passante mémoire ou peuvent en bénéficier. Samsung appelle «inférence» et reconnaissance vocale comme domaines de responsabilité. Les PCU sont librement programmables, similaires à un FPGA, mais avec un jeu d’instructions considérablement réduit. Ils sont actuellement cadencés à 300 MHz, ce qui se traduit par une puissance de calcul de 1,2 TFLOPS par puce HBM PIM.

Puce HBM avec PCU

Puce HBM avec PCU

Options PCU dans HBM

Options PCU dans HBM

Options PCU dans HBM

Options PCU dans HBM

Deux fois plus de performances avec 70% d’énergie en moins

Si un GPU fonctionne sur une carte accélératrice avec le nouveau HBM-PIM, plus du double de la puissance devrait être disponible et en même temps le besoin en énergie devrait être réduit de 71%, montre Samsung avec l’exemple de Deep Speech 2. L’énergie L’économie est probablement principalement due à la bonne connexion mémoire et à la parallélisation à des fréquences d’horloge faibles, un GPU à faible cadence avec la même connexion mémoire fournirait probablement des résultats similaires.

Deux fois plus rapide et 70% moins d'énergie
Deux fois plus rapide et 70% moins d’énergie (Image: Samsung via THG)

Cependant, les PCU occupent 50% de la capacité des matrices et la mémoire HBM, qui est en fait de 8 gigabits, ne devient plus que 4 gigabits. En raison de la pile adaptée, la puce finale fait toujours 6 gigaoctets, le HBM2 classique est en route avec 8 Go. Parce que Samsung est un peu délicat ici: vous mélangez quatre matrices HBM classiques et quatre avec HBM, PCU compris. Certaines questions, telles que le refroidissement, n’ont pas encore été clarifiées; les hautes performances des nouvelles puces devraient, comme avec le HBM normal, entraîner des températures élevées en conséquence.

Quatre matrices HBM normales plus quatre HBM avec PCU forment une puce

Quatre matrices HBM normales plus quatre HBM avec PCU forment une puce

Comparaison des puces mémoire

Comparaison des puces mémoire

Testez le ballon aujourd’hui, avec HBM3 dans le futur

HBM-PIM basé sur HBM2 devrait principalement être un ballon de test de Samsung dans cette phase. Samsung a expliqué qu’il travaillait avec les fabricants et testait les premiers accélérateurs d’IA. Le développement ultérieur avec HBM3 est déjà sur la feuille de route, mais le fabricant n’a pas encore donné de date pour cela. Compte tenu du très long développement de HBM3 et des premiers rapports sur celui-ci il y a plus de cinq ans, il faudra probablement encore quelques années avant que HBM3 ne devienne disponible avec traitement en mémoire.

HBM2 avec AI: la RAM spéciale de Samsung apporte le traitement en mémoire 1
Partager cet article
Robin Vigneron

Par Robin Vigneron

Robin est un passionné de nouvelles technologies et il n'hésites pas à creuser le web pour vous trouver les meilleurs bons plans et astuce High-Tech !

Carnet Carbon: Le Vaio Z contient Tiger Lake-H35 pour 3579 dollars US 17

Carnet Carbon: Le Vaio Z contient Tiger Lake-H35 pour 3579 dollars US

5G autonome: Deutsche Telekom teste un réseau 5G pur sans ancrage LTE 18

5G autonome: Deutsche Telekom teste un réseau 5G pur sans ancrage LTE