Ordinateurs

Samsung intègre le processeur 1.2TFLOP AI dans HBM2 pour augmenter l’efficacité et la vitesse

Ce site peut gagner des commissions d’affiliation à partir des liens sur cette page. Conditions d’utilisation.

Samsung a annoncé la disponibilité d’une nouvelle variante Aquabolt. Contrairement au saut de vitesse d’horloge ou à l’amélioration de capacité typique auquel vous vous attendez, ce nouveau HBM-PIM peut effectuer des calculs directement sur la puce qui seraient autrement gérés par un CPU, un GPU ou un FPGA connecté.

PIM signifie Processor-in-Memory, et c’est une réalisation remarquable pour Samsung de réussir cela. Les processeurs consomment actuellement une énorme quantité d’énergie en déplaçant les données d’un endroit à un autre. Le déplacement des données prend du temps et coûte de l’énergie. Moins un processeur passe de temps à déplacer des données (ou à attendre qu’une autre puce fournisse des données), plus il peut passer de temps à effectuer un travail de calcul utile.

Les développeurs de processeurs ont contourné ce problème pendant des années en déployant différents niveaux de cache et en intégrant des fonctionnalités qui vivaient autrefois dans leur propre socket. Les FPU et les contrôleurs de mémoire étaient autrefois montés sur la carte mère plutôt que directement intégrés au CPU. Les chiplets agissent en fait directement contre cette tendance à l’agrégation, c’est pourquoi AMD a dû veiller à ce que sa conception Zen 2 et Zen 3 puisse améliorer les performances globales tout en désagrégeant la matrice du processeur.

Si rapprocher le processeur et la mémoire est une bonne chose, construire des éléments de traitement directement dans la mémoire serait encore mieux. Historiquement, cela a été difficile car la logique et la DRAM sont généralement construites très différemment. Samsung a apparemment résolu ce problème et a tiré parti des capacités d’empilement de matrices de HBM pour maintenir une densité de mémoire disponible suffisamment élevée pour intéresser les clients. Samsung affirme qu’il peut fournir une amélioration des performances de plus de 2 fois avec une réduction de puissance de 70 % en même temps, sans aucune modification matérielle ou logicielle requise. La société s’attend à ce que la validation soit terminée d’ici la fin du premier semestre de cette année.

Image par THG

THG a quelques détails à propos de la nouvelle solution HBM-PIM, glanée lors de la présentation ISSCC de Samsung cette semaine. La nouvelle puce intègre une unité de calcul programmable (PCU) cadencée à seulement 300 MHz. L’hôte contrôle le PCU via des commandes de mémoire conventionnelles et peut l’utiliser pour effectuer des calculs FP16 directement dans la DRAM. Le HBM lui-même peut fonctionner soit en tant que RAM normale, soit en mode FIM (Function-in-Memory).

Psssssst :  La mise à jour macOS 11.4 d'Apple a corrigé l'usure du SSD sur les Mac M1

L’inclusion du PCU réduit la capacité totale de mémoire disponible, c’est pourquoi la FIMDRAM (c’est un autre terme que Samsung utilise pour cette solution) n’offre que 6 Go de capacité par pile au lieu des 8 Go que vous obtiendriez avec HBM2 standard. Toutes les solutions présentées sont construites sur un processus DRAM de 20 nm.

Image par THG

L’article de Samsung décrit la conception comme « Function-In Memory DRAM (FIMDRAM) qui intègre un moteur de données multiples à instruction unique de 16 largeurs dans les banques de mémoire et qui exploite le parallélisme au niveau de la banque pour fournir une bande passante de traitement 4 fois supérieure à celle d’un off- solution de mémoire à puce.

Image par THG.

Une question à laquelle Samsung n’a pas répondu est de savoir comment il traite la dissipation thermique, une des principales raisons pour lesquelles il a été historiquement difficile de construire une logique de traitement à l’intérieur de la DRAM. Cela pourrait être doublement difficile avec HBM, dans lequel chaque couche est empilée sur une autre. La vitesse d’horloge relativement faible sur le PIM peut être un moyen de garder la DRAM au frais.

Nous n’avons pas beaucoup vu HBM déployé pour les processeurs, malgré Hades Canyon, mais plusieurs GPU haut de gamme de Nvidia et AMD ont exploité HBM/HBM2 comme mémoire principale. Il n’est pas clair si un GPU conventionnel bénéficierait de cette capacité de déchargement, ou comment une telle fonctionnalité serait intégrée dans la capacité de calcul impressionnante du GPU. Si Samsung peut offrir les améliorations de performances et de puissance qu’il prétend à une gamme de clients, nous verrons sans aucun doute ce nouveau HBM-PIM apparaître dans les produits d’ici un an ou deux. Une augmentation des performances multipliée par 2 associée à une diminution de la consommation d’énergie de 70% est le type de transitions de nœuds de lithographie d’amélioration à l’ancienne utilisées pour fournir régulièrement. Il n’est pas clair si le PIM de Samsung sera spécifiquement pris en compte, mais toute promesse d’une amélioration classique du nœud complet attirera l’attention, si rien d’autre.

Psssssst :  Alder Lake d'Intel commence à grignoter la part de marché d'AMD

Maintenant lis:

Bouton retour en haut de la page