Ordinateurs

Nvidia dévoile le GPU Ampere A100 80 Go avec 2 To/s de bande passante mémoire

Ce site peut gagner des commissions d’affiliation à partir des liens sur cette page. Conditions d’utilisation.

Ampere n’a été lancé qu’il y a six mois, mais Nvidia met à niveau la version haut de gamme de son GPU pour offrir encore plus de VRAM et beaucoup plus de bande passante. L’A100 (80 Go) conserve la plupart des spécifications de l’A100 (40 Go) : une horloge de suralimentation de 1,41 GHz, un bus mémoire de 5 120 bits, 19,5 TFLOP de simple précision, la prise en charge de NVLink 3 et son TDP de 400 W sont tous inchangés par rapport à l’itération précédente. du GPU. Les deux puces disposent également de 6 192 cœurs GPU.

Ce qui est différent, c’est la quantité maximale de VRAM (80 Go, contre 40 Go) et la bande passante mémoire totale (3,2 Gbps HBMe, au lieu de 2,4 Gbps HBMe). La bande passante sur l’ensemble de la baie HBM2 est de 2 To/s, contre 1,6 To/s auparavant. Il s’agit d’une mise à niveau importante – il n’aurait pas été inhabituel pour Nvidia de réduire la bande passante mémoire de la baie afin de doubler la capacité. Au lieu de cela, la société a augmenté la bande passante totale de 1,25x.

La taille de ces accélérations implique que ces charges de travail étaient soit liées à la capacité, soit à la bande passante mémoire sur l’A100 de 40 Go.

L’A100 comporte six piles de HBM2, comme vous pouvez le voir dans l’image ci-dessus, mais Nvidia désactive l’une des piles pour améliorer le rendement. Les cinq piles restantes ont chacune un bus mémoire de 1024 bits, d’où provient le chiffre du bus de 5120 bits. Nvidia a remplacé le HBM2 sur l’A100 40 Go par HBM2E, ce qui lui a permis de mettre à niveau considérablement les spécifications de base.

La version 80 Go devrait profiter aux charges de travail qui sont à la fois limitées en capacité et liées à la bande passante mémoire. Comme la variante 40 Go, l’A100 80 Go peut prendre en charge jusqu’à 7 instances matérielles avec jusqu’à 10 Go de VRAM dédiées à chacune.

Psssssst :  Comment télécharger Windows 10 gratuitement - High-teK.ca

Nvidia vend ces GPU dans des cartes mezzanine qui devraient être déployées dans une configuration HGX ou DGX. Les clients qui souhaitent un GPU A100 individuel dans une carte PCIe sont toujours limités à la variante de 40 Go, bien que cela puisse changer à l’avenir.

Le prix d’un serveur rempli de cartes A100 de 80 Go va être fermement dans le territoire « si vous devez demander, vous ne pouvez pas vous le permettre ». Mais il y a une raison pour laquelle les entreprises à la pointe du développement de l’IA pourraient payer autant. La complexité du modèle GPU est limitée par la mémoire embarquée. Si vous devez toucher à la mémoire système principale, les performances globales s’effondreront – les processeurs peuvent avoir le type de capacités DRAM que les chercheurs en IA aimeraient pour leurs modèles, mais ils ne peuvent pas fournir la bande passante nécessaire (et les processeurs ne sont pas parfaits pour la modélisation neuronale). réseaux dans tous les cas). L’extension du pool total de VRAM embarquée peut permettre aux développeurs d’augmenter la complexité absolue du modèle qu’ils forment ou de résoudre des problèmes qui ne pouvaient auparavant pas tenir dans un pool de VRAM de 40 Go.

Maintenant lis:

Bouton retour en haut de la page