Ordinateurs

Nvidia dévoile son premier GPU basé sur l’ampère, relève la barre pour l’IA des centres de données

Ce site peut gagner des commissions d’affiliation à partir des liens sur cette page. Conditions d’utilisation.

Au lieu de l’extravagance de plusieurs jours qui est normalement le GTC phare de Nvidia à San Jose, la société a déployé une série de discussions et d’annonces en ligne. Même le discours d’ouverture est devenu virtuel, le discours populaire et traditionnellement décousu de Jensen étant transféré sur YouTube. Pour être honnête, il est en fait plus facile de couvrir les keynotes d’un livestream dans un bureau de toute façon, bien que toutes les démonstrations pratiques et la socialisation qui accompagnent la conférence en personne me manquent.

Dans tous les cas, l’événement de cette année a présenté une suite impressionnante d’annonces autour de la nouvelle architecture Ampère de Nividia pour le centre de données et l’IA en périphérie, à commencer par le GPU à architecture A100 Ampère.

Carte graphique Nvidia A100

Nvidia A100 : la plus grande puce 7 nm au monde avec 54 milliards de transistors

Premier GPU basé sur Ampère de Nvidia, son nouvel A100 est également la puce 7 nm la plus grande et la plus complexe au monde, avec un nombre impressionnant de 54 milliards de transistors. Nvidia revendique des gains de performances allant jusqu’à 20 fois par rapport aux modèles Volta précédents. L’A100 n’est pas seulement destiné à l’IA, car Nvidia pense qu’il s’agit d’un appareil GPGPU idéal pour les applications telles que l’analyse de données, le calcul scientifique et les graphiques en nuage. Pour les tâches plus légères telles que l’inférence, un seul A100 peut être partitionné en sept tranches maximum pour exécuter plusieurs charges en parallèle. Inversement, NVLink permet à plusieurs A100 d’être étroitement couplés.

Tous les principaux fournisseurs de cloud ont annoncé leur intention de prendre en charge l’A100, notamment Google, Amazon, Microsoft et Baidu. Microsoft prévoit déjà de repousser les limites de sa génération de langage naturel Turing en passant aux A100 pour la formation.

Psssssst :  Windows 11 sera lancé le 5 octobre, mais uniquement pour certaines machines

Le TF32 innovant vise à optimiser les performances de l’IA

Parallèlement à l’A100, Nvidia déploie un nouveau type de virgule flottante simple précision – TF32 – pour les cœurs Tensor de l’A100. Il s’agit d’un hybride de FP16 et FP32 qui vise à conserver certains des avantages de performances du passage au FP16 sans perdre autant de précision. Les nouveaux cœurs de l’A100 prendront également directement en charge le FP64, ce qui les rendra de plus en plus utiles pour une variété d’applications HPC. En plus d’un nouveau format de données, l’A100 prend également en charge les matrices creuses, de sorte que les réseaux d’IA qui contiennent de nombreux nœuds sans importance peuvent être représentés plus efficacement.

Nvidia DGX A100 : 5 PetaFLOPS dans un seul nœud

Nvidia DGX A100Parallèlement à l’A100, Nvidia a annoncé son tout dernier ordinateur de centre de données, le DGX A100, une mise à niveau majeure de ses modèles DGX actuels. Le premier DGX A100 est déjà utilisé au laboratoire national d’Argonne du département américain de l’énergie pour aider à la recherche sur le COVID-19. Chaque DGX A100 comprend 8 GPU A100, fournissant 156 TFLOPS de performances FP64 et 320 Go de mémoire GPU. Son prix commence à « seulement » (leurs mots) 199 000 $. Les interconnexions Mellanox permettent plusieurs déploiements de GPU, mais un seul DGX A100 peut également être partitionné en 56 instances maximum pour permettre l’exécution d’un certain nombre de charges de travail plus petites.

En plus de son propre DGX A100, Nvidia s’attend à ce qu’un certain nombre de ses partenaires traditionnels, dont Atos, Supermicro et Dell, intègrent l’A100 dans leurs propres serveurs. Pour aider à cet effort, Nvidia vend également l’accélérateur de centre de données HGX A100.

Accélérateur de centre de données hyperscale Nvidia HGX A100

Composants internes Nvidia DGX A100Le HGX A100 inclut les blocs de construction sous-jacents du supercalculateur DGX A100 dans un facteur de forme adapté au déploiement dans le cloud. Nvidia fait des déclarations très impressionnantes sur le rapport qualité-prix et les gains d’efficacité énergétique que ses partenaires cloud peuvent attendre du passage à la nouvelle architecture. Plus précisément, avec les systèmes DGX-1 actuels, Nvidia indique qu’un cluster cloud typique comprend 50 unités DGX-1 pour la formation, 600 processeurs pour l’inférence, coûte 11 millions de dollars, occupe 25 racks et consomme 630 kW de puissance. Avec Ampere et le DGX A100, Nvidia affirme qu’un seul type d’ordinateur est nécessaire, et beaucoup moins : 5 unités DGX A100 pour la formation et l’inférence pour un coût de 1 million de dollars, occupant 1 rack et ne consommant que 28 kW de Puissance.

Psssssst :  Seagate annonce ses propres cœurs RISC-V pour les futurs contrôleurs de stockage

Superpod DGX A100

Bien entendu, si vous êtes un centre de calcul à très grande échelle, vous ne disposerez jamais d’une puissance de processeur suffisante. Nvidia a donc créé un SuperPOD à partir de 140 systèmes DGX A100, 170 commutateurs InfiniBand, une structure réseau de 280 To/s (utilisant 15 km de câble optique) et 4 Po de stockage flash. Nvidia affirme que tout ce matériel offre plus de 700 pétaflops de performances d’IA et a été construit par Nvidia en moins de trois semaines pour être utilisé pour ses propres recherches internes. Si vous avez l’espace et l’argent, Nvidia a publié l’architecture de référence pour son SuperPOD, vous pouvez donc créer la vôtre. Joel et moi pensons que cela ressemble à l’étoffe d’un excellent article de bricolage. Il devrait pouvoir exécuter son Espace Profond Neuf projet de montée en gamme dans environ une minute.

Nvidia étend son supercalculateur SaturnV

Bien sûr, Nvidia a également considérablement étendu son supercalculateur SaturnV pour tirer parti d’Ampère. SaturnV était composé de 1800 systèmes DGX-1, mais Nividia a maintenant ajouté 4 SuperPOD DGX A100, portant SaturnV à une capacité totale revendiquée de 4,6 exaflops. Selon Nvidia, cela en fait le supercalculateur IA le plus rapide au monde.

Pour AI on the Edge, le nouvel EGX A100 de Nvidia offre un calcul massif ainsi qu'une sécurité locale et réseau

Pour AI on the Edge, le nouvel EGX A100 de Nvidia offre un calcul massif ainsi qu’une sécurité locale et réseau

Jetson EGX A100 emmène l’A100 à l’avant-garde

Ampère et l’A100 ne se limitent pas au centre de données. Nvidia a également annoncé un GPU haute puissance spécialement conçu pour l’informatique de pointe. Le Jetson EGX A100 est construit autour d’un A100, mais comprend également une connectivité haute performance Mellanox CX6 DX sécurisée à l’aide d’un moteur de cryptage à vitesse de ligne. Le GPU inclut également la prise en charge des modèles cryptés pour aider à protéger la propriété intellectuelle d’un OEM. Les mises à jour des kits d’outils basés sur Jetson de Nvidia pour diverses industries (dont Clara, Jarvis, Aerial, Isaac et Metropolis) aideront les OEM à construire des robots, des dispositifs médicaux et une variété d’autres produits haut de gamme utilisant l’EGX A100.

Psssssst :  AMD ne limitera pas l'extraction de crypto-monnaie sur les GPU RDNA2

Maintenant lis:

Bouton retour en haut de la page