Ordinateurs

Nvidia écrase les nouveaux tests MLPerf, mais l’avenir de Google semble prometteur

Ce site peut gagner des commissions d’affiliation à partir des liens sur cette page. Conditions d’utilisation.

Jusqu’à présent, il n’y a eu aucun bouleversement dans les benchmarks MLPerf AI. Non seulement Nvidia gagne tout, mais elle est toujours la seule entreprise à rivaliser dans toutes les catégories. L’annonce des résultats de MLPerf Training 0.7 d’aujourd’hui n’est pas très différente. Nvidia a commencé à expédier ses GPU A100 à temps pour soumettre les résultats dans la catégorie Sortie pour les produits disponibles dans le commerce, où il a obtenu des performances de premier ordre dans tous les domaines. Cependant, Google a obtenu des résultats intéressants dans la catégorie Recherche.

MLPerf Training 0.7 ajoute trois nouveaux repères importants

Pour aider à refléter la variété croissante des utilisations de l’apprentissage automatique dans les environnements de production, MLPerf avait ajouté deux nouveaux repères de formation et un mis à niveau. Le premier, Deep Learning Recommendation Model (DLRM), implique la formation d’un moteur de recommandation, ce qui est particulièrement important dans les applications de commerce électronique parmi d’autres grandes catégories. Comme indice de son utilisation, il est formé sur une énorme mine de données Click-Through-Rate.

Le deuxième ajout est le temps de formation pour BERT, un modèle de traitement du langage naturel (NLP) largement respecté. Alors que BERT lui-même a été construit pour créer des versions plus grandes et plus complexes, l’analyse comparative du temps de formation sur l’original est un bon indicateur pour les déploiements NLP, car BERT fait partie d’une classe de modèles Transformer largement utilisés à cette fin.

Psssssst :  Analyste : les lunettes AR d'Apple seront aussi puissantes qu'un ordinateur Mac

Enfin, l’apprentissage par renforcement (RL) devenant de plus en plus important dans des domaines tels que la robotique, le benchmark MiniGo a été mis à niveau vers MiniGo Full (sur une carte 19 x 19), ce qui est très logique.

MLPerf Training a ajouté trois nouveaux repères importants à sa suite avec la nouvelle version

MLPerf Training a ajouté trois nouveaux repères importants à sa suite avec la nouvelle version

Résultats

Pour la plupart, les alternatives disponibles dans le commerce à Nvidia ne participaient pas du tout à certaines des catégories, ou ne pouvaient même pas surpasser le V100 de dernière génération de Nvidia sur une base par processeur. Une exception est le TPU v3 de Google qui bat le V100 de 20 % sur ResNet-50, et ne se classe derrière l’A100 que de 20 % supplémentaires. Il était également intéressant de voir Huawei rivaliser avec une entrée respectable pour ResNet-50, en utilisant son processeur Ascend. Bien que la société soit encore loin derrière Nvidia et Google en matière d’IA, elle continue d’en faire un objectif majeur.

Comme vous pouvez le voir sur le graphique ci-dessous, le A100 est 1,5x à 2,5x les performances du V100 selon le benchmark :

Comme d'habitude, Nvidia était principalement en concurrence avec lui-même - ce diaporama par accélération du processeur par rapport au V100

Comme d’habitude, Nvidia était principalement en concurrence avec elle-même. Ce diaporama par processeur s’accélère par rapport au V100

Si vous avez le budget, la solution de Nvidia s’adapte également bien au-delà de tout ce qui est soumis. Fonctionnant sur le SuperPOD SELENE de la société qui comprend 2 048 A100, les modèles qui prenaient auparavant des jours peuvent désormais être entraînés en quelques minutes :

Comme prévu, le SuperPOD basé sur Ampere de Nvidia a battu tous les records de temps d'entraînement

Comme prévu, le SuperPOD basé sur Ampere de Nvidia a battu tous les records de temps d’entraînement. Notez que la soumission de Google n’utilisait que 16 TPU, tandis que le SuperPOD en utilisait un millier ou plus, donc pour l’évaluation des puces en tête-à-tête, il est préférable d’utiliser le tableau précédent avec les numéros par processeur.

L’architecture de Nvidia est particulièrement adaptée à l’apprentissage par renforcement

Alors que de nombreux types de matériel spécialisé ont été conçus spécifiquement pour l’apprentissage automatique, la plupart d’entre eux excellent dans la formation ou l’inférence. L’apprentissage par renforcement (RL) nécessite un entrelacement des deux. Le matériel basé sur GPGPU de Nvidia est idéal pour cette tâche. Et, comme les données sont générées et consommées pendant le processus de formation, les interconnexions à haut débit de Nvidia sont également utiles pour RL. Enfin, parce que la formation de robots dans le monde réel est coûteuse et potentiellement dangereuse, les outils de simulation accélérés par GPU de Nvidia sont utiles lors de la formation RL en laboratoire.

Psssssst :  Intel dévoile les spécifications du processeur Lakefield : jusqu'à 3 GHz, 64 EU et 7 W TDP

Google donne un coup de main avec des résultats impressionnants en TPU v4

Google Research a fait une démonstration impressionnante avec sa future puce TPU v4

Google Research a fait une démonstration impressionnante avec sa future puce TPU v4

La nouvelle la plus surprenante des nouveaux benchmarks est peut-être la performance du TPU v4 de Google. Bien que la v4 du TPU soit dans la catégorie Recherche, ce qui signifie qu’elle ne sera pas disponible dans le commerce avant au moins 6 mois, ses performances proches de l’ampère pour de nombreuses tâches d’entraînement sont assez impressionnantes. Il était également intéressant de voir Intel peser avec un interprète décent dans l’apprentissage par renforcement avec un processeur qui sortira bientôt. Cela devrait l’aider à livrer dans les futures applications robotiques qui peuvent ne pas nécessiter de GPU discret. Les résultats complets sont disponible auprès de MLPerf.

Maintenant lis:

Bouton retour en haut de la page