Nvidia écrase les nouveaux tests MLPerf, mais l’avenir de Google semble prometteur
Jusqu’à présent, il n’y a eu aucun bouleversement dans les benchmarks MLPerf AI. Non seulement Nvidia gagne tout, mais elle est toujours la seule entreprise à rivaliser dans toutes les catégories. L’annonce des résultats de MLPerf Training 0.7 d’aujourd’hui n’est pas très différente. Nvidia a commencé à expédier ses GPU A100 à temps pour soumettre les résultats dans la catégorie Sortie pour les produits disponibles dans le commerce, où il a réalisé des performances de premier ordre dans tous les domaines. Cependant, Google a obtenu des résultats intéressants dans la catégorie Recherche.
MLPerf Training 0.7 ajoute trois nouveaux repères importants
Pour aider à refléter la variété croissante des utilisations de l’apprentissage automatique dans les environnements de production, MLPerf avait ajouté deux nouveaux repères de formation et un mis à niveau. Le premier, Deep Learning Recommendation Model (DLRM), implique la formation d’un moteur de recommandation, ce qui est particulièrement important dans les applications de commerce électronique parmi d’autres grandes catégories. Comme indice de son utilisation, il est formé sur une énorme mine de données Click-Through-Rate.
Le deuxième ajout est le temps de formation pour BERT, un modèle de traitement du langage naturel (NLP) largement respecté. Alors que BERT lui-même a été construit pour créer des versions plus grandes et plus complexes, l’analyse comparative du temps de formation sur l’original est un bon indicateur pour les déploiements NLP car BERT fait partie d’une classe de modèles Transformer largement utilisés à cette fin.
Enfin, l’apprentissage par renforcement (RL) devenant de plus en plus important dans des domaines tels que la robotique, le benchmark MiniGo a été mis à niveau vers MiniGo Full (sur une carte 19 x 19), ce qui est très logique.
Résultats
Pour la plupart, les alternatives disponibles dans le commerce à Nvidia ne participaient pas du tout à certaines des catégories, ou ne pouvaient même pas surpasser le V100 de dernière génération de Nvidia sur une base par processeur. Une exception est le TPU v3 de Google qui bat le V100 de 20 % sur ResNet-50 et ne se classe derrière l’A100 que de 20 % supplémentaires. Il était également intéressant de voir Huawei rivaliser avec une entrée respectable pour ResNet-50, en utilisant son processeur Ascend. Bien que la société soit encore loin derrière Nvidia et Google en matière d’IA, elle continue d’en faire un objectif majeur.
Comme vous pouvez le voir sur le graphique ci-dessous, le A100 est 1,5x à 2,5x les performances du V100 selon le benchmark :
Comme d’habitude, Nvidia était principalement en concurrence avec elle-même. Ce diaporama par processeur s’accélère par rapport au V100
Si vous avez le budget, la solution de Nvidia s’adapte également bien au-delà de tout ce qui est soumis. Fonctionnant sur le SuperPOD SELENE de la société qui comprend 2 048 A100, les modèles qui prenaient auparavant des jours peuvent désormais être entraînés en quelques minutes :
Comme prévu, le SuperPOD basé sur Ampere de Nvidia a battu tous les records de temps d’entraînement. Notez que la soumission de Google n’utilisait que 16 TPU, tandis que le SuperPOD en utilisait un millier ou plus, donc pour l’évaluation des puces en tête-à-tête, il est préférable d’utiliser le tableau précédent avec les numéros par processeur.
L’architecture de Nvidia est particulièrement adaptée à l’apprentissage par renforcement
Alors que de nombreux types de matériel spécialisé ont été conçus spécifiquement pour l’apprentissage automatique, la plupart d’entre eux excellent dans la formation ou l’inférence. L’apprentissage par renforcement (RL) nécessite un entrelacement des deux. Le matériel basé sur GPGPU de Nvidia est idéal pour cette tâche. Et, comme les données sont générées et consommées pendant le processus de formation, les interconnexions à haut débit de Nvidia sont également utiles pour RL. Enfin, parce que la formation de robots dans le monde réel est coûteuse et potentiellement dangereuse, les outils de simulation accélérés par GPU de Nvidia sont utiles lors de la formation RL en laboratoire.
Google donne un coup de main avec des résultats impressionnants en TPU v4
La nouvelle la plus surprenante des nouveaux benchmarks est peut-être la performance du TPU v4 de Google. Bien que la v4 du TPU soit dans la catégorie Recherche, ce qui signifie qu’elle ne sera pas disponible dans le commerce avant au moins 6 mois, ses performances proches de l’ampère pour de nombreuses tâches d’entraînement sont assez impressionnantes. Il était également intéressant de voir Intel peser avec un interprète décent dans l’apprentissage par renforcement avec un processeur qui sortira bientôt. Cela devrait l’aider à livrer dans les futures applications robotiques qui peuvent ne pas nécessiter de GPU discret. Les résultats complets sont disponible auprès de MLPerf.
Maintenant lis: