Ordinateurs

Nvidia ouvre Drive à tous, dévoile un SoC pour les voitures autonomes, TensorRT 7

Ce site peut gagner des commissions d’affiliation à partir des liens sur cette page. Conditions d’utilisation.

Jensen Huang de Nvidia a annoncé des nouvelles passionnantes sur les véhicules autonomes lors du discours d’ouverture de la société GTC. Premièrement, la société met ses modèles Drive pré-formés à la disposition du public pour la recherche et le développement. Parallèlement à cela vient un ensemble d’outils d’apprentissage par transfert pour rendre les modèles personnalisables et déployables. Deuxièmement, une nouvelle famille de SoC automobiles appelée ORIN est en route. Toujours dans le discours d’ouverture, Huang a dévoilé la version 7 de TensorRT, avec une prise en charge considérablement améliorée de l’IA conversationnelle.

Les modèles de disques Nvidia désormais disponibles pour tous

Nvidia a consacré énormément de temps et d’argent à la création et à la formation d’une grande variété de modèles à utiliser dans la création de systèmes de conduite automatisés. Ils vont de la navigation et de la planification de trajectoire assez standard à tous les types de réseaux de détection et incluent même des modalités de détection alternatives telles que le lidar et le radar.

Maintenant, Nvidia les rend tous accessibles au public via son Nvidia GPU Cloud (GPC). Bien qu’il soit suffisamment excitant que les modèles soient désormais accessibles à toute personne disposant d’un budget de calcul, il est encore plus intéressant que Nvidia fournisse également un ensemble d’outils d’apprentissage et de déploiement de transfert. Cela permet aux utilisateurs de télécharger les modèles et de les personnaliser en suivant une formation supplémentaire sur leurs propres données. Les modèles résultants pourraient être téléchargés et exécutés dans le GPC, exécutés sur des GPU locaux ou utilisés avec les outils de Nvidia pour les déployer sur des SoC Nvidia comme Xavier ou le nouveau SoC Orin.

Le logiciel d'inférence TensorRT de Nvidia permet un déploiement hautes performances de modèles développés dans une grande variété de boîtes à outils populaires

Le logiciel d’inférence TensorRT de Nvidia permet un déploiement hautes performances de modèles développés dans une grande variété de boîtes à outils populaires

La formation fédérée est également prise en charge, ainsi, par exemple, les constructeurs automobiles mondiaux pourraient s’entraîner activement dans plusieurs zones géographiques pour créer un modèle global global.

Nouveau Drive AGX Orin Auto SoC Sports 17 milliards de transistors

S’il y a une chose sur laquelle la plupart de ceux qui travaillent au développement de véhicules autonomes s’accordent, c’est qu’ils ont besoin de toute la puissance de traitement qu’ils peuvent obtenir. La plupart des véhicules de test actuels reposent sur plusieurs processeurs et GPU haute puissance. Pour une adoption généralisée, les véhicules devront fonctionner avec des processeurs moins chers, moins gourmands en énergie, mais encore plus puissants.

Psssssst :  Alienware ne veut vraiment pas que vous achetiez un PC AMD Ryzen

SoC NVIDIA Orin

Pour aider à répondre à ces besoins, Nvidia a annoncé la famille Orin de SoC automobiles. Doté de 17 milliards de transistors et développé au cours des quatre dernières années, l’Orin sera capable de plus de 200 billions d’opérations par seconde (TOPS), soit environ sept fois les performances du SoC Xavier actuel. Il comprend des cœurs de processeur ARM Hercules et l’architecture GPU de nouvelle génération de Nvidia. Conçu à la fois pour les véhicules et les robots, Orin est censé être conçu en tenant compte des normes de sécurité, telles que la norme ISO 26262 ASIL-D.

Nvidia affirme qu’il sera utile des solutions de niveau 2 jusqu’au niveau 5. Le coût jouera un rôle dans la mesure dans laquelle il sera utilisé dans les produits de niveau 2, tandis que le jury n’a toujours pas déterminé la puissance nécessaire pour le niveau 5. , donc je marquerais cette affirmation comme une spéculation. La bonne nouvelle pour les développeurs est qu’Orin exécute la même pile logicielle que Xavier, donc les projets actuels qui utilisent les outils de Nvidia comme CUDA et TensorRT devraient se déplacer facilement. La famille Orin comprendra une gamme de configurations, mais au moment de la presse, Nvidia n’a pas publié de dates de disponibilité ni de prix spécifiques.

Le nouveau TensorRT 7 permet une IA conversationnelle en temps réel

Alors que la reconnaissance d’objets et faciale étaient les applications les plus courantes de l’IA « à la périphérie », la reconnaissance vocale et le traitement de la voix ont rapidement rattrapé leur retard. Selon Jupiter Research, on estime qu’il existe aujourd’hui plus de 3 milliards d’appareils équipés d’assistants vocaux numériques dans le monde. Tous n’incluent pas la reconnaissance vocale sophistiquée et les fonctionnalités de conversation. Jusqu’à récemment, cependant, ceux qui le faisaient – généralement en utilisant des modèles de langage avancés comme BERT – nécessitaient de puissants processeurs back-end. En plus des exigences supplémentaires en matière de processeur et de bande passante, cela introduit automatiquement des retards de traitement supplémentaires.

Psssssst :  AMD lance de nouveaux APU 12 nm, Ryzen Mobile Refresh

Avec TensorRT 7, Nvidia a annoncé qu’elle ajoutait la prise en charge des réseaux de neurones récurrents (RNN) et de quelques modèles d’IA conversationnels populaires qui s’appuient sur les fonctionnalités RNN, y compris BERT, à son environnement d’exécution d’inférence convivial. Cela signifie qu’il sera possible de déployer l’IA conversationnelle dans une grande variété d’appareils embarqués sans nécessiter de connectivité ou de traitement cloud. Nvidia revendique des niveaux de performances pour TensorRT 7 qui prendront en charge des délais d’exécution inférieurs à 300 ms pour un pipeline de génération de reconnaissance vocale, de compréhension du langage naturel et de synthèse vocale.

Nvidia continue de faire des incursions dans l’IA en Chine

Parallèlement à ses nouveautés sur les produits, Nvidia a annoncé d’importants nouveaux gains de conception en Chine. S’appuyant sur sa force automobile, Didi – la plus grande entreprise de covoiturage de Chine – a annoncé qu’elle utiliserait la technologie Nvidia à la fois pour le développement et le déploiement de ses voitures autonomes.

Baidu, le plus grand moteur de recherche de Chine, a annoncé qu’il utilisait les GPU Nvidia V100 dans son moteur de recommandation, ce qui lui permet d’obtenir une accélération de 10 fois la formation du réseau par rapport à sa technologie précédente. Alibaba alimente également désormais les recherches des utilisateurs de son catalogue de produits de deux milliards avec les GPU Nvidia T4. Cela permet à ses 500 millions d’utilisateurs quotidiens d’obtenir des résultats de recherche plus rapides et plus précis. Alibaba attribue à cette amélioration des performances un gain impressionnant de 10 % du taux de clics (CTR).

Psssssst :  Test de Photoshop Elements 2022 : beaucoup de puissance dans un package convivial

Maintenant lis:

Bouton retour en haut de la page