Ordinateurs

Le cerveau informatisé composé de GPU pourrait être l’avenir de l’intelligence artificielle – High-teK.ca

Ce site peut gagner des commissions d’affiliation à partir des liens sur cette page. Conditions d’utilisation.

Pendant des décennies, les informaticiens ont lutté pour concevoir un intelligence artificielle suffisamment sophistiqué pour passer pour un être vivant. Jusqu’à présent, les fruits de ce travail sont des chatbots sournois et des systèmes qui peuvent traiter de grandes quantités de données et cracher des factoïdes. Google a commencé à travailler sur une nouvelle méthode de réplication de réseaux de neurones à l’aide de 1 000 ordinateurs reliés entre eux. Maintenant, l’un des chercheurs qui a aidé Google à le faire a défini le cadre d’un modèle cérébral encore meilleur qui coûte une fraction du prix. La clé d’une véritable IA pourrait être le GPU.

L’informatique traditionnelle basée sur l’intelligence artificielle s’est appuyée sur le regroupement d’autant de processeurs que possible. Avec l’augmentation du débit, les chercheurs pensaient que le problème de la pensée machine pourrait éventuellement être forcé brutalement. Il semble maintenant que cette approche n’ira pas si loin, d’où le projet de Google avec ce qu’on appelle le Deep Learning. L’objectif modeste était d’obtenir un système qui apprenait à quoi ressemblait un chat et était capable de le repérer dans des vidéos YouTube. Sur ce point, Google a réussi.

Un chercheur de Stanford du nom d’Andrew Ng a travaillé avec Google sur le projet chat, mais a été consterné par le coût du système. Ng pensait que si l’IA devait décoller, son prix devait baisser. Il a récemment publié un article exposant sa vision d’un banc d’essai d’IA moins cher basé sur des GPU au lieu de CPU. Ce n’est pas la première utilisation du calcul GPU, mais c’est peut-être l’une des plus ambitieuses. Alors que les processeurs sont faciles à mettre en réseau et à mélanger, les GPU sont beaucoup plus capricieux.

Psssssst :  Le processus EUV 7 nm de Samsung est prêt pour la production

En utilisant les GPU comme muscle derrière un programme d’IA, Ng affirme que les plates-formes de première génération pourraient coûter aussi peu que 20 000 $. C’est définitivement hors de portée du marché grand public, mais bien dans les budgets de nombreux chercheurs en informatique. Le système original de Google Deep Learning a coûté plus d’un million de dollars. Le but ici est de faire pour la recherche en IA ce qu’Apple et Microsoft ont fait pour l’ordinateur personnel.

ÉbrécherPour tester son hypothèse sur l’apprentissage en profondeur piloté par GPU, Ng et son équipe ont construit une version plus grande de la plate-forme proposée pour un coût d’environ 100 000 $. Il utilisait 64 GPU Nvidia GTX 680 sur 16 ordinateurs. Il était capable d’accomplir les mêmes tâches de détection de chats que le système Google, qui nécessitait 1 000 ordinateurs pour fonctionner.

L’apprentissage en profondeur pourrait être la meilleure voie vers un véritable système d’IA si les scientifiques sont capables d’harmoniser GPU l’informatique. Ng et son équipe travaillent sur un code Nvidia CUDA personnalisé qui permet à la magie d’opérer en combinant efficacement les ressources et en permettant une commutation rapide des tâches entre les processeurs graphiques connectés.

Ng n’a pas encore décidé si le logiciel et le matériel spécialisés conçus pour tester son hypothèse seront open source. Même si ce n’est pas le cas, le document explique certains des algorithmes et techniques impliqués. D’autres chercheurs en IA ne manqueront pas de suivre, ne serait-ce que pour prouver que Ng a tort.

Maintenant lis: IBM fait un pas vers la construction de synapses semi-conductrices artificielles

Psssssst :  AMD annonce de nouveaux processeurs Threadripper à 12 et 24 cœurs, un mode mémoire qui améliore les performances

Document de recherche: Apprentissage en profondeur avec les systèmes COTS HPC (PDF)

Bouton retour en haut de la page