Ordinateurs

Comment la vague de Makimoto explique le tsunami des nouveaux processeurs d’IA – High-teK.ca

Ce site peut gagner des commissions d’affiliation à partir des liens sur cette page. Conditions d’utilisation.

Certains termes techniques de la technologie des semi-conducteurs sont devenus des pierres de touche courantes. La loi de Moore, l’échelle de Dennard et des concepts comme le « mur de la mémoire» font référence à des tendances technologiques établies de longue date qui refont souvent surface dans de nombreux domaines d’expertise différents. Dans cette veine, il y a un concept dont nous allons discuter aujourd’hui que certains d’entre vous connaissent peut-être, mais qui a relativement peu retenu l’attention : la vague de Makimoto. Bien qu’il ne remonte pas aussi loin que l’article fondateur de Gordon Moore, l’argument de Makimoto a une incidence directe sur le marché en plein essor de l’IA et des dispositifs d’apprentissage automatique.

Présenté pour la première fois en 1991 par le Dr Tsugio Makimoto, ancien PDG de Hitachi Semiconductors et ancien CTO de Sony, La vague de Makimoto est une manière de décrire comment le marché des semi-conducteurs oscille souvent entre spécialisation et standardisation. Ces cycles se sont souvent produits à des intervalles d’environ 10 ans, bien qu’il y ait eu un désaccord dans l’espace plus large quant à savoir si les cycles 1997-2007 et 2007-2017 étaient suffisamment forts pour se qualifier.

Makimoto-Wave

Image par Semi-ingénierie

La théorie n’est cependant pas contestée pour les cycles précédents. De 1957 à 1967, les composants discrets standardisés ont dominé le marché, suivis des puces d’intégration à grande échelle personnalisées, qui ont cédé la place aux premières technologies de microprocesseur et de mémoire standardisées.

Il n’est pas clair que la vague classique de Makimoto, comme indiqué ci-dessus, s’aligne parfaitement avec la poussée actuelle vers l’IA et le ML. Il prédit que le marché devrait s’orienter vers la normalisation à partir de 2017, alors qu’en réalité, nous assistons à une formidable poussée d’un large éventail d’entreprises pour créer leurs propres architectures d’accélérateur personnalisées pour les charges de travail spécialisées d’IA et de ML. Avec tout le monde, de Fujitsu et Google à Nvidia et AMD, jetant un chapeau proverbial dans le ring, le pendule semble aller plus loin vers la personnalisation, pas déjà en train de revenir vers la normalisation.

Mais il n’est pas rare qu’une théorie généralement acceptée explique certains aspects de semi-conducteur progrès à ne pas cartographier parfaitement à la vraie vie. La loi de Moore, dans son incarnation originale, prévoyait le doublement du nombre de transistors chaque année. En 1975, Gordon Moore a révisé sa prédiction à tous les deux ans. Le taux réel auquel le nombre de transistors a doublé dans les produits d’expédition a toujours quelque peu varié en fonction des difficultés de transition du nœud de fonderie, des conditions du marché et du succès ou de l’échec de CPU équipes de conception. Même la mise à l’échelle de la loi de Moore a ralenti ces dernières années, bien que les améliorations de densité ne se soient pas encore arrêtées. Après l’arrêt de la mise à l’échelle de Dennard en 2004, la mise à l’échelle de la densité est devenue la seule métrique continuant à suivre quelque chose comme son ancien chemin historique.

Psssssst :  Windows 11 rend plus difficile le changement de votre navigateur Web par défaut

Et étant donné à quel point la mise à l’échelle du processeur à usage général a radicalement changé entre les époques antérieures et aujourd’hui, nous devons tenir compte du fait que le pendule peut ne pas osciller exactement de la même manière qu’avant. La vidéo ci-dessous, racontée par Tsugio Makimoto, n’est pas nouvelle – elle a été publiée en 2013 – mais elle offre une explication supplémentaire du concept à toute personne intéressée.

Un article at SemiEngineering détaille la ruée des entreprises travaillant sur des architectures d’accélérateurs spécialisées et pourquoi le domaine est brûlant. Face au manque de progrès dans le calcul à usage général, les entreprises se sont tournées vers les accélérateurs, dans l’espoir de trouver des charges de travail et des cœurs qui correspondent bien les uns aux autres. Ainsi, il peut sembler que le pendule s’éloigne en permanence du calcul à usage général.

Mais cela est effectivement impossible à long terme. Bien que rien n’empêche une entreprise de développer une architecture spécialisée pour traiter une charge de travail bien connue, toutes les charges de travail ne peuvent pas être décrites de cette manière. Comme Chris Jones, vice-président du marketing chez Codasip, l’a déclaré à SemiEngineering : « Il y aura toujours des cas où le logiciel qui sera exécuté sur une puce donnée est largement inconnu, et si la charge logicielle est indéterminée, tout ce que le concepteur de puce peut faire est fournir une plate-forme de calcul générale robuste où les performances sont purement fonction de la fréquence du cœur et de la latence de la mémoire.

Psssssst :  Western Digital et Seagate expédient des disques SMR lents sans en informer les clients : rapports [Updated] - ExtrêmeTech

En d’autres termes, vous ne pouvez pas simplement créer une gamme d’accélérateurs matériels pour couvrir chaque charge de travail. Le calcul à usage général reste essentiel au processus. Les implémentations personnalisées de travail deviennent également standardisées au fil du temps, les entreprises se concentrant sur des implémentations optimales pour gérer certains types de travail.

Il y a un chevauchement important entre le comportement décrit par la vague de Makimoto et la menace imminente mur de l’accélérateur nous avons discuté plus tôt cette semaine. Le papier peint sur l’accélérateur démontre que nous ne pouvons pas dépendre des solutions d’accélérateur pour fournir des améliorations de performances infinies sans la capacité d’améliorer les aspects sous-jacents des performances des transistors via la loi de Moore. La vague de Makimoto décrit la tendance générale de l’industrie à osciller entre les deux. L’afflux récent de fonds de capital-risque sur les marchés de l’IA et de l’apprentissage automatique a conduit à un cycle de battage médiatique certain autour de ces capacités. L’IA et l’apprentissage automatique pourraient en effet révolutionner l’informatique dans les années à venir, mais la nouvelle tendance à utiliser des accélérateurs pour ces charges de travail doit être comprise dans le contexte des limites de cette approche.

Maintenant lis:

Bouton retour en haut de la page