Ordinateurs

Les ordinateurs bioniques d’IBM saignent du sang électronique – High-teK.ca

Ce site peut gagner des commissions d’affiliation à partir des liens sur cette page. Conditions d’utilisation.

Dans les années 1950, la plus haute priorité pour la défense nationale était le programme de missiles balistiques de l’armée de l’air. L’ICBM, et donc l’ensemble du programme spatial, et Internet, ont été rendus possibles par l’ordinateur central IBM 360 et ses prédécesseurs immédiats. La semaine dernière, dans son laboratoire de Zurich, IBM a fait une tournée médiatique de certains des derniers concepts de l’entreprise – des concepts qui, selon elle, seront tout aussi révolutionnaires que les appareils informatiques de l’ère 360. La clé pour rendre les supermachines 10 000 fois plus efficaces, selon IBM, est de construire des ordinateurs bioniques refroidis et alimentés par du sang électronique.

Les octets et les flops peuvent être des mesures pratiques pour caractériser la taille des fichiers ou pour évaluer le temps qu’une simulation peut prendre pour vous donner une réponse. Si toutefois, vous budgétisez un centre de données, ou même simplement un processeur ou une batterie pour un smartphone, une mesure plus utile avec laquelle travailler pourrait être les opérations par joule. Si vous faites quelque chose d’encore plus exotique, comme concevoir des machines pour naviguer sur les autoroutes et les voies d’un système circulatoire, les opérations par litre peuvent être encore plus pertinentes. Comme cela a été judicieusement noté dans un article récentun élément important dans les unités que nous choisissons pour décrire nos efforts informatiques est la nécessité de saisir un sens de l’orientation et, plus important encore, des progrès.

Psssssst :  Le processeur I6500 d'Imagination ajoute un calcul hétérogène, multi-cluster, alimentera des voitures autonomes

L’objectif déclaré d’IBM est d’avoir un ordinateur d’un pétaflop dans un volume de 10 litres. En d’autres termes, il veut prendre une machine pétaflopique qui remplirait une pièce aujourd’hui, pour la mettre sur un bureau. Le meilleur chien d’aujourd’hui, le chinois Tianhe-2, dispose d’un pétaoctet de mémoire et atteint 33,86 pétaflops (quadrillions de calculs en virgule flottante par seconde) en utilisant 32 000 processeurs Xeon et 48 000 accélérateurs Xeon Phi. La machine fonctionne sous Kylin Linux et nécessite environ 17,8 mégawatts de puissance. Les consommations d’énergie à cette échelle ont précédemment conduit IBM à développer un système prototype appelé Aquasar, qui comporte des tubes de branchement pour fournir du liquide de refroidissement là où il est nécessaire. Ils ont ajouté à ce système des unités inhabituelles – 7,9 billions d’opérations par seconde par kilogramme de dioxyde de carbone rejeté dans l’atmosphère.

Acuasar

Dans un article précédent nous avons suggéré qu’en fin de compte, les ressources telles que l’alimentation et le refroidissement pour l’informatique à haute densité doivent être fournies en volume, plutôt que fournies via des câbles coûteux et des plans de masse d’alimentation sur une carte. L’extension logique du rationnel de conception (qui fournirait ces ressources à travers un système de tubes de plus en plus fractalisé) serait de immerger tout l’ordinateur. Bien qu’il existe des obstacles techniques à la réalisation de quelque chose comme ça à grande échelle, IBM a fait des progrès significatifs dans une technologie qu’ils appellent une batterie à flux redox. L’ordinateur à batterie à flux d’IBM possède une puce microfluidique qui utilise des électrolytes de vanadium avec différents états d’oxydation pour générer des tensions allant de 0,5 à 3 volts. Il est capable de générer jusqu’à un watt de puissance par centimètre carré de surface de carte et permet potentiellement une évacuation importante de la chaleur.

Psssssst :  Pourquoi Apple ne prend-il pas en charge Nvidia Silicon avec macOS Mojave ? - ExtrêmeTech

Grammes de CO2 comme spécification informatique

La nouvelle mesure de flops/kilogramme de CO2 d’IBM semble supposer que le coût en CO2 de la construction de l’ordinateur est négligeable par rapport au coût de son fonctionnement. En effet, pour la vie basée sur les cellules, cette hypothèse peut être quelque peu justifiée car les cellules n’utilisent qu’un peu plus d’énergie lorsqu’elles se divisent ou se développent initialement comme elles le font lorsqu’elles fonctionnent normalement. Cependant, jusqu’à ce que nous puissions construire des ordinateurs aussi facilement que nous inoculerions une cuve de bouillon avec une bactérie à réplication rapide, les coûts de construction continueront probablement d’être un facteur majeur.

Pour faire une petite comparaison ici, un produit comme l’acier peut avoir peu ou pas de coût en CO2 associé à son fonctionnement, mais des coûts importants pour sa construction. Faire fondre et traiter le métal pour les poutres coulées peut prendre 1300 mégajoules/tonne d’acier et génèrent 235 kg de CO2 par tonne d’acier. Pour les ordinateurs, l’efficacité a augmenté à mesure qu’ils ont proliféré au fil du temps, mais les effets ne se sont manifestement pas compensés. En d’autres termes, le besoin informatique total moyen et le budget par habitant ont augmenté au fil du temps, tout comme le pourcentage d’utilisation de nos ordinateurs par rapport à notre budget énergétique total. Peut-être avons-nous besoin d’une meilleure mesure pour l’informatique – une qui impliquerait ce que nous voulons réellement faire, plutôt que la quantité de quelque chose que nous utilisons pour le faire.

Page suivante: Rendre les ordinateurs plus comme des cerveaux…

Bouton retour en haut de la page