Ordinateurs

L’origine de la vie et l’avenir des ordinateurs – High-teK.ca

Ce site peut gagner des commissions d’affiliation à partir des liens sur cette page. Conditions d’utilisation.

L’évolution des ordinateurs et l’évolution de la vie partagent la contrainte commune qu’en allant au-delà d’un certain niveau de complexité, l’avantage va à ce qui peut s’appuyer sur ce qui est déjà en main plutôt que de reconcevoir à partir de zéro. Le couronnement de la vie, le cerveau humain, cherche à modeler pour lui-même la puissance et la directivité de la machine informatique, tout en dotant la machine de sa propre économie de pensée et de mouvement. Pour prédire la forme que leur inévitable convergence pourrait éventuellement prendre, nous pouvons maintenant regarder en arrière avec une meilleure compréhension des premiers moteurs qui ont façonné la vie, et revigorer ces idées pour guider notre construction.

La vie est, en effet, une réaction secondaire d’une réaction de captage d’énergie. Il nécessite de grandes quantités d’énergie pour continuer.

Nick Lane, auteur d’un nouvel article dans la revue Cellule, parlait ici des processus critiques à l’origine de la vie, même si ses mots seraient également une description appropriée de l’informatique en général. Son article, fondamentalement, propose de nouvelles idées audacieuses sur la façon dont les formes de proto-vie sont apparues dans les évents hydrothermaux en haute mer en exploitant les gradients d’énergie. Les stratégies employées par la vie offrent un aperçu de la façon dont nous pourrions construire le processeur ultime du futur.

Beaucoup d’entre nous ont lu des affirmations concernant la capacité de stockage d’informations et le taux de traitement du cerveau humain, et se sont demandé : comment mesurent-ils cela ? Eh bien, le fait est qu’ils ne le font pas. Avec notre compréhension limitée du fonctionnement des systèmes vivants comme le cerveau, il est insensé à ce stade de tenter une comparaison directe avec le fonctionnement des machines informatiques. Des conjectures empiriques sont souvent tentées, mais en fin de compte, ce n’est guère plus qu’un signe de main.

Psssssst :  Microsoft est enfin autorisé à (encore une fois) définir IE comme navigateur par défaut dans Windows - High-teK.ca

Google, bien qu’il ne soit clairement pas un cerveau d’aucune sorte, traite certainement beaucoup d’informations. Nous pourrions nous demander, à quel point fonctionne-t-il réellement? Il est assez facile de vérifier qu’un requête de recherche typique prend moins de 0,2 secondes. Chaque serveur qui touche à l’opération, passe peut-être quelques millièmes de seconde dessus. Les ingénieurs de Google ont estimé le travail total impliqué dans l’indexation et la récupération à environ 0,0003 kWh d’énergie par recherche. Ils n’ont pas indiqué comment ils ont estimé ce nombre, mais si l’on y réfléchit, c’est un résultat fascinant, malgré leur malheureux préfixage des unités. Supposons que nous prenions la liberté de définir cette quantité, l’énergie par recherche, comme un googlewatt. Une telle mesure serait un moyen pratique de caractériser un écosystème informatique de la même manière que Le numéro de Reynold caractérise qualitativement les conditions d’écoulement dans les systèmes aérodynamiques.

On pourrait alors se demander, si la taille d’une exploration Web entièrement indexée augmente constamment alors que l’énergie par opération de recherche élémentaire se contracte avec l’amélioration de l’efficacité du processeur, comment l’échelle de googlewatt pourrait-elle évoluer à mesure que l’écosystème continue d’évoluer ? En d’autres termes, pouvons-nous espérer continuer à interroger une base de données rapidement divergente à 0,3 Wh par recherche, ou en dollars — à 0,0003 $ par recherche ?

Afin de mettre l’énergie par recherche dans des termes plus familiers, Google note que l’adulte moyen a besoin de 8000 kilojoules (kJ) par jour de nourriture. Il conclut alors qu’une recherche équivaut à l’énergie qu’une personne brûlerait en 10 secondes. Il ne fait aucun doute que les cerveaux effectuent des recherches très différemment de Google, mais les efforts pour explorer l’utilisation de l’énergie par les cerveaux se sont avérés déroutants. TEP, par exemple, n’est pas un outil très fiable pour localiser la fonction dans des parties spécifiques du cerveau. De plus, sa résolution temporelle est pitoyable. Il n’est cependant pas trop mauvais pour mesurer l’utilisation globale du glucose, à partir de laquelle la consommation d’énergie peut être déduite. Les sujets dont le cerveau est imagé par un scanner TEP lors de l’exécution d’une tâche de récupération de mémoire semblent fréquemment utiliser moins plus d’énergie qu’au repos. Donc, si nous acceptons la vue d’ensemble dans certaines de ces études, nous voyons souvent le résultat contre-intuitif que le googlewatt pour un cerveau, au moins transitoirement et localement, peut parfois prendre une valeur négative. Ce n’est pas totalement inattendu puisque l’inhibition de l’activité des neurones équilibre l’excitabilité à presque chaque tournant. La situation peut être comparée à celle d’un enseignant faisant taire le vacarme de fond d’une classe indisciplinée et exigeant de l’attention au début du cours.

Psssssst :  Ford autonome pourrait voir autour de vous le camion devant vous, grâce au MIT et à Stanford - High-teK.ca

IBMWatson-PostPour essayer de trouver une comparaison plus pertinente avec les wetwares biologiques, jetons un coup d’œil rapide à Watson d’IBMle supercalculateur de Péril! célébrité. Lorsqu’il fonctionne à 80 téraflops, il traite environ 500 Go – l’équivalent d’un million de livres – par seconde. Pour atteindre ce type de débit, Watson réplique les 4 To de données de son système de fichiers sur 16 To de RAM. Bien qu’il ne soit plus à la pointe de la technologie, Watson n’est certainement pas en reste.

Chacun des 90 de Watson Nœuds de serveur Power 750 dispose de quatre puces de processeur, soit un total de 32 cœurs par nœud. Chaque puce de 567 mm, fabriquée avec un processus de 45 nm, compte 1,2 milliard de transistors. Le serveur Power 750 était basé sur le serveur 575 précédent, mais a été conçu pour être plus économe en énergie et fonctionner sans avoir besoin de refroidissement par eau. Comme il est refroidi par air, le 750 ne peut pas consommer plus de 1600W de puissance et est donc limité à 3.3GHz. Le 575 pourrait gérer 5400W et fonctionner un peu plus haut à 4,7 GHz. Juste au cas où vous vous demanderiez d’où viennent ces vitesses de processeur, il peut être réconfortant de savoir qu’elles ne sont probablement pas simplement sorties d’un chapeau. Ils semblent faire partie d’une séquence connue sous le nom de Série de numéros préférée E6pour lequel IBM doit avoir une affection particulière, et qui est bien entendu éminemment pratique.

Page suivante: Pourquoi les spécifications de Watson sont importantes…

Psssssst :  La division graphique d'AMD a-t-elle un problème d'identité ? - ExtrêmeTech

Bouton retour en haut de la page