La loi de Moore a peut-être expiré, mais les puces continuent de s’accélérer

Tu veux des chips avec ça? Comment les modules spécialisés et autres innovations révolutionnent les performances des ordinateurs jusqu’au bas de gamme.

Parfois, je lis un titre dans une publication technologique qui me fait rester incrédule. La semaine dernière, j’ai vu un tel exemple, et c’était vraiment étonnant.

Vous vous souvenez du Raspberry Pi? C’était – et c’est toujours – un petit ordinateur de la taille d’une boîte d’allumettes fixée avec des ports d’E/S et entièrement équipé pour être un ordinateur autonome avec l’ajout d’un clavier, d’une souris, d’un moniteur et d’un système d’exploitation.

J’ai souvent été surpris par l’ingéniosité des utilisateurs de Raspberry Pi à créer des applications assez complètes pour le petit appareil et par la taille de la communauté qui se développe pour cela.

Le Pi a subi plusieurs itérations de conception et reste un ordinateur remarquablement utile pour un prix étonnamment bas.

Alors, quand j’ai lu que vous pouvez maintenant exécuter une émulation logicielle du légendaire synthé DX7 de Yamaha – la toile de fond de tant de succès des années 80 – sur un Raspberry Pi, j’ai été intrigué mais pas surpris. Ce ne serait pas la première fois que le Pi accueillait un synthé virtuel.

Mais ensuite j’ai lu que le petit appareil pouvait en faire fonctionner non seulement un, mais huitième des instances indépendantes d’un DX7, j’ai commencé à me demander comment c’était possible. Je vais vous le dire dans une minute, mais d’abord, je veux faire un point plus large qui explique une grande partie de ce que nous voyons maintenant et de ce que nous verrons dans les prochaines années en informatique et en technologie des médias.

Contourner la loi de Moore

Nous sommes tous habitués à l’idée que la loi de Moore est en voie de disparition. En termes « traditionnels », c’est vrai: les puces informatiques ne doublent plus leur puissance tous les 18 mois environ uniquement parce que la taille des composants ne cesse de diminuer, et vous pouvez donc intégrer plus de puissance de traitement dans le même espace. Cela a cessé d’être vrai il y a quelques années.

Mais si vous effectuez un zoom arrière par rapport à ce cadre et que vous regardez la situation dans son ensemble, vous verrez que les puces informatiques deviennent toujours plus rapides, et dans certains domaines, comme l’IA, elles battent en fait la loi de Moore par une certaine marge.

La question du nombre de composants que vous pouvez emballer dans le même espace 2D n’est plus le facteur déterminant qui dicte les capacités de traitement d’une puce. Pour maintenir le type d’accélération personnifié par la loi de Moore à une époque où nous ne pouvons pas facilement rétrécir les composants beaucoup plus, nous avons dû regarder dans d’autres directions, littéralement, où l’une de ces directions est vers le haut et pas seulement latéralement.

Pourquoi l’île de Manhattan à New York est-elle telle qu’elle est, avec des gratte-ciel à couper le souffle entassés dans chaque centimètre carré du paysage? C’est parce qu’il n’y a nulle part ailleurs où aller que vers le haut. Donc, si vous voulez vous intégrer davantage, vous devez invoquer la troisième dimension. Une fois que vous le faites, vous êtes tous prêts pour une croissance incroyable.

Et c’est comme ça avec les puces modernes: en libérant les designs des contraintes des deux dimensions, le ciel est littéralement la limite. Mais ce n’est qu’un aspect de la nouvelle conception de la puce. D’autres sont sans doute plus importants.

Conception hétérogène

L’une des techniques les plus puissantes est la conception hétérogène. Cela signifie construire des puces à partir d’une grande variété de modules spécialisés. Il y a plusieurs avantages à cela.

Les processeurs conventionnels sont des généralistes. Grâce à l’histoire de l’informatique, cela a été une force colossale: une seule machine peut accomplir presque tout. Il suffit de quelques instructions logicielles (et de toute la discipline du développement logiciel!). C’est un paradigme puissant, et il ne va pas disparaître. Mais des tâches spécifiques, telles que l’encodage ou le décodage vidéo, l’IA et l’apprentissage automatique, ou le traitement du signal numérique, surgissent tout le temps et sont généralement des porcs de ressources si elles sont effectuées sur un processeur. Ces spécialités peuvent être accélérées par des ordres de grandeur avec du silicium dédié. Vous pouvez considérer ces appareils très ciblés comme des coprocesseurs: c’est une vieille idée.

Mais ce qui est presque entièrement nouveau, c’est qu’il est maintenant possible de construire ces spécialités dans de minuscules modules qui peuvent être incorporés sur la puce du processeur elle-même. Ils sont assis à côté de lui sur le même morceau de silicium, reliés entre eux par des interconnexions extrêmement rapides. Lorsque vous assemblez tous les modules avec un processeur et un GPU, vous disposez d’une puce incroyablement rapide dans son ensemble, laissant la maintenance traditionnelle au processeur et les tâches gourmandes en ressources à des modules dédiés spécialisés et ultra-rapides.

Cette philosophie de conception prend vraiment son envol. Les minuscules modules spécialisés sont appelés « puces », et je m’attendrais à voir un écosystème sain se développer autour de l’idée d’un échange industriel ou même d’un marché pour les puces fabriquées par plusieurs fabricants. Cela devrait accélérer le processus de conception et accélérer les puces elles-mêmes.

Enfin, nous observons des interconnexions extrêmement rapides à la fois sur puce et entre puce. Ce type de technologie est à l’origine de la capacité d’Apple à enchaîner plusieurs de ses puces déjà puissantes pour créer un processeur encore plus grand. Le dernier exemple en date est le M1 Ultra, qui est une union de deux processeurs – avec des modules spécialisés – pour donner un dispositif composé avec plus de 100 milliards de transistors.

Pour en revenir à ce Raspberry Pi et à la façon dont il peut éventuellement exécuter 8 instances d’une émulation DX7 en temps réel: la réponse est que les synthés logiciels ont été écrits directement sur le matériel. Il n’y avait pas de système d’exploitation pour ralentir les choses et imposer une latence douloureuse au processus. C’est intelligent, mais évidemment de niche. Mais cela illustre un principe important: plus vous vous rapprochez du matériel (« du métal » dans le langage logiciel), plus il est rapide. Mais cette approche est limitative, et la destination du voyage pour la technologie en général et la technologie des médias est explicitement dans l’autre sens: vers la virtualisation et l’abstraction. Et ce sera bon pour nous tous.

Nous allons déballer cela bientôt dans un prochain article.

(function(d, s, id) var js, fjs = d.getElementsByTagName(s)[0]; if (d.getElementById(id)) return; js = d.createElement(s); js.id = id; js.src = « //connect.facebook.net/en_GB/all.js#xfbml=1&status=0 »; fjs.parentNode.insertBefore(js, fjs);
(document, ‘script’, ‘facebook-jssdk’));

Les réseaux sociaux sont un moyen pratique pour votre offre de photographies, adaptées à la mélodie markéting que vous ambitionnez publier sur les moteurs de recherche.

Si votre agence de com n’a pas les moyens de missionner des techniciens images créatifs, il y a un très bon moyen de la confectionner. Plus d’informations à propos de vidéos d’entrepriseen retrouvant les développements page 1. Une interview suppose notamment d’obtenir un avis des téléspectateurs et par conséquent de toutes les générations.

Livres sur le même thème:

La haute et la basse définition des images.,Clicker Ici .