Accueil » Actualité » CPU Piton : 500 millions de coeurs pour faire tourner des centres de données

CPU Piton : 500 millions de coeurs pour faire tourner des centres de données

Un nouveau type de processeur tente d’améliorer le rendement des centres de données en offrant une architecture optimisée. Le problème est que les réalités commerciales limitent ce genre d’innovation.

Image 1 : CPU Piton : 500 millions de coeurs pour faire tourner des centres de donnéesLe CPU Piton de PrincetonDes chercheurs de l’université de Princeton ont développé un nouveau processeur, qui répond au nom de code Piton. Sa grande particularité est d’avoir une architecture qui peut facilement inclure entre une dizaine et des milliers de coeurs par die. Piton possède aussi une interface qui permet de facilement créer un réseau contenant des centaines de puces pour obtenir des centres de données capables d’exploiter 500 millions de coeurs, selon le communiqué. Le die présenté mesure 6 mm x 6 mm, ce qui est particulièrement petit. Il est gravé en 32 nm par IBM et offre 25 coeurs OpenSPARC T1 en utilisant seulement 460 millions de transistors. Comparativement, les dix coeurs du Broadwell-E demandent 3,4 milliards de transistors.

Optimiser le traitement des données

Le processeur a besoin de moins de transistors parce qu’il est capable, entre autres, de détecter les instructions utilisées par plusieurs programmes dans le but de les réutiliser. Cela permet d’avoir une architecture plus petite et plus économe. L’idée n’est pas nouvelle puisque les architectures d’AMD et Intel offrent quelque chose de similaire sous la forme d’un cache d’opérations. La différence est que le buffer de Piton est nettement plus poussé afin d’accroître le rendement de la puce de 20 % comparativement à un CPU traditionnel, selon les chercheurs.

À lire aussi :
Notre comparatif de processeurs

Optimiser la gestion des ressources

Image 2 : CPU Piton : 500 millions de coeurs pour faire tourner des centres de donnéesQuel futur pour les centres de données ?Piton inclut aussi un système d’analyse qui régule les accès à la mémoire par les logiciels en fonction de leurs besoins, afin d’éviter les goulots d’étranglement. L’architecture s’inspire des puces de traitement numérique du signal en dédiant certaines parties du cache et certains coeurs à certaines applications. Ce type d’architecture améliorerait le rendement du CPU de 29 % comparativement à un modèle classique.

Piton démontre que les fabricants peuvent grandement améliorer leurs designs. De plus, le fait que les chercheurs proposent une version open source de leur architecture aura, on peut l’espérer, un impact positif sur l’industrie. Le grand problème est que les principes derrière les optimisations apportées par Princeton ne sont pas nouveaux, ils sont juste difficiles à implémenter. Il faut des investissements importants en développement pour optimiser les codes et le désir d’ouvrir les architectures CPU pour améliorer l’exploitation des ressources, ce qui est loin d’être l’attitude des fabricants de processeurs aujourd’hui.