Accueil » Dossier » Le processeur Cell » Page 5

Le processeur Cell

1 : Introduction 2 : La première révolution RISC 3 : La quête d’un meilleur ILP 4 : L’aveu d’un échec 6 : Les nouveaux enjeux 7 : Le CELL : une vue d’ensemble 8 : Les SPE : la force du Cell 9 : Les SPE : la force du Cell (suite) 10 : Le PPE : le maître d’œuvre 11 : Le PPE : le maître d’œuvre (suite), l'EIB 12 : Conclusion

L’aveu d’un échec (suite)

Avec l’Athlon, AMD s’inspirant au passage de l’architecture Alpha de Digital a misé sur l’accroissement de l’ILP en multipliant décodeurs et unités d’exécution. IBM a suivi la même voie avec son PowerPC 970 en misant également sur l’augmentation de la fréquence par rapport à son prédécesseur. Le Pentium 4 est entièrement dédié à permettre une montée rapide de sa fréquence mais a néanmoins le mérite d’avoir apporté quelques nouveautés, comme le trace cache par exemple qui découple le décodage des instructions de la section critique du pipeline. Pour l’Athlon 64 AMD s’est une fois encore inspiré des idées des ingénieurs de Digital et a intégré le contrôleur mémoire au sein du CPU. Toutes ces petites modifications ont eu indéniablement un effet bénéfique sur les performances mais rien du niveau de l’exécution pipelinée, superscalaire ou dans le désordre.

Enfin, la preuve la plus flagrante nous nous trouvons actuellement au point d’inflexion est le fait qu’AMD et Intel se lancent à corps perdu dans cette voie du multicore alors que pour eux c’est clairement la pire des solutions pour augmenter les performances de leurs processeurs. En effet, et vous avez pu le constater dans nos tests, les performances des architectures multicore dépendent de la façon dont sont codés les logiciels. Pour en tirer parti ces derniers doivent être threadés, ce qui d’une part est rarement le cas, d’autre part est compliqué pour les développeurs. Autrement dit contrairement aux générations précédentes il n’y aura pas de gain de performances immédiat en changeant de processeur. Vous me direz, et vous aurez parfaitement raison, que le passage au Pentium a demandé la recompilation des programmes pour tirer vraiment parti de l’architecture superscalaire et que ce fut aussi le cas pour le Pentium PRO/Pentium II voire pour le Pentium 4. Malheureusement cette fois ci une simple recompilation des logiciels ne pourra pas jouer le rôle de sauveur, et il faudra remanier l’architecture des logiciels pour tirer vraiment parti des processeurs multicore.

Les mauvaises évaluations sur la mort des architectures monoprocesseur auront eu l’heureuse conséquence de pousser très tôt les recherches dans le domaine des machines multiprocesseurs. Deux groupes de machines multiprocesseurs ont émergés de ces recherches :

  • les machines à mémoire centralisée
  • les machines à mémoire distribuée
Le premier groupe de machine est le plus populaire et c’est celui qui s’est imposé notamment dans les stations de travail ou les serveurs de petite et moyenne taille. Dans ce type d’architectures tous les processeurs se partagent une mémoire centralisée unique. Comme il n’y a qu’une mémoire et que son temps d’accès est uniforme pour tous les processeurs on parle aussi de machines UMA pour Uniform Memory Access.


Le second groupe s’est principalement imposé dans les machines nécessitant un grand nombre de processeurs. L’observation qui a conduit à cette architecture est que lorsque le nombre de processeurs augmente le sous-système mémoire devient rapidement incapable d’offrir une bande passante suffisante. L’idée consiste donc à fournir à chaque processeur son propre espace mémoire, chaque processeur disposant donc d’un débit maximal vers une partie de la mémoire. En contrepartie un accès vers une autre partie de la mémoire doit se faire par le biais d’un réseau d’interconnexion ce qui a pour effet d’augmenter la latence et de complexifier la communication entre les processeurs.


Ce second groupe peut lui-même se subdiviser en deux sous ensembles. Nous avons d’un côté le sous ensemble des machines à mémoire partagée distribué dans lequel l’espace mémoire est partagé. Ce qui signifie pour être clair que la même adresse physique sur deux processeurs correspond à la même case mémoire. Et d’un autre côté celui des multi-ordinateurs dans lequel l’espace d’adressage est constitué de plusieurs espaces d’adressage privés. Dans ce modèle la même adresse physique pour deux processeurs correspond à deux cases distinctes dans deux mémoires différentes.

Sommaire :

  1. Introduction
  2. La première révolution RISC
  3. La quête d’un meilleur ILP
  4. L’aveu d’un échec
  5. L’aveu d’un échec (suite)
  6. Les nouveaux enjeux
  7. Le CELL : une vue d’ensemble
  8. Les SPE : la force du Cell
  9. Les SPE : la force du Cell (suite)
  10. Le PPE : le maître d’œuvre
  11. Le PPE : le maître d’œuvre (suite), l'EIB
  12. Conclusion