Accueil » Dossier » Le processeur Cell » Page 4

Le processeur Cell

1 : Introduction 2 : La première révolution RISC 3 : La quête d’un meilleur ILP 5 : L’aveu d’un échec (suite) 6 : Les nouveaux enjeux 7 : Le CELL : une vue d’ensemble 8 : Les SPE : la force du Cell 9 : Les SPE : la force du Cell (suite) 10 : Le PPE : le maître d’œuvre 11 : Le PPE : le maître d’œuvre (suite), l'EIB 12 : Conclusion

L’aveu d’un échec

La réponse c’est le multi core dont Intel et AMD ne cessent de nous vanter leurs mérites. IBM de son côté s’est penché sur la situation actuelle et s’est demandé si cette suite logique était la bonne voie à suivre. Et selon les chercheurs de Big Blue la réponse est non. Pour cela IBM a cherché à déterminer quelles étaient les applications actuelles et futures pour lesquelles la puissance était vraiment un facteur déterminant et quels étaient les moyens les plus efficaces pour augmenter les performances de ce type d’applications. La réponse est évidente : les applications les plus intensives sont les applications multimédia : son, vidéo ou encore affichage 3D. Et, tels les chercheurs des années 70 qui n’ont pas hésité à remettre les concepts traditionnels des architectures des microprocesseurs au placard, IBM et ses alliés ont également décidé d’abandonner plusieurs des techniques qui semblent aujourd’hui indissociables des processeurs modernes. Tout ceci dans un seul but : celui d’offrir plus de performance aux applications en ayant réellement besoin.

Avant de continuer j’aimerais me permettre une petite digression. Ce n’est sans doute pas la première fois que l’on vous rabat les oreilles avec la mort des architectures monoprocesseurs traditionnelles. Il est vrai que depuis quelques temps les efforts marketings de la plupart des fabricants de microprocesseurs vont dans ce sens et que l’on pourrait croire que cette tendance est assez récente. Beaucoup d’entre vous j’en suis persuadé pensent en effet que c’est l’échec de la montée en fréquence du Pentium 4 qui a révélé le problème, pourtant cela fait longtemps que les architectes se sont penchés sur cette question. Pour vous en convaincre lisez les citations qui suivent et essayez (sans tricher !) de deviner de quand elles datent :

« La recherche de voies alternatives à la structure classique débuta au milieu des années 60 quand la loi du rendement décroissant commença à prendre effet dans l’effort d’amélioration de vitesse du fonctionnement des ordinateurs… Les circuits électroniques sont limités en dernier ressort en vitesse de fonctionnement par la vitesse de la lumière… et beaucoup de circuits fonctionnaient déjà dans la gamme des nanosecondes. » (Bouknight et al.)

« Les ordinateurs séquentiels approchent une limite physique fondamentale dans leur puissance de traitement potentielle. Une telle limite est la vitesse de la lumière. » (A.L.DeCemaga)

« Les machines d’aujourd’hui… sont proches de l’impasse avec les technologies approchant la vitesse de la lumière. Même si les composants d’un processeur séquentiel pouvaient travailler à cette vitesse, le mieux que l’on puisse espérer est borné par quelques millions d’instructions par seconde. » (Mitchell)


Je vous aide : ces citations font l’ouverture du chapitre 8 de la seconde édition du livre « Architecture des Ordinateurs : une approche quantitative. » qui date de 1996. Inutile de continuer ce petit jeu plus longtemps, vous avez déjà du comprendre où je voulais en venir : la première citation date de 1972 ! Les deux autres de 1989. On peut donc constater que si au niveau industriel cela fait peu de temps que le multiprocesseur focalise l’attention, dans le milieu de la recherche on s’inquiète depuis longtemps des alternatives permettant de poursuivre la montée en performance incroyable que l’on a connue.

Il est aussi amusant de constater que ces prédictions étaient inutilement alarmistes et bien trop en avance sur leur époque : en effet depuis 1989 nous avons connu de nombreuses innovations qui ont permis une augmentation fulgurante des performances parmi lesquelles les processeurs superscalaires (processeurs capables de lancer l’exécution simultanée de plusieurs instructions dans des unités distinctes) ou l’exécution des instructions dans le désordre (possibilité de réagencer les instructions d’un programme pour mieux tirer parti des ressources hardware disponibles), la prédiction de branchement (capacité de déterminer lors d’un branchement s’il a statistiquement plus de chance d’être pris ou non, évitant ainsi une suspension du pipeline), etc. Se pourrait il donc que les oiseaux de mauvaise augure qui prédisent la mort des architectures monoprocesseurs se trompent une fois de plus et que de nouvelles innovations vont relancer la croissance des performance au même rythme que nous l’avons connue jusqu’ici ?

Soyons francs : c’est peu probable. Si les prédictions citées ci-dessus étaient indéniablement prématurées, le raisonnement qui a amené leurs auteurs à de telles conclusions reste malheureusement tout ce qu’il y a de plus correct. Comme nous l’avons vu plus haut l’augmentation de l’ILP est limitée par la loi des rendements décroissants ; quant à l’augmentation de la fréquence elle se heurte à plusieurs phénomènes physiques. Il est aussi peu vraisemblable que de nouvelles techniques apparaissent et augmentent radicalement les performances comme nous avons pu le connaître par le passé. Pour s’en convaincre il suffit de regarder les dernières architectures d’AMD, Intel ou de la gamme PowerPC d’IBM. Un rapide coup d’œil à ces architectures révèle qu’elles n’ont rien apportées de fondamentalement nouveau par rapport aux précédentes.

Sommaire :

  1. Introduction
  2. La première révolution RISC
  3. La quête d’un meilleur ILP
  4. L’aveu d’un échec
  5. L’aveu d’un échec (suite)
  6. Les nouveaux enjeux
  7. Le CELL : une vue d’ensemble
  8. Les SPE : la force du Cell
  9. Les SPE : la force du Cell (suite)
  10. Le PPE : le maître d’œuvre
  11. Le PPE : le maître d’œuvre (suite), l'EIB
  12. Conclusion