Abandon de Larrabee : Intel s’explique

Intel a donné des précisions sur les raisons qui l’ont poussé à abandonner le projet Larrabee durant le dernier IDF.

Intel change de modèle

« Je pense juste qu’il n’est pas pratique d’essayer d’exécuter toutes ces fonctions de façon logicielle au regard de la complexité logicielle. Et nous avons rencontré des problèmes de performance par watt en essayant de faire toutes ces choses ». Ce sont les mots de Tom Piazza, un des directeurs en charge du projet, qui soulève le problème de la complexité logicielle inhérente à l’utilisation d’une multitude de cores x86.

Le GPU vivra encore longtemps

C’est un aveu très intéressant pour Intel qui a longtemps prêché la programmabilité des cores, mais qui semble aujourd’hui se tourner vers des composants à fonction fixe, après les déboires de Larrabee. C’est un changement de modèle qui arrive à une étape charnière de l’évolution des processeurs. En effet, la multiplication des cores et l’importance toujours plus grande des modèles logiciels tirant parti du parallélisme demandent que les acteurs soient plus pragmatiques, sous peine de noyer leurs efforts et les rendre vains. Ce discours montre aussi que malgré son intégration dans le CPU, le GPU a encore de beaux jours devant lui.

Intel semble avoir retenu sa leçon et M. Piazza a clairement annoncé qu’il ne pensait pas qu’une solution graphique utilisant l’architecture Larrabee verrait le jour.

Posez une question dans la catégorie Les news : vos réactions du forum
Cette page n'accepte plus de commentaires
27 commentaires
    Votre commentaire
  • Anonyme
    « Je pense juste qu’il n’est pas pratique d’essayer d’exécuter toutes ces fonctions dans le logiciel au regard de la complexité logiciel. Et nous avons rencontré des problèmes de performance par watt en essayant de faire toutes ces choses »

    Le premier logiciel doit pas être remplacé par matériel ?
    0
  • Vikk
    La loose...
    En meme temps, il yavait qu'eux pour y croire :)
    -3
  • seb-de
    Leur architecture est surement très complexe, mais si même Intel galère pour paralléliser un programmes alors cela ne m'étonne pas que les jeux peine tant à exploiter les cores de nos CPU.
    Est ce que quelque part, on n'entrevoit pas là les limites de la multiplications de cores comme à une certaine époque la montée en fréquences???
    0