Se connecter avec
S'enregistrer | Connectez-vous

Larrabee utilisera un PCB 12 couches ?

Par - Source: Fudzilla | B 7 commentaires

Intel LarrabeeLes dernières rumeurs sur Larrabee affirment que la puce demandera un PCB de douze couches, ce qui, si cela se confirme, pourrait rendre l’ensemble extrêmement cher.

Pas aussi simple que des CPU

L’arrivée d’Intel sur le marché des GPU ne semble pas si facile que cela. Alors qu’hier nous craignions que Larrabee ne consomme beaucoup et soit dépourvu de mesures d’économie d’énergie (cf. « Larrabee n’économisera pas d’énergie »), aujourd’hui nous apprenons que le PCB de la carte intégrant le GPU pourrait avoir quatre couches de plus qu’une carte graphique haut de gamme. Ceux qui auront lu l’actualité publiée juste avant auront un air de déjà vu (cf. « Les cartes mères X58 sont chères à fabriquer »).

Mort dans l’oeuf  ?

Nos confrères du site Fudzilla, qui rapportent cette information, n’expliquent pas pourquoi la carte d’Intel demande autant de couches, mais il est clair que si Larrabee souffre de ce défaut à sa sortie, non seulement la firme de Santa Clara devrait trouver peu d’acheteurs, mais surtout peu de partenaires. Tout comme AMD et NVIDIA, Intel compte passer par des partenaires qui fabriqueront les cartes et les commercialiseront. Or, on doute que beaucoup se précipitent sur une carte qui leur coûtera aussi chère à fabriquer. Attendons néanmoins le 12 août, jour d’une présentation officielle de Larrabee, avant de tirer la sonnette d’alarme (cf. « Larrabee présenté le 12 août »).

Commentaires
Interroger un expert

Votre question aux experts de la catégorie Les news : vos réactions du forum

Exemple : Android, ordinateur portable, usb, disque dur

Cette page n'accepte plus de commentaires
  • toys3d , 16 juillet 2008 03:02
    lol,

    il n'y a pas si longtemps, intel critiquait nvidia/AMD sur leur technologie...alors qu'intel ne présentait que des courbes excel sur un powerpoint.
    maintenant que la date de concrétisation approche, c'est:
    consommation et prix élévé.
    si au moins ca pouvait diviser par 20 les temps de rendu sous 3dsmax,l' encodage H264...et faire tourner crysis ;-).
    perso, je doute et j'attends le 12.
    comment une marque qui a fait le core2 n'a pas prévu de désactiver les cores inutiles pour réduire la conso..ils ne se parlent pas les ingé d'intel?..ca promet
  • -1 Masquer
    Anonyme , 16 juillet 2008 07:55
    suis sur qu'avec un bon marketing il ont vendront a la pelle,de nos jour l'important ce n'est pas d'avoir un bon produit,s'est d'avoir une bonne com
  • -1 Masquer
    theomegaman , 16 juillet 2008 09:51
    ça sent la version bêta qu'on sort dans la précipitation pour occuper le terrain en attendant la vraie version 1 !
  • Afficher les 7 commentaires.
  • -2 Masquer
    glitter , 16 juillet 2008 10:22
    Quand on arrive sur un marché nouveau (car un cpu et un gpu, c'est pas la même chose) il est rare de faire des étincelles du premier coup, à part imaginer quelques technologies révolutionnaires.
  • -2 Masquer
    Serious Gilles , 16 juillet 2008 11:04
    la vrai version sera la version 2. La première servira plus à présenter la nouvelle gamme de produit au grand public ainsi que de fourrer le sdk chez les devs etc... et pourquoi pas la version 2 ou 3 dans la prochaine génération de xbox...
  • -2 Masquer
    Basilic et Pistou , 16 juillet 2008 12:13
    Citation :
    ... Ceux qui auront lu l’actualité publiée juste avant auront un air de déjà vu ...

    J'ai lu la news précédente, ça ne me donne pas pour autant un "air de déjà vu", personne sur PPC ne pouvant se vanter de m'avoir déjà vu :lol:  . Par contre, j'ai le très profond "sentiment de déjà vu" !
  • Caabale , 17 juillet 2008 10:23
    toys3dlol,il n'y a pas si longtemps, intel critiquait nvidia/AMD sur leur technologie...alors qu'intel ne présentait que des courbes excel sur un powerpoint.maintenant que la date de concrétisation approche, c'est:consommation et prix élévé.si au moins ca pouvait diviser par 20 les temps de rendu sous 3dsmax,l' encodage H264...et faire tourner crysis ;-).perso, je doute et j'attends le 12.comment une marque qui a fait le core2 n'a pas prévu de désactiver les cores inutiles pour réduire la conso..ils ne se parlent pas les ingé d'intel?..ca promet


    C'est pas aussi simple que ca, hein. Pouvoir desactiver des cores, ca implique de rajouter des "power switches" sur le die, c'est donc une taille plus grande, une hute de tension plus elevee (ir-drop), des performances plus difficiless a atteindre, etc.