Se connecter avec
S'enregistrer | Connectez-vous

60 téraflops pour Fujitsu et le Japon

Par - Source: Tom's Hardware FR | B 17 commentaires

Fujitsu vient d'être choisi pour construire un supercalculateur pour l'université de Nagoya au Japon, dans son département Information Technology Center. La machine, un cluster basé sur trois architectures différentes, devrait proposer une puissance de 60 téraflops (au maximum).

Trois types de machine

La première partie des machines est composée de SPARC Enterprise M9000. Ces serveurs utilisent des Sparc 64 VII (des processeurs à quatre cores) et 3 groupes sont proposés, chacun dotés de 1 To de mémoire et de 24 processeurs (il y a donc un total de 384 cores et 3 To de mémoire). La seconde partie utilise des processeurs x86 (des Opterons) dotés de quatre cores (serveur de type HX600). L'ensemble est composé de 160 serveurs chacun doté de quatre processeurs (soit un peu plus de 2 560 cores au total). L'ensemble, sous Linux, dispose de 10 To de RAM au total. Enfin, la troisième partie utilise des Sparc 64 VII (comme la première) avec un chipset optimisé pour la bande passante entre les systèmes. Elle est équipée de 768 processeurs (3 072 cores) et de 24 To de RAM. Au niveau du stockage, le supercalculateur dispose d'une énorme baie de stockage qui permet de stocker 1,15 Po de données (Po pour petaoctets, soit 1 024 To).

Le supercalculateur devrait être terminé en octobre 2009.

Commentaires
Afficher les 17 commentaires.
Cette page n'accepte plus de commentaires
  • Krabardaf , 23 mars 2009 18:28
    Comparativement à jaguar et road runner, c'est presque ridicule ^^
  • -1 Masquer
    draxssab , 23 mars 2009 19:02
    10To de RAM et 1,15Po de stockage :ouch: 

    à quand ces chiffres faramineux dans nos machines? :love: 
  • Krabardaf , 23 mars 2009 19:30
    Quand on aura besoin de ça ? ^^"
  • -9 Masquer
    Iksarfighter , 23 mars 2009 20:12
    Le pire c'est que ça sera sous-utilisé par des ploucs qui ne savent même pas projeter ou programmer.
    Mais bon, ils pourront se la péter après avoir foutu plein de pognon en l'air.
  • tactactac , 23 mars 2009 20:30
    iksarfighterLe pire c'est que ça sera sous-utilisé par des ploucs qui ne savent même pas projeter ou programmer.Mais bon, ils pourront se la péter après avoir foutu plein de pognon en l'air.


    Alors que toi, t'es un champion de la programmation, non ?
  • -6 Masquer
    Iksarfighter , 23 mars 2009 20:38
    Ben ouais ! Calcul en assembleur de factorielle 1000 en hexa en 1mn15 sur MC6809 8/16 bits à 0,9Mhz. 6mn pour avoir le résultat en décimal !
    Alors les pétaflops c'est pour se la pétaflopper c'est tout !!!
  • tactactac , 23 mars 2009 20:45
    au moins, tu m'offres une bonne tranche de (sou)rire ce soir... Merci pour ça !
  • -3 Masquer
    Iksarfighter , 23 mars 2009 20:48
    Héhéhéhéééééé ;-)
  • Anonyme , 23 mars 2009 20:50
    C'est clair qu'il faut de la puissance pour calculer au plus serré un plan social...
  • zoidberg , 23 mars 2009 22:43
    ca serait pas plutot 288 cores pour le premier?
  • flob9 , 23 mars 2009 23:56
    iksarfighterLe pire c'est que ça sera sous-utilisé par des ploucs qui ne savent même pas projeter ou programmer.Mais bon, ils pourront se la péter après avoir foutu plein de pognon en l'air.


    Le plouc c'est surtout celui qui n'a pas encore capté que les grosses bécanes c'est pas des PC (personnal computer) mais des bécanes utilisées par plusieurs (centaines surement) utilisateurs (serveurs); dans ce cas c'est même précisé que c'est pour une université ...

    Ceci dit, autant je peux comprendre le besoin en puissance de calcul, mais au niveau du stockage, je reste sceptique sur l'utilité de la chose ... Ils veulent concurrencer Google ? :p 

  • Eric B , 24 mars 2009 01:09
    euh, bien souvent, les "super computer" du top500 (www.top500.org) ne sont ni des workstations pour 1, ni des serveurs pour des millers d'utilisateurs en // mais plutot des plates formes de recherche et de simulation. Un cas assez classique est la prévision météo avec des calculs et systèmes mathématiques de bourrin (enfin surtout des maillages très fin qui générent bcp de variables à traiter en //, cf http://fr.wikipedia.org/wiki/Pr%C3%A9vision_num%C3%A9rique_du_temps) . Ceux qui commandent de telle machines savent ce qu'ils font, ce qu'il vont faire avec, et comment la programmer (ou dans ce cas, ils savent former les étudiants pour la programmer).
    Quant au stockage, eh bien c est tjs pareil, il faut bien avoir de quoi sauvegarder les immenses quantités de données générées par les calculateurs.
  • glitter , 24 mars 2009 08:43
    Y'en a qui ont l'air d'ignorer le nombre de domaine où le plus puissant ordinateur est très loin de faire l'affaire au niveau puissance de calcul, la météo étant juste un exemple.
  • Iksarfighter , 24 mars 2009 09:36
    Ce genre de machine sert aussi à simuler des explosions nucléaires.

  • Death_AnGeLuS , 24 mars 2009 10:19
    C'est un supercalculateur, par définition, il calcule! Il sera surement utilisé pour des simulation météorologique, spatiales et autre. Il a besoin de beaucoup de stockage, parcequ'il y a un nombre de variable immense à prendre en compte et qui plus est, il faut multiplier toutes ces variables par le temps que dure la simulation (pour une simuler 10 ans d'un effet météo, on se retrouve avec un nombre incommensurable de données).
  • x-alt , 24 mars 2009 10:27
    La meteo, les explosions nucléaires c'est des exemples.
    Il me semble qu'a Nagoya ils travaillent entre autre sur les écoulements d'air pour les ailes et hélices d'avions. Les utilisations d'un calculateur dans une université sont assez nombreuses en fait.
  • VicentiuB , 24 mars 2009 15:43
    chacun dotés de 1 To de mémoire ...ah bon ils ne sont pas limiter a seulement 3 GIG de memoire ram comme sur nos pc ? lol