Se connecter avec
S'enregistrer | Connectez-vous

Fusion Render Cloud : l'idée folle d'AMD

Par - Source: Tom's Hardware FR | B 34 commentaires

Lors de sa Keynote introductive du CES, AMD a lancé un drôle de pavé dans la mare : le Fusion Render Cloud. L'idée, qui nous paraît assez folle est celle-ci : déléguer le rendu des jeux vidéo ou autres applications 3D très gourmandes à un super serveur, qui renvoie ensuite le rendu précalculé à n'importe quelle machine via le réseau. Selon AMD, on pourrait ainsi jouer aux derniers titres même sur un netbook. Autre exemple : on pourrait visionner un film haute définition sur son téléphone portable dans les transports, et continuer la séance sur sa télévision full HD une fois rentré chez soi, sans interruption. Enfin, et peut-être surtout, ce "Render Cloud" pourrait donner des ailes aux studios cinématographiques en leur donnant les moyens de créer des effets spéciaux beaucoup plus complexes.

Jouer sur un supercalculateur graphique

La magie derrière ce nuage de calcul consistera bien sûr en de nombreux CPU et GPU Phenom II et Radeon. Mais AMD comptera aussi sur la plateforme logicielle développée par une start-up : OTOY. Le premier "Render Cloud" sera mis en production au second semestre 2009. Grâce à la puissance combinée de plus de 1000 GPU, il devrait pouvoir dépasser le seuil symbolique du petaFlops, et du million de threads simultanés.

Un nouveau modèle à inventer

Cette initiative d'AMD nous laisse perplexes. Non seulement il nous semble utopique de penser que la bande passante et la fiabilité des connexions internet (et notamment mobiles) actuelles suffiront à satisfaire les besoins de millions de joueurs, mais en plus il nous semble qu'AMD se coupe l'herbe sous le pied : si le Render Cloud rend la carte graphique interne du PC inutile, à qui AMD vendra-t-il ses Radeon ? Et vous, seriez-vous prêt à abandonner votre carte graphique pour faire confiance à méga-serveur ?

Commentaires
Afficher les 34 commentaires.
Cette page n'accepte plus de commentaires
  • -4 Masquer
    Anonyme , 12 janvier 2009 12:44
    Encore une idée fumeuse d'AMD pour continuer à exister.
  • gregtrash , 12 janvier 2009 12:45
    Effectivement d'un point de vue technique ça semble être compliqué.
    Le concept me semble boiteux..
    Surtout que la tendance jusqu'ici était de "mutualiser" les ressources des "personnal computers" sur la toile afin d'émuler des supercalculateurs... Je veux bien qu'on m'explique comment faire l'inverse.
  • Ludovic 500 , 12 janvier 2009 12:48
    à la deuxième question, ma réponse est claire et nette, c'est non, je ne risque pas de faire confiance, au vu du débit plus que variant et allant à la baisse continuellement, à un serveur pour afficher des images 3D....
  • thyrion , 12 janvier 2009 13:07
    Ba ils vendront leur Radeons à leur serveurs :o 
  • Anonyme , 12 janvier 2009 13:14
    Ben pas si faux peut-être.

    Les prochain Windows (tout comme SQL Server,...) aussi se baseront aussi sur une architecture Cloud.
  • chamane75 , 12 janvier 2009 13:34
    Je trouve l idee genial tres avangardiste et tous ceux qui doute qu il retourne en 1990 ou faire de la video en streaming ete aussi utopique...
    Avec une bande passante de 100mbit et si chez chaque fournisseur il y a un enorme serveur pour fournir la puissance comme il fournisse un service televisuelle qui lui est encode en temps reel...
    Vous etez pas tres visionnaire...
    Moi j y crois et je pense que c est le futur :) 
  • babinours1st , 12 janvier 2009 13:37
    Economiquement, ils vendront des abonnement, ce n'est pas un soucis; par contre le probleme sera la latence et le débit...
  • braindeadbzh , 12 janvier 2009 13:46
    Pour les jeux c'est même pas la peine, déjà que les gamers se plaignent des latences des clavier/souris sans fil :)  alors la ...

    Pour le rendu des appli comme Maya, 3DSMax &Co, oui pourquoi pas, mais c'est pas nouveau, les studios d'animations ont déjà des farms qui font ça.
  • chamane75 , 12 janvier 2009 14:18
    Je sais pas je pense qu avec un logiciel comme streammygame ca devrait fonctionner... Je suis pas aussi negatif que vous. Mais bon faut pense sur 10ans...
  • -1 Masquer
    jojolemariole , 12 janvier 2009 14:40
    euh 100 Megabits par seconde c'est que dalle, ça fait 30fps en 1024 * 768, franchement pour ces résultats là c'est quand même plus intéressant d'avoir une carte graphique à la maison (en plus en termes d'énergie c'est beaucoup plus économe par les temps qui courent)

    et même si le débit suit, la latence est un problème bcp plus important, c'est pas qu'une question d'années c'est une question de physique, à la vitesse de la lumière en 25ms on fait que 7500 Km sachant qu'il y a des ralentissement et des latences à chaque nœud du réseau il faudrait des serveurs dans chaque ville fin bref pour moi on ne verra jamais ça en tout cas pas dans des réseaux optiques

    après pour le rendu 3d de scènes complexes là je dis pas, le temps de calcul est bcp plus important que le volume des résultats et ya pas vraiment de contrainte temps réel
  • Anonyme , 12 janvier 2009 14:45
    jojolemarioleeuh 100 Megabits par seconde c'est que dalle, ça fait 30fps en 1024 * 768

    Non...
    1024*768 en 32bit couleur à 30fps ca fait 90Mo/s (MB/s) = 720Megabit/s (Mb/s)
  • delocalise , 12 janvier 2009 14:45
    Cette solution est intéressante si le serveur est local et fait parti du réseau domestique. Chacun pourrait avoir son propre serveur de calcul et en augmenter la puissance en achetant plusieurs carte gpgpu. C'est un bon moyen d'augmenter le marché de la carte vidéo/gpgpu.
  • lildadou , 12 janvier 2009 14:55
    C'est une idée qui est loin d'être mauvaise.
    Qui utilise sa CG tout le temps? Avec la mutualisation de la puissance de calcul il y aura moins de puissance inutilisée.

    Puis pour les jeu en réseau, j'ai jamais entendu personne gueuler pour un ping de 25ms... donc pourquoi pour le jeu tout court sa n'est pas concevable?
  • lildadou , 12 janvier 2009 14:59
    Citation :
    Non...
    1024*768 en 32bit couleur à 30fps ca fait 90Mo/s (MB/s) = 720Megabit/s (Mb/s)


    La news parle de pré-calcul pas de streaming RAW pas compressé.
    Par exemple dans la compression DivX (lors de la premier passe), on cherche les vecteurs de mouvements. Cette information pèse rien du tout et elle est très difficile à calculer, c'est là que le Cloud intervient.
  • matthieu lamelot , 12 janvier 2009 15:12
    Citation :
    La news parle de pré-calcul pas de streaming RAW pas compressé

    Tout à fait : les images prérendues sont compressées avant transmission. Selon un algo non rendu publique mais utilisant sans doute une grande partie des travaux déjà effectués par d'autres...
  • -1 Masquer
    okey-dokey , 12 janvier 2009 15:18
    Franchement quand on voit la bande passant et le débit de données qu'il faut en interne à la machine pour avoir des perf correctes de nos jours, je doute que ce soit autre chose qu'une douce utopie.

    Le problème c'eest que l'evolution des connexions réseaux (même locales) n'a rien à voir avec celle des besoins en terme d'usage et de puissance.
    Beaucoup de réseaux sont encore au 100Mbit/s (soit 11Mo/s grand max), je ne parle meme pas du Wifi et autre CPL qui plafonnent sérieusement.
    11Mo/s meme pas le dizième du débit du bus PCI2.2 à 33Mhz ... Aujourd'hui personne n'envisage de faire tourner un jeux où une appli 3D un peu récents sur une carte PCI ...
    Et il faudra plus qu'une simple généralisation du réseau Gbit pour cela.. ou alors on fait de la compression de données dans tous les sens, mais là pourquoi ne pas l'exploiter en interne pour encore améliorer les rendus ?
  • jojolemariole , 12 janvier 2009 15:47
    auta
    soaNon...1024*768 en 32bit couleur à 30fps ca fait 90Mo/s (MB/s) = 720Megabit/s (Mb/s)


    oups autant pour moi, évidemment c'est encore pire du coup.

    Citation :
    Puis pour les jeu en réseau, j'ai jamais entendu personne gueuler pour un ping de 25ms... donc pourquoi pour le jeu tout court sa n'est pas concevable?


    heureusement la latence réseau n'est pas la latence locale sinon je peux te dire qu'avec un retard de 100ms entre un mouvement de la souris et le mouvement à l'écran tu vas avoir du mal à faire des headshots

    Citation :
    Tout à fait : les images prérendues sont compressées avant transmission. Selon un algo non rendu publique mais utilisant sans doute une grande partie des travaux déjà effectués par d'autres...


    Faut pas pousser quand même pour une image de jeu video récent (graphismes complexes, végétations, nuages...) une compression sans perte ferait pas gagner beaucoup (en tout cas ça diviserait pas par 10)


  • Oracle , 12 janvier 2009 15:54


    Et si AMD commençait par produire des drivers capable de gérer le CrossFireX avec plus de 2 GPUs correctement, ce serait bien... Aussi..! Non ?

    Parce que je peux vous dire de ce coté là ce n'est pas la gloire. :heink: 

    C'est bien beau les projets d'avenir, pendant que rien ne fonctionne au présent... :sarcastic: 
  • Edy , 12 janvier 2009 16:05
    L'idée n'est pas mauvaise sur des portables par exemple ou le moindre système graphique vaut une fortune, pour le reste faudra du temps et des évolutions qui prendront du temps.
    En tous cas si ça ce généralise, j'imagine la demande de bande passante lors d'un concours de jeux vidéo....XXTb/s, là à moins de mettre le serveur sur place ça risque d'être dur !
  • -1 Masquer
    kervern , 12 janvier 2009 16:41
    tient déjà le flop de 2009. ou 2010 :p 
    abonnement mensuel ou a l'acte on va revenir au monnayeur sur le pc comme nos vielle borne d'arcade :D 
Afficher plus de commentaires