Se connecter avec
S'enregistrer | Connectez-vous

Le Snapdragon « 2 » : une PlayStation 3 dans ton smartphone

Par - Source: Tom's Hardware FR | B 26 commentaires
Adreno ?

Les puces Adreno sont dérivées des travaux d'ATi sur les Imageon. En effet, Qualcomm utilisait depuis longtemps des puces ATi sous licence et avait racheté la division mobile de la marque en 2008 pour la renommer en Adreno. L'Adreno 200 est OpenGL ES 2.0, l'Adreno 205 est plus rapide, propose des effets lumineux et une accélération 2D et l'Adreno 220 devrait augmenter les performances.

Qualcomm, qui propose avec le Snapdragon un SoC performant (et très utilisé) fait évoluer sa puce. Actuellement, la société propose plusieurs versions de Snapdragon : la classique, en 65 nm, a un core Scorpio (équivalent à un Cortex A8) et une puce vidéo Adreno 200 (qui est une puce ATi). La version 45 nm a le même core et une puce Adreno 205. Enfin, une version intégrant deux cores Scorpio et une Adreno 205 existe aussi (MSM8260 et 8660).

La prochaine génération — en 28 nm – va proposer un nouveau CPU, un nouveau GPU et le support de la 4G (LTE) en plus de la 3G+. Le nouveau CPU sera — selon Qualcomm — 5 fois plus rapide, essentiellement parce qu'il sera a priori multicore (logiquement deux) et OoO (Out of Order, comme le Cortex A9). Concrètement, on devrait arriver au niveau des récents Cortex A9. La partie graphique évolue aussi, avec un Adreno 300 qui serait équivalent à la puce graphique d'une Xbox 360 ou d'une PlayStation 3 et compatible OpenCL. Qualcomm parle d'un gain de 400 % face à l'Adreno actuel.

Enfin, le MSM8960 devrait consommer 75 % de moins que le Snapdragon actuel, ce qui est intéressant. Reste à attendre 2011 (et sûrement 2012) avant de voir débarquer ce SoC.

Commentaires
Interroger un expert

Votre question aux experts de la catégorie Les news : vos réactions du forum

Exemple : Android, ordinateur portable, usb, disque dur

Cette page n'accepte plus de commentaires
  • -4 Masquer
    cyrano , 18 novembre 2010 11:07
    Playstation 2, je veux bien mais 3...
  • Aimame , 18 novembre 2010 11:42
    Il me semble que de mémoire c'est une carte Nvidia RSX conçu spécialement pour la PS3 en collaboration avec sony. Ce qui équivalait à l'époque une 7800GTX...

    Nvidia en est à la GTX580, un différence énorme sépare ces deux cartes. Il ne me paraitrait pas étonnant qu'aujourd'hui d'autre constructeur puisse atteindre de telle "performance"... qui date quand même de 4 et bientôt 5ans, ce qui est énorme en terme d'évolution technologique...
  • delphi_jb , 18 novembre 2010 13:13
    AimameIl me semble que de mémoire c'est une carte Nvidia RSX conçu spécialement pour la PS3 en collaboration avec sony. Ce qui équivalait à l'époque une 7800GTX... Nvidia en est à la GTX580, un différence énorme sépare ces deux cartes. Il ne me paraitrait pas étonnant qu'aujourd'hui d'autre constructeur puisse atteindre de telle "performance"... qui date quand même de 4 et bientôt 5ans, ce qui est énorme en terme d'évolution technologique...

    effectivement. Depuis la serie 7xxx de nvidia, y a eu les serie 8xxx, 2xx, et maintenant Fermi en version b. On a donc 3 génération d'architecture de l'un à l'autre. Autant dire un gouffre quand on vois en plus le bon de performance qu'il y a eu au passage des 7xxx vers les 8xxx (merci l'architecture unifié).

    Mais quand meme, je salue la performance car si nous connaissons les chiffres, ils faut garder a l'esprit qu'une PS3 nous eblouit toujours de ces performances malgré sa "petite" RSX...
  • Afficher les 26 commentaires.
  • -1 Masquer
    Anonyme , 18 novembre 2010 13:30
    aucune utilité cette puissance si c'est pour jouer a l'écran tactile
    je rêve de smarphone avec de vrais boutons pour le gaming
  • draxssab , 18 novembre 2010 13:38
    Ce que j'en comprend, c'est que la PS3 et la Xbox360 doivent évoluer, car si une puce de téléphonne, qui consomme en plus 75% moins que l'actuelle peu faire mieux que 2 grosses consoles qui chauffe à la tonne et on un ventilo qui fait un bruit d'enfer, il y a un problème :D 

    J'aime l'évolution de l'électronique :D  dire qu'on met aujourd'hui dans une seule puce ce qu'il fallait mettre dans une tour il y a pas si longtemps.
  • delphi_jb , 18 novembre 2010 13:40
    bob le mocheaucune utilité cette puissance si c'est pour jouer a l'écran tactileje rêve de smarphone avec de vrais boutons pour le gaming

    on disait ca aussi pour les i-phones a l'epoque, puis une petite société du nom de Epic (^^) a jugé cette puissance assez "utile" que pour porter l'unreal engine 3 dessus ! et pour avoir testé la demo, je peux dire que c'est impressionnant.

    mais la ou je rejoint le train en marche, c'est bien pour le gameplay des smartphone. pas terrible...
  • bebRito , 18 novembre 2010 13:41
    bob le mocheaucune utilité cette puissance si c'est pour jouer a l'écran tactileje rêve de smarphone avec de vrais boutons pour le gaming
    Ca existe déjà ... Le HD Desire Z par exemple.
    Mais franchement, si c'est vraiment pour jouer autant prendre une machine dédié à ça : une vrai console, pas un smartphone qui lui est ... un téléphone !
  • delphi_jb , 18 novembre 2010 13:42
    draxssabJ'aime l'évolution de l'électronique dire qu'on met aujourd'hui dans une seule puce ce qu'il fallait mettre dans une tour il y a pas si longtemps.

    et dans un énorme hangar du temps de la guerre pour décoder des méchant message japonais ^^
  • magellan , 18 novembre 2010 13:50
    Heuuu ne pas oublier que la PS3 a été lancée il y a 4 ans (16/11/2006 au Japon), et que la puce elle-même date d'avant cette date (archi type NV40... donc celle de la série 6800GTX... ça date tout de même).
  • delphi_jb , 18 novembre 2010 14:07
    magellanHeuuu ne pas oublier que la PS3 a été lancée il y a 4 ans (16/11/2006 au Japon), et que la puce elle-même date d'avant cette date (archi type NV40... donc celle de la série 6800GTX... ça date tout de même).

    Effectivement, c'est a la base c'est du NV40, donc serie 6xxx. Mais surdopé a la sauce G70 et G71 auquel il empreinte des bout d'architecture (24 pixels pipeline et 8 vertex engine, contre 16 et 6 dans les 6800 ultra) ce qui la met, au niveau performance, bien plus proche d'une 7xxx que d'une 6xxx.
  • -1 Masquer
    masterjeje84 , 18 novembre 2010 15:53
    mouaiis tout ceci ne sont que des suppositions,faut arreter de rever faut pas croire que les jeux sur des smartphone vont etre plus beaux que sur xbox360 ou ps3!!mdr le cortex A8 est sur le papier plus performant qu'une ps2 ou xbox mais quand on voit les jeux on dirai pas!quand a la demo de epic et bien...c une demo rien de plus que du precalculé.. j'attends de voir un vrai jeu bien nerveux avec une IA et des explosions partout le tout a 60fps sur un smartphone...sans compter le degagement thermique on me fera jamais croire que puissance rime avec economie!parce si c'etait le cas les cartes graphiques des pc serai toutes petites et les pc serait tous micro-atx.ok c 'est pas mal pour des tel mais faut arreter de comparer ce qui n'est pas comparable!
  • dandu , 18 novembre 2010 16:11
    Masterjeje : la demo Epic, c'est un jeu qui arrive, et sinon y a Rage sur iPhone/iPad, qui est superbe

    Et faut pas comparer aux PC, on a six ans de retard, en gros. Une GeForce 3 (en gros ce que propose le PowerSGX 535 utilisé avec les Cortex A8) gravée avec les trucs de maintenant, ça chaufferait pas non plus
  • draxssab , 18 novembre 2010 16:26
    masterjeje84j'attends de voir un vrai jeu bien nerveux avec une IA et des explosions partout le tout a 60fps sur un smartphone...

    Faudrait d'abord que ça tourne à 60FPS sur une console... car là ça lag parfois, donc on a probablement une moyenne de 40fps, quand même loin des 60 ;) 
  • delphi_jb , 18 novembre 2010 16:37
    masterjeje84quand a la demo de epic et bien...c une demo rien de plus que du precalculé...

    Mais est tu au courant que le jeux video est, par définition, du précalculé d'un bout a l'autre ? cela s'appel la rastérisation. on précalcule tout a l'avance, lumiere, mesh,... et on compacte ca dans des gros fichier qui seront décompacté au fur et a mesure du jeu. Et ce, quel que soit le support, ps3, pc, i-phone,...

    le seul jeux video qui n'est pas précalculé comme tu dis c'est la démo du jeux quake wars (de souvenir) en full raytracing temps réel faite par Intel.

    EDIT: en plus, cette demo, du nom d'"Epic Citadel", est une démo jouable...
  • delphi_jb , 18 novembre 2010 16:46
    DanduMasterjeje : la demo Epic, c'est un jeu qui arrive, et sinon y a Rage sur iPhone/iPad, qui est superbeEt faut pas comparer aux PC, on a six ans de retard, en gros. Une GeForce 3 (en gros ce que propose le PowerSGX 535 utilisé avec les Cortex A8) gravée avec les trucs de maintenant, ça chaufferait pas non plus

    le truc qui se passe c'est que ce "retard" n'était pas préjudiciable étant donné que les ecran etait en basse résolution. du moment qu'il savais calculer les triangle et jouer avec ses texture, le jeu tournai fluide meme avec l'équivalent d'une geforce 3.
    Seulement voila, les nouveau smartphone avec leur définition toujours en hausse redirige le marché du GPU embarqué vers une nouvelle direction, plus puissante. Et il ne faut surtout pas stopper l'évolution de ce marché, car avec les contrainte de chauffe, il se pourrai bien que la solution sur l'avenir du gpu low consommation viennent de ces petite puce...
  • -1 Masquer
    draxssab , 18 novembre 2010 16:55
    effectivement, à voir l'efficacité des ARM actuels je me demande quand l'architecture x86 évoluera pour atteindre ce niveau, car pour l'instant, oui on a de la puissance, mais 95W c'est quand même beaucoup!
    De plus, on se rapproche de plus en plus du point où la finesse de gravure ne règlera plus le problème.
  • magellan , 18 novembre 2010 16:57
    +1: quand on voit la taille des ventirads de cg actuelles, ça fait craindre le pire question chauffe. pire encore: avec les drivers permettant d'accéder aux sondes, il y a de quoi s'inquiéter concernant le fonctionnement interne de ces engins.

    De là, vu que les smartphones multiplient les pixels, gèrent une accélération hard pour que l'ihm soit elle aussi intégrée (et non plus gérée par le processeur central), il y a fort à parier que toute évolution en terme de consommation/chauffe conçue pour les mobiles pourraient favorablement influer sur la conception des prochains chips des CG.
  • dandu , 18 novembre 2010 17:10
    On voit bien les Atom/le Bobcat d'AMD qu'il est possible de faire des trucs basse conso en x86, et en descendant la fréquence on arrive pas loin de la conso des CPU ARM.

    Globalement, un Atom à 1 GHz sur un bus ralenti, ça consomme rien et c'est du niveau d'un ARM

    Faut bien se dire que si un ARM consomme "rien", les perfs sont faibles et l'architecture datée. Ce que va propose le Snapdragon 2 (et ce que propose le Cortex A9), c'est ce qu'Intel a fait en passant du Pentium au Pentium Pro...
  • -1 Masquer
    delphi_jb , 18 novembre 2010 17:12
    Citation :
    +1: quand on voit la taille des ventirads de cg actuelles, ça fait craindre le pire question chauffe. pire encore: avec les drivers permettant d'accéder aux sondes, il y a de quoi s'inquiéter concernant le fonctionnement interne de ces engins.

    De là, vu que les smartphones multiplient les pixels, gèrent une accélération hard pour que l'ihm soit elle aussi intégrée (et non plus gérée par le processeur central), il y a fort à parier que toute évolution en terme de consommation/chauffe conçue pour les mobiles pourraient favorablement influer sur la conception des prochains chips des CG.

    c'est clair, ca c'est deja vu en plus dans les CPU. Je parle du temps ou Intel n'avais plus la cote, et que l'architecture "centrino" (prémice de l'architecture "CORE" version portable) a tout révolutionné. la solution venait donc de la division portable d'Intel.

    tout cette belle histoire pour dire qu'il faut en tirer des bonnes conclusions et garder cela comme une belle "expérience acquise" ^^
  • -1 Masquer
    nystep , 18 novembre 2010 18:49
    je suppose qu'ils disent que ce sera équivalent en termes de fonctionnalités, mais pas de performances...

    pour rappel le powervr sgx qui équipe l'iphone 3gs et le samsung galaxy s est déjà compatible shader model 4, comme les geforce 8 et +.
Afficher plus de commentaires