Se connecter avec
S'enregistrer | Connectez-vous

Le Kinect pourrait être 4x plus précis

Par - Source: Eurogamer | B 8 commentaires

Microsoft serait en train de travailler sur une méthode de compression des données enregistrées par Kinect afin d’accroître sa précision.

Mieux exploiter les performances des capteurs

Redmond travaillerait sur une technologie qui permettrait d’accroître le nombre d’information qu’il est possible de traiter en même temps. En effet, la résolution du capteur de profondeur est diminuée en raison de la bande passante limitée.

Concrètement, Kinect ne transmet que 15 Mo/s alors que le contrôleur USB de la console est censé pouvoir gérer 35 Mo/s. Microsoft a volontairement imposé cette limite pour satisfaire les cas où plusieurs périphériques USB seraient connectés.

Concrètement, une meilleure compression des données permettrait de traiter une image en provenance du capteur de profondeur de 640 x 480 alors qu’il est aujourd’hui limité à 320 x 240. Cela permettrait de distinguer les rotations de la main et les mouvements des doigts.

Un joli coup marketing

Le nouveau firmware devrait être publié sous la forme d’une mise à jour gratuite téléchargeable depuis la console.

Cette « fuite » est évidemment très intéressante, mais Microsoft s’est refusée à tout commentaire et personne ne donne aucune date de sortie, ni aucune garantie. Bref, on ne peut s’empêcher de penser qu’il s’agit aussi et surtout d’un coup marketing destiné à donner un coup de fouet aux ventes de Noël.

Afficher 8 commentaires.
Cette page n'accepte plus de commentaires
  • philou_06450 , 21 décembre 2010 09:17
    ...=> 320 x 420...

    C'est pas 320 X 240 ? Histoire d'avoir le X4 ?
  • -8 Masquer
    Tito_Parker , 21 décembre 2010 09:31
    Heu je suis estomaqué par cet article... heu on est en informatique, c'est pas de la vente de congélos ou de voitures...

    A ce moment on peut dire que les cartes graphique "pourraient" être plus rapides à leur sortie d'usine que via leur update driver,
    que les ordinateurs "pourraient" être plus plus plus à leur sortie d'usine que via la mise à jour de leur OS par Apple ou Microsoft...

    Tom's hardware c'est le nom de ce site ? Y'a hardware dans le nom, on "pourrait" penser que à la création de ce site ils connaissaient
    leur métier
  • sonney , 21 décembre 2010 10:09
    Tito :
    Le capteur du kinect est sous-exploité à cause de la bande passante, alors même que le hardware supporterait une résolution bien meilleure. C'est une info qui a suffisamment de valeur ajoutée pour être publiée, selon moi.
  • David Civera , 21 décembre 2010 10:31
    hum tito, t'as jamais lu une news de publication de pilote pour carte graphique??? J'ai l'impression que t'es vraiment à côté de la plaque..

    philou - merci, c'est corrigé
  • -3 Masquer
    Tito_Parker , 21 décembre 2010 10:53
    David Civerahum tito, t'as jamais lu une news de publication de pilote pour carte graphique??? J'ai l'impression que t'es vraiment à côté de la plaque..philou - merci, c'est corrigé


    La question n'est pas d'avoir vu ou pas une news de publication de pilote pour carte graphique, mais de mettre un titre au conditionnel et de finir l'article par une rumeur infondée, cela donne au lecteur à penser que ça a été fait expres si Kinect est sortis 4 fois moins précis pour être updaté par la suite. Je ne défend pas Microsoft c'est juste que cela s'applique à tous les fabricants et depuis le début de l'informatique... Pour le coup je me demande qui est à côté de la plaque ...

    Dans certains cas c'est dommage que du matos sorte à moitié optimisé, dans le cas de Kinect c'est juste fabuleux ce joujou (je l'ai pas encore j'attends que des applications dont j'aurai l'utilité/plaisir sortent). Faites une recherche sur un scanner 3d, son prix et sa dispos, et peut être que vous allez voir un interêt à Kinect... ou pas... bien sur

    Et c'est clair qu'il va y avoir un Kinect 2, qui sera beaucoup plus puissant, et ça sera l'occasion de taper sur Kinect 1 ;) 
  • philou_06450 , 21 décembre 2010 11:30
    Les développeurs (j'en suis) sont de plus en plus à la bourre et donc dépassé par l'évolution du matos, et doivent 'sortir' une version pour il y a deux jours, d'où un certains nombres de...non-optimisation dans la spec..., quitte à sortir une nouvelle version plutard.
    De toute manière, on pourra toujours coder mieux et plus rapide.
  • lolomatic , 21 décembre 2010 15:51
    Les durées de vie des produits se raccourcissent, ce qui compte plus que tout, c'est d'être présent sur un marché le plus vite possible, avant les autres, avant même que le produit soit fini.

    Résultat, les enjeux commerciaux justifient le choix de mettre sur le marché un produit pas fini, en proposant plus tard un rafistolage sous une forme ou une autre (révision hard, màj soft).

    Les enjeux commerciaux poussent la sortie de produit, la sortie de produit pousse les enjeux commerciaux, etc, etc... c'est un cercle vicieux qui tourne depuis un moment déjà.

    Selon la période, c'est plus valable selon les secteurs. Le rythme de sortie des GPU n'a pas toujours connu la même croissance, de même que les CPU. Si le calcul sur GPU avait été démocratisé davantage, nul doute que le marché du GPU aurait un visage différent au jour d'aujoud'hui.

    Il suffit de voir les SoC (System On Chip, les puces qu'on trouve dans les smartphones). Il en sort de plus en plus puissant qui n'ont même pas le temps d'être exploités correctement d'une génération à l'autre.

    Si on acceptait de ralentir les rythmes de sortie, de mieux exploiter le matériel vendu, d'avoir des produits mieux finis (en hard et en soft)... on ne les paierait pas le même prix aussi.
  • lolomatic , 21 décembre 2010 15:53
    Oups... Quand je parlais du calcul sur GPU, je voulais parler du calcul "non graphique" sur GPU (OpenCL, PhysX)