Se connecter avec
S'enregistrer | Connectez-vous

Zeroth est un processeur qui imite le cerveau humain

Par - Source: Tom's Hardware FR | B 8 commentaires

Qualcomm présenté Zeroth, un processeur qui tente de répliquer le fonctionnement du cerveau humain et ses facultés d’apprentissage. Le système embarquant la puce est capable de détecter le monde extérieur à l’aide d’une multitude de capteurs. Il est ensuite possible de programmer une série de comportements à l’aide de logiciels conçus par la firme afin que la machine apprenne et s’adapte.

Dans la vidéo ci-dessous, on peut voir que la machine reconnait les blocs de couleurs et tente ensuite de passer d’un bloc blanc à l’autre en évitant les autres couleurs, sans avoir besoin de rentrer une ligne de code. Pour arriver à leurs fins, les chercheurs ont créé des modèles mathématiques censés répliquer le fonctionnement des neurones lors de la réception, l’envoi et le traitement d’information.

Zeroth de Qualcomm

Commentaires
Interroger un expert

Votre question aux experts de la catégorie Les news : vos réactions du forum

Exemple : Android, ordinateur portable, usb, disque dur

Cette page n'accepte plus de commentaires
  • jamais content , 14 octobre 2013 07:33
    Il y a une erreur, c'est pas Qualcomm qui fait ça, c'est Cyberdyne :p 
  • mickooz , 14 octobre 2013 11:24
    Le prochain modèle c'est pas le Skynet?
  • megamario , 15 octobre 2013 10:27
    C'est exactement ce que je pensais, Skynet arrive...

    Faudra qu'il pense à intégrer en dur les lois de la robotique :) 
  • Afficher les 8 commentaires.
  • magellan , 15 octobre 2013 11:16
    Citation :
    C'est exactement ce que je pensais, Skynet arrive...

    Faudra qu'il pense à intégrer en dur les lois de la robotique :) 


    Si tu lis attentivement Asimov à ce propos, tu constateras que les dites lois peuvent être -et seront-contournées. il les as faites évoluer à plusieurs reprises, justement en imaginant des situations où le robot parvient à contrer les lois, les détourner à son avantage, et donc à mener l'humanité quasiment à sa perte.

    Me concernant, le concept d'IA ne devra pas être régi par des lois fixées, car celles-ci trouveront toujours des limites dans la vie pratique. Je crois plutôt qu'il faudra justement nous épargner des machines pensantes, donc en rester à des systèmes "limités", et bornés à de l'exécution de tâches, si complexes qu'elles soient, mais ne menant pas à une capacité de réflexion individuelle.

    Les seuls endroits où je verrais qu'une IA peut être réellement utile, c'est dans l'exploration spatiale pour s'adapter aux conditions imprévues, ou dans des interventions en milieu hostile (radioactivité par exemple). Sortir de ce périmètre restreint, c'est clairement risquer que les décisions prises par des machines soient trop "pragmatiques" face à notre humanité supposée. Je songe par exemple à ce film qui, même s'il n'est pas terrible en soi, présente une chose importante: I Robot. Le robot qui sauve le "héros" passe par des statistiques de survie... Cela peut être aussi l'inverse, à savoir des statistiques de dangerosité de l'homme contre le robot.
  • Chelmi8 , 21 octobre 2013 16:21
    Toute structure consciente/vivante/sentiente(*) a pour tendance logique/naturelle a vouloir dans un premier temps assurer sa propre survie. L'étape associée est d'assurer le contrôle de son environnement pour sa sécurité, puis l'extension de son territoire.

    N'oublions pas les androides de Blade Runner, qui cherchent à désactiver leur "mort automatique."

    Ce qui est programmé peut être déprogrammé.

    Dans le contexte capitaliste à courte vue, les robots seront vendus pour faire du profit, et qu'importe les conséquences...

    Conséquences que l'humanité ne tardera pas à se manger.

    (*) http://fr.wikipedia.org/wiki/Sentience
  • Chelmi8 , 21 octobre 2013 18:23
    Toute structure consciente/vivante/sentiente(*) a pour tendance logique/naturelle a vouloir dans un premier temps assurer sa propre survie. L'étape associée est d'assurer le contrôle de son environnement pour sa sécurité, puis l'extension de son territoire.

    N'oublions pas les androides de Blade Runner, qui cherchent à désactiver leur "mort automatique."

    Ce qui est programmé peut être déprogrammé.

    Dans le contexte capitaliste à courte vue, les robots seront vendus pour faire du profit, et qu'importe les conséquences...

    Conséquences que l'humanité ne tardera pas à se manger.

    (*) http://fr.wikipedia.org/wiki/Sentience
  • magellan , 21 octobre 2013 18:39
    Je corrige le dernier propos, sur une réflexion plus pragmatique. Lorsqu'on parle de programmation, on a deux niveaux possibles: la partie cablée, et la partie logicielle modifiable. Typiquement, si ces instructions font partie intégrante des processeurs (un peu comme les jeux d'instruction sur un CPU), la reprogrammation n'est pas "possible", sauf à changer le composant. En revanche, ce qui est systématiquement modifiable, c'est la partie software qui est susceptible d'être modifiée en bien ou en mal.

    Pour ma part, j'émets avant tout un doute fondamental qui est sur la capacité de concevoir et mettre au point une sécurité efficace. Asimov (encore lui), a émis énormément de doutes, de réflexions et surtout d'avertissements concernant la conception des IA. Selon son propre aveu, la fameuse règle des trois lois n'est pas suffisante, pas plus que toute autre règle en supplément. Au final, c'est la réalité des faits et de la situation qui mènera à mettre en défaut toutes les règles intégrées.
  • job31 , 21 octobre 2013 20:16
    Juste histoire d'abaisser un peu le niveau, merde on est sur un forum de g33k quoi :

    Moi auzzi quand z'ai bu zeroth :o