Se connecter avec
S'enregistrer | Connectez-vous

IBM simule le cerveau d’un chat

Par - Source: IBM | B 34 commentaires

IBM vient de franchir une étape symbolique dans la création d’un ordinateur capable de penser comme un homme.

De l’homme au chat

IBM a simulé le cerveau d’un chat à une vitesse cent fois moins rapide que la réalité, grâce à 147 456 processeurs et 144 To de mémoire. La simulation a permis d’analyser la formation de pensées dans le cerveau et l’interaction des neurones et synapses. Pour réaliser ce test, IBM a montré une image de son logo et à regarder comment la machine arrivait à reconnaître ce que la photo représentait. En début d’année, la firme avait réussi à simuler le fonctionnement de 1 % du cerveau humain, soit le fonctionnement de deux trillions de synapses. Le cortex d'un chat en possèderait 8 trillions.

Un petit pas pour l’homme...

Il reste encore beaucoup de chemin à faire avant que cette technologie soit réellement exploitable, mais les ingénieurs d’IBM imaginent qu'en 2018 une machine pourra traiter et analyser un flux incroyable d’information tout en possédant les facultés cognitives lui permettant de prendre les décisions les mieux adaptées en fonction de problèmes abstraits et de raisonnements logiques, bref, de penser comme le cerveau humain.

Big Blue reste néanmoins encore très loin de nos méninges qui pèsent seulement un peu plus d’un kilo, et dont le cortex contient suffisamment de synapses pour retenir environ 1 000 To d’informations, soit l’équivalent de 23 400 DVD.

Afficher 34 commentaires.
Cette page n'accepte plus de commentaires
  • David Civera , 19 novembre 2009 07:26
    En début d'année IBM a reproduit le fonctionnement de la quantité de neurones et synapses équivalent à 1 % du cerveau humain. Aujourd'hui, il passe la vitesse supérieur et simule le cortex d'un chat
  • metadonique , 19 novembre 2009 07:29
    @nasseryo:
    "IBM a simulé le cerveau d’un chat à une vitesse cent fois moins rapide que la réalité"
    et
    "la firme avait réussi à simuler le fonctionnement de 1 % du cerveau humain, grâce à 147 456 processeurs et 144 To de mémoire."

    Donc avant de commenter lit bien dsl.
  • Anonyme , 19 novembre 2009 07:38
    Un cerveau qui DISCRIMINE les sons, les écarts de chaleur, les mouvements et l'équilibre, les odeurs et qui gère à la fois une pléiade de glandes, de systèmes réflexes etc. Je n'y crois pas du tout ! J'aimerais bien qu'on me montre tous les capteurs utilisés pour simuler la liste non-exhaustive plus haut ;) 
  • -4 Masquer
    vlaframboise , 19 novembre 2009 08:30
    Just OneUn cerveau qui DISCRIMINE les sons, les écarts de chaleur, les mouvements et l'équilibre, les odeurs et qui gère à la fois une pléiade de glandes, de systèmes réflexes etc. Je n'y crois pas du tout ! J'aimerais bien qu'on me montre tous les capteurs utilisés pour simuler la liste non-exhaustive plus haut


    1%!!!
  • solendil , 19 novembre 2009 09:11
    Citation :
    Big Blue reste néanmoins encore très loin de nos méninges qui pèsent seulement un peu plus d’un kilo, et dont le cortex contient suffisamment de synapses pour retenir environ 1 000 To d’informations, soit l’équivalent de 23 400 DVD.


    Waouw... faut pas employer des mots savants quand on les comprend pas.

    Méninges: membranes entourant le système nerveux central (dont le cerveau)
    Cortex: couche externe du cerveau, mesurant de 2 à 4mm
    Synapses: jonctions entre les neurones

    La phrase ne veut donc absolument rien dire. Il n'a pas été prouvé que la mémoire réside dans les synapses plutôt que dans les neurones. Enfin le chiffre de 1000To est complètement idiot, la façon de stocker les données dans le cerveau n'ayant rien à voir avec du stockage digital (combien de bits pour stocker une odeur? la sensation du soleil? un sentiment?)

    Quand à la recherche d'IBM... bon, ce sont des gens sérieux, et il sortira peut-être quelque chose de ces recherches. Mais ils ont surtout besoin de faire parler d'eux, car depuis Big Blue, ils n'ont pas trop eu l'occasion de faire les gros titres. Affaire à suivre...
  • papamike62 , 19 novembre 2009 10:25
    147 456 processeurs et 144 To de mémoire... si je trouve le moyen de greffer une prise RJ45 à mon chat ça fera un serveur 100% écologique.
  • turlupin en ptard , 19 novembre 2009 10:44
    Citation :
    Waouw... faut pas employer des mots savants quand on les comprend pas.

    Méninges: membranes entourant le système nerveux central (dont le cerveau)
    Et quand on critique il faut le faire de bonne foi, pas juste vouloir allumer ce lui qu'on critique. N'importe quel dictionnaire te rappellera que le mot désigne, en langage familier, le cerveau dans son ensemble, vu comme une entité fonctionnelle.
    M'enfin...
    Citation :
    IBM a montré une image de son logo et à regarder comment la machine arrivait à reconnaître
    Daviiiiiiiiiiiiiiiiiiid ! :pt1cable: 
    Citation :
    les ingénieurs d’IBM imaginent qu'en 2018 une machine pourra traiter et analyser un flux incroyable d’information tout en possédant les facultés cognitives lui permettant de prendre les décisions les mieux adaptées en fonction de problèmes abstraits et de raisonnements logiques, bref, de penser comme le cerveau humain.
    Alors ça c'est la grosse erreur de base : croire que les décisions humaines sont toujours rationnelles.
    Les prises de décision sont toujours influencées par les phénomènes biologiques qui nous mènent, plus ou moins, par le bout du nez.
    Vous avez déjà vu des amoureux prendre des décisions rationnelles, vous ?
    Et sous l'effet de la peur ou de la colère, de la douleur, vous prenez toujours la bonne décision ?

    En fait on est en plein dans le phantasme (ou fantasme, les deux sont corrects au cas où un pinailleur dans mon genre se manifesterait :D ) et le mythe dit du Golem (ou de Frankenstein) qui consiste à croire qu'on peut créer une machine pensante qui nous exonérerait de nos "faiblesses constitutives et nous éviterait de commettre des "erreurs".

    Mais qui décide qu'une décision est bonne ou mauvaise, selon quels critères ?
    Il existe encore des gens qui pensent que l'échec du nazisme est une catastrophe.

    Le problème n'est pas tant la puissance de calcul de la chose que les algorithmes de description et reproduction de la "pensée humaine" abordée ici comme si elle était universelle ou unique (comme dans l'esprit des clowns tragiques qui dirigent ce monde, d'ailleurs).

    Un exemple récent m'amuse (jusqu'à un certain point, faut pas déconner, c'est quand même tragique) : il existe des logiciels destinés à évaluer les "qualités" des textes littéraires dont certains sont actuellement utilisés pour noter les épreuves d'examens (équivalant au bac) dans certaines institutions scolaires aux USA. L'un de ces logiciels s'est signalé en donnant de mauvaises notes au discours de Churchill (le sang, les larmes, tout ça) jugé répétitif et valant à peine la moyenne, Hemingway manque de clarté et de précision et l'Orange mécanique d'Anthony Burgess serait "bizarre" selon ce même logiciel. (source : Siné Hebdo).

    Je me demande ce que ça donnerait avec les textes des surréalistes ou des dada !

    J'ai personnellement testé des "logiciels d'évaluation cognitive" pendant mes tribulations de chômeur en "parcours de réinsertion" et ça fait froid dans le dos.

    Si on cherche plus à l'extrême encore, quelles "valeurs" seront inculquées au futur "cerveau artificiel" ?

    Celles du libéral-fascisme pour prendre les décisisons à caractère politique, économique et social ?

    Celle de l'écologie ?

    C'est le problème de Frankenstein... encore et toujours.

    La technologie ne peut résoudre QUE les problèmes techniques, si on oublie ça on se prépare de telles catastrophes qu'il vaut mieux éviter d'y songer.

    Et puis, non, tiens ! Songeons-y !

    Les OGM sont la réponse proposée par l'industrie agro-chimique pour lutter contre la faim dans le monde en augmentant la productivité agricole.
    La faim est-elle causée par le manque de ressources alimentaires ?

    Non, on le sait depuis au moins 40 ans, la planète produit plus de nourriture que nécessaire mais une énorme part en est détruite pour "soutenir les cours" du marché, et une part aussi considérable est perdue ou pas acheminée faute de moyens logistiques de stockage et de transport (ce fut même la cause essentielle des échecs de l'agriculture soviétique).

    Donc quelle est la cause principale des famines permanentes et récurrentes dans le monde ?
    Le système économique qui domine le monde et n'est guidé que par le seul impératif du profit immédiat ou à court terme.

    Vouloir régler le problème de la famine en s'attaquant (prétendument) à à un manque de productivité qui n'existe que dans l'esprit pourri des labos qui ne cherchent qu'à vendre leurs saloperies qui détruisent non seulement la planète mais aussi les paysanneries du monde entier.
    Plus de productivité signifiera simplement plus de récoltes à détruire pour "maintenir les cours" et plus de pertes dans le transport et le stockage mais pas un grain de riz, de blé ou de millet en plus pour nourrir ceux qui crèvent pour que les traders US empochent près de 150 milliards de dollars de bonus cette année alors que l'aide internationale pour lutter contre la faim est inférieure à 50 milliards... pour les cinq années à venir.

    Alors faut-il un "cerveau artificiel" pour comprendre ça et sortir du système ?
    Faut-il plus de puissance de réflexion ou penser différemment ?

    Je vais radoter un peu : il n'y a pas de solution technique à un problème politique (pour ceux qui ont du mal à comprendre : on ne soigne par la grippe par décret ni la rougeole avec du fond de teint)

    Voilà, c'était la première news que je lisais ce matin et elle m'a bien énervé, merci David, ça réveille ! ;) 

    PS: j'ai la flemme de me relire alors si j'ai laissé traîner une coquille ou deux, tant pire ! (copyright Zézette, épouse X)
  • magellan , 19 novembre 2009 11:13
    Turlupin... un grand merci pour ton commentaire dont je retiens la phrase clé
    Citation :
    La technologie ne peut résoudre QUE les problèmes techniques, si on oublie ça on se prépare de telles catastrophes qu'il vaut mieux éviter d'y songer.


    Pour ceux qui font de la programmation, la notion d'incertitude, d'aléatoire n'existent pas vraiment. L'incertitude provient des erreurs de conception (typiquement un "trou" dans l'algorithme permettant de laisser passer un cas non géré), et l'aléatoire réel n'a aucun sens, puisque cela ne fait que s'appuyer sur quelque chose de changeant (comme par exemple la milliseconde de l'horloge interne du PC), juste pour "simuler" l'aléatoire du jet de dé.

    Dans ces conditions, qu'est-ce qu'on simule dans ce genre de projet? L'interaction des connexions synaptiques, et non l'arborescence de la décision soumise aux "aléas". Une décision est tributaire de l'instinct (qu'on peut programmer en "dur" pour s'assurer qu'il sera immuable ou presque), l'expérience (donc par essence issue des données stockées, et totalement variables), ainsi que des "réflexes conditionnés". Distinguons l'instinct et le réflexe du fait que, par exemple, le réflexe de presser les freins d'une voiture en cas d'accident n'a aucun rapport avec l'instinct, si ce n'est celui de survie.

    De là, comment définir en programmation l'incohérence potentielle des réactions?
    Prenons un cas simple qui est très signifiant sur la différence entre rigueur technique et irrationalité humaine: l'immeuble en flammes.
    HUMAIN:
    Peur panique, tentative de fuite vouée à l'échec. Potentiellement, saut par la fenêtre pour fuir, et ce malgré l'instinct de survie qui braille dans le fond du cerveau "tu vas te tuer en faisant ce saut du dixième étage!"
    MACHINE:
    Analyse de la situation, fuite impossible. Tentative de préservation de l'existence en usant de tous les outils à disposition sur place. Pas d'énervement, pas de perte de concentration. Rationalisation des mouvements pour économiser l'air vicié par la fumée, éloignement de la source d'ignition...

    etc etc...

    Que ce soit une "simulation d'intelligence", ou la "reproduction du schéma de pensée", dans les deux cas, il s'agit d'user d'hypothèses mises en équations complexes, de sorte à suggérer l'intelligence, pas la reproduire.

    Enfin, je trouve tout de même ce genre d'études très utile. Pourquoi? Nous avons une "optimisation" énorme de notre mémoire, notamment sur les temps d'accès aux informations. Son seul "handicap" est son manque partiel de précision, car elle subit la déformation de tout ce qui n'entre pas dans les critères d'une équation mathématique: l'émotion, la nostalgie, ou encore la colère et la tristesse. User de ces mégas dispositifs pour trouver un moyen de mieux agencer et accéder à la donnée sera un progrès notable pour l'industrie de l'informatique (et même sur le web d'ailleurs, avec des bases de données toujours plus grosses, et de plus en plus lentes).
  • rambo31 , 19 novembre 2009 11:37
    turlupin en ptard
    Alors ça c'est la grosse erreur de base : croire que les décisions humaines sont toujours rationnelles.


    David n'a pas employé le mot "rationel" mais "raisonnement logique". Apres c'est la logique de la perception de chacun donc ce qui peut etre logique peut ne l'etre que pour toi.

    Apres si tu chipote tu va me dire que rationel et raisonnement c'est de la meme famille mais en ajoutant logique apres, ca ne donne plus du tout le meme sens !

    Donc commencer à poster juste pour critiquer et partir sur un debat que tout le monde connait et qui n'a strictement rien a voir, je ne voit pas pourquoi si ce n'est déballer des problemes politiques ! Ca "m'interesse" mais pas sur ce type de forum !
  • BertrandRussel , 19 novembre 2009 11:50
    La dépêche du jour: IBM vient de créer l'exploit - Une simulation entière du cerveau de George Walker B. à l'aide d'une simple règle à calcul!
  • -8 Masquer
    isneok , 19 novembre 2009 12:08
    Ce que fait IBM est effrayant.
    Quemmes étaient les émotions de leur "chat"? Que peut bien ressentir un cerveau auquel on a coupé la moelle épinière? Une souffrance sans pareille non?
    Et la prochaine étape, ce sera un cerveau humain. Quelle horreur.

    Et tout ça pour quoi? Dans quel but? Afin d'obtenir des "esclaves artificiels" corvéable à merci, travaillant sans relâche et n'ayant même pas la liberté primordiale: celle de pouvoir mettre fin à leur jours.

    Je propose un moratoire de toutes recherches concernant l'intelligence artificielle, tant les risques sont élevés, et dont l'utilité semble douteuse (productivité? n'y a t-il pas suffisamment de chômeurs de par le monde?).
    Et d'établir un "droit de l'entité artificielle" qui leur garantissent un minimum de bien être. Hé oui, on ne parle plus de machines là, mais d'êtres pensants!
  • ghia , 19 novembre 2009 12:43
    isneokCe que fait IBM est effrayant.Quemmes étaient les émotions de leur "chat"? Que peut bien ressentir un cerveau auquel on a coupé la moelle épinière? Une souffrance sans pareille non?Et la prochaine étape, ce sera un cerveau humain. Quelle horreur.Et tout ça pour quoi? Dans quel but? Afin d'obtenir des "esclaves artificiels" corvéable à merci, travaillant sans relâche et n'ayant même pas la liberté primordiale: celle de pouvoir mettre fin à leur jours.Je propose un moratoire de toutes recherches concernant l'intelligence artificielle, tant les risques sont élevés, et dont l'utilité semble douteuse (productivité? n'y a t-il pas suffisamment de chômeurs de par le monde?).Et d'établir un "droit de l'entité artificielle" qui leur garantissent un minimum de bien être. Hé oui, on ne parle plus de machines là, mais d'êtres pensants!


    Ca me fait penser au film de l'homme bicentenaire de Chris Columbus tout ça...
  • ghia , 19 novembre 2009 12:45
    IBM a simulé le cerveau d’un chat


    Bof si c'est le cerveau du chat de ma soeur, à par passer ses journées sur le canap' à pioncer, aller de temps en temps manger quand monsieur à faim et go pipi/caca... c'est vite virtualisé tout ça :o 
  • InT3NsS3 , 19 novembre 2009 13:09
    Bonjour,
    Moi je me demande si un jour il arrive à faire une intélligence artificielle qui est capable de penser, avoir des sentiment, raisonner, faire la différence entre le bien et le mal, ce qu'il en ferait. A partir de ce moment il sera considérait comme une antiter vivante, ayant des droit.
  • turlupin en ptard , 19 novembre 2009 16:25
    Citation :
    faire la différence entre le bien et le mal
    Il faut d'abord arriver à définir ce qui est le bien et ce qui est le mal, c'est sur ce point qu'on arrivera jamais à une définition universelle.
  • -2 Masquer
    isneok , 19 novembre 2009 17:40
    Mon commentaire à -5?
    Il faut le voir pour le croire, j'en suis ébahi.
  • magellan , 19 novembre 2009 18:31
    turlupin en ptardIl faut d'abord arriver à définir ce qui est le bien et ce qui est le mal, c'est sur ce point qu'on arrivera jamais à une définition universelle.

    C'est savoir différencier le concept (bien, mal, bonheur, malheur) de la méthode (vrai/faux binaire en gros)
    ;) 
  • magellan , 19 novembre 2009 18:38
    isneokCe que fait IBM est effrayant.Quemmes étaient les émotions de leur "chat"? Que peut bien ressentir un cerveau auquel on a coupé la moelle épinière? Une souffrance sans pareille non?Et la prochaine étape, ce sera un cerveau humain. Quelle horreur.Et tout ça pour quoi? Dans quel but? Afin d'obtenir des "esclaves artificiels" corvéable à merci, travaillant sans relâche et n'ayant même pas la liberté primordiale: celle de pouvoir mettre fin à leur jours.Je propose un moratoire de toutes recherches concernant l'intelligence artificielle, tant les risques sont élevés, et dont l'utilité semble douteuse (productivité? n'y a t-il pas suffisamment de chômeurs de par le monde?).Et d'établir un "droit de l'entité artificielle" qui leur garantissent un minimum de bien être. Hé oui, on ne parle plus de machines là, mais d'êtres pensants!

    Tu n'as pas peur de dire des choses sans queue ni tête? L'IA est, aujourd'hui encore et pour un bon moment je pense, qu'une simulation, et non un fonctionnement analogue. Pourquoi simulation? Parce que simuler veut dire "faire comme si", et non pas "reproduire à l'identique".

    De la moralité? Dans les machines? Avant tout tu oublies que l'animal applique des choses non booléennes, des comportements non programmés ou anticipés, et que de ce point de vue, une machine ne sait pas "apprendre". Elle sait enregistrer, mais pas encore réellement en tirer des enseignements.
    Un exemple? Certaines IA sont dotées d'algorithmes qui passent en revue les erreurs de méthode, et, peu à peu, affinent le fonctionnement pour obtenir un mode de fonctionnement le plus efficace. Mais ce n'est pas de l'apprentissage, l'algorithme de révision s'appuyant uniquement sur un nombre limité de données. L'homme, par essence, apprend et fait de nouvelles choses grâce à cet apprentissage. Un exemple? Un robot ne sait pas conduire, il faut lui ajouter un logiciel tiers pour le faire. Il ne saura pas "découvrir" le fonctionnement du véhicule. L'homme, lui, devra lui aussi apprendre, mais il sera capable de découvrir et appréhender son environnement.

    Je trouve tout particulièrement drôle l'idée du moratoire. A te lire, tu sembles convaincu qu'Asimov n'est pas loin, or c'est tout le contraire. Nous ne sommes mêmes pas foutus d'envisager le cerveau d'un mammifère avec, très certainement des fonctions très limitées. Je doute que leur cerveau de chat soit capable d'avoir des "émotions" ou même des "envies". De notre vivant, on aura plus de chance de voir apparaître des nanotechnologies capables de produire des êtres "synthétiques" (donc convergence machine être humain) que de voir une IA capable de tenir la dragée haute à l'homme.

    Dernier exemple: Pose deux questions à l'homme et à la machine.
    1) Calcule moi une intégrale double de tête en moins de dix secondes
    2) Aimes tu la couleur rouge?

    La machine
    1) Facile, je sais faire
    2) Syntax Error!
    L'homme
    1) Heuuu tu pousses là!
    2) Oui j'aime bien.
  • Intrus , 19 novembre 2009 19:10
    Attention :
    On pourrait croire qu'IBM a créé une IA ayant l'intelligence d'un chat (capable de se comporter comme un chat si on lui fournissait un corps adapté).
    On en est très loin.

    On en est encore au tout début de la compréhension du fonctionnement d'un cerveau, surtout un cerveau de mammifère.

    IBM a reproduit certains aspects du fonctionnement du cerveau d'un chat.
Afficher plus de commentaires