Les IA d'Alibaba et de Microsoft comprennent mieux des textes que les humains


Les résultats sont tombés en ce début janvier 2018, et ils sont formels : les Intelligences Artificielles développées par Alibaba et Microsoft ont dépassé l'intelligence humaine, lorsqu'il s'agit de lire et comprendre des textes et de répondre à des questions s'y rapportant. Le test, appelé SQUAD (pour Stanford Question Answering Dataset, que l'on peut traduire par "Ensemble de Questions de Stanford") a été mis au point par un groupe de personnes, dont certaines étudient à l'université américaine de Stanford. Le test regroupe plus de 100 000 questions, qui trouvent leurs réponses dans plus de 500 articles de Wikipédia. Les thèmes abordés sont divers : le Super Bowl, Nicola Teslas, la géologie, la pharmacie, etc.

Lire n'est pas suffisant, il faut aussi comprendre !

Le but est donc de savoir retrouver une réponse dans un texte. Et pour cela, il faut bien sur comprendre ce dernier, avec - parfois - ses subtilités. Force est de constater qu'à ce petit jeu, les programmes d'Alibaba et de Microsoft obtiennent des résultats respectifs de 82,44 % et 82,65 % de bonnes réponses, alors que les humains atteignent au mieux 82,304 %. C'est sans doute une bonne nouvelle pour certains domaines, comme la médecine, pour lesquels l'ordinateur pourraient analyser de très grandes quantités d'informations et répondre à des questions de plus en plus précises.

Posez une question dans la catégorie Les news : vos réactions du forum
Cette page n'accepte plus de commentaires
4 commentaires
Commenter depuis le forum
    Votre commentaire
  • chermositto
    Encore un test à la noix et qui ne prouve rien.
    Il est évident qu'un être humain a, du point de vue compréhension d'un texte, des affinités avec son travail et son cursus.
    L'exemple évident : faites lire un texte juridique à n'importe qui !!
    De même quand il s'agit de comprendre et de trouver une réponse dans wiki, la compréhension des termes eux mêmes est indispensable. Or dans de nombreux domaines les termes sont spécifiques.
    La machine, elle, elle s'en fiche, on peut lui mettre en données tous les dictionnaires de toutes les langues et tous les mots quelque soit le domaine technique.
    Pour finir, ces tests veulent prouver quoi ?? Que nous serons mieux si nous étions dirigés par des programmes ?
    L'être humain est certes beaucoup moins efficaces dans l'absolu qu'une machine mais c'est l'être humain qui doit vivre et par ses choix et ses efforts et non pas l'asservir à des ordinateurs parce que l'être humain serait trop bête pour se conduire lui même.
    Tous ces gens qui se présentent comme des visionnaires et qui, pourtant, n'attendent que la singularité, sont justement des gens incapables de se conduire eux mêmes et incapables d'assumer leur humanité.
    Parce qu'avec les programmes qui dirigeront notre vie, adieu toute forme d'humanité. Car l'humanité ne consiste pas à faire ceci ou cela, mais à décider le chemin vers le bien. Et donc de déterminer ce qui est le bien.
    Mais bon il semble que c'est trop demander aux moutons qui préfèrent des dictateurs quelque soit leur formes, humaines ou informatique.
    Sans compter qu'imaginer un seul instant que les programmes nous régiront mieux que nous même est stupide. Les programmes nous imposeront ce que certains auront mis dedans. Et que certaines classes de population , comme par hasard , ne seront pas régies par les mêmes programmes que la foule.
  • drul
    Même si sur le fond je suis plutôt d'accord avec toi,
    Les domaines juridique et médicale semblent toutefois des domaines ou l'IA peut apporter énormément.
  • nanabozorf
    N'importe quoi, cette étude est biaisée quelque part, soit les humains participant au test étaient des abrutis finis soit les critères du test sont ridiculement limités.
    Le jour où ces IA sauront faire la distinction entre ce qui est écrit, les sous-entendus, la culture inhérente au contexte, la sémantique etc... là on pourra crier Hourra !