Accueil » Actualité » Intelligence artificielle : un ordinateur a-t-il vraiment réussi le test de Turing ?

Intelligence artificielle : un ordinateur a-t-il vraiment réussi le test de Turing ?

Image 1 : Intelligence artificielle : un ordinateur a-t-il vraiment réussi le test de Turing ?L’annonce a fait l’effet d’une bombe. Un ordinateur Européen aurait réussi le fameux test de Turing. Vraiment ? Probablement pas. La bombe ne serait en réalité qu’un pétard mouillé.

Le timing aurait dû mettre la puce à l’oreille. Durant les célébrations du 70ème anniversaire du débarquement, on apprenait par l’University Of Reading, qu’un programme Russe avait réussi le célèbre test de Turing.

Rappelons que le mathématicien anglais Alan Turing a décrypté les codes de chiffrement des communications allemandes durant la seconde guerre mondiale et a, par sa trouvaille, considérablement participé au succès du débarquement. Il est aussi considéré comme l’un des pères de l’intelligence artificielle. En 1950, il évoquait le principe de « jeu d’imitation » comme moyen de déterminer si un ordinateur était suffisamment intelligent pour penser comme un humain. Le test de Turing consiste à réaliser une discussion à distance avec une entité pendant une durée déterminée sans que l’interrogateur ait plus de 70% de chance de déterminer l’authentique nature de son interlocuteur. Chaque année, plusieurs programmes tentent de relever le défi : 1/3 des « juges » (les interrogateurs) doit s’être laissé berné après une discussion de 5 minutes.

L’évènement

Image 2 : Intelligence artificielle : un ordinateur a-t-il vraiment réussi le test de Turing ?Or un ChatBot, autrement dit un programme de conversation automatique à la manière de Siri (Apple), Cortana (Microsoft) voire même de Dr Watson (IBM), a réussi à se faire passer pour un adolescent Ukrainien de 13 ans auprès de plus de 33% du jury. Quatre autres programmes étaient en compétition mais n’ont pas réussi à bluffer leurs interlocuteurs humains.

Dénommé « Eugene Goostman », ce ChatBot n’en est pas à sa première tentative. Trois développeurs russes Vladimir Veselov, Eugene Demchenko, et Sergey Ulasen, peaufinent en effet leur robot conversationnel depuis 2001. L’annonce a été faite il y a quelques jours par Kevin Warwick, dans le cadre très prestigieux de la Royal Society de Londres. Mais depuis cette annonce, relayée par tous les médias anglo-saxons, de nombreuses voix s’élèvent pour mettre en doute ces affirmations et remettre en cause le déroulement du test.

Il faut dire que Kevin Warwick est coutumier des déclarations excessives. En 1998, il se définissait lui-même comme le premier Cyborg après s’être implanté une simple puce RFID sous la peau. Mais outre la personnalité controversée du rapporteur, ce sont les conditions même du test qui sont remises en cause. Ainsi, beaucoup d’observateurs estiment que le simple fait d’avoir présenté l’intelligence artificielle comme un enfant de 13 ans Ukrainien faussait le test. Les aberrations linguistiques de l’ordinateur étaient en effet assimilées par le jury comme des erreurs de maîtrise linguistique d’un enfant obligé de s’exprimer dans une langue qui n’était pas la sienne.

De même certains reprochent qu’en spécifiant un âge aussi jeune, cela limitait forcément les champs des discussions simplifiant d’autant la tâche de l’ordinateur. Dans un même ordre d’idées, le robot aurait tendance à « tricher » en employant l’humour ou l’agressivité pour changer de sujet dès qu’il est mis en situation délicate et ne peut interpréter les questions.

Enfin, les plus mauvaises langues rappelleront qu’aucun ordinateur ne passera jamais le test de Turing, puisque le mathématicien Anglais précisait dans ses écrits qu’un ordinateur serait capable de passer le test avant l’année 2000… Or l’année 2000 est depuis bien longtemps derrière nous !