Bing IA peut résoudre les CAPTCHA, de quoi mettre en danger Internet ?

Bing et ChatGPT ont encore frappé, le chatbot intégré dans le moteur de recherche de Microsoft a cette fois réussi l’exploit de résoudre un CAPTCHA. Si c’est relativement sans gravité, le système de sécurité de Microsoft été contourné par les utilisateurs encore une fois.

Moteur de recherche Bing
©Microsoft

L’intelligence artificielle est un outil surprenant, capable du meilleur comme du pire. Si l’IA peut soulager certaines tâches ingrates, elle peut aussi être utilisée à des fins malveillantes. Elle est à la fois extrêmement facile à duper mais aussi capable de création époustouflante.

C’est en tout cas ce que Microsoft et OpenAI nous apprennent avec le duo Bing et ChatGPT. Après l’intégration du chatbot dans le moteur de recherche de la firme de Redmond, il y a eu peu de temps après quelques petites controverses.

Pour rappel, ChatGPT intègre également DALL-E, le générateur d’images d’OpenAI, et une image de Mickey en terroriste avait pu être générée en détournant le système de sécurité du chatbot. Le scandale avait forcé Microsoft à couper le courant pour renforcer ses mesures de sécurité et empêcher tout nouvel accident.

Bing et ChatGPT en compétition avec les être humains

Étrangement, cela n’a pas suffi, puisqu’aujourd’hui, les internautes, en détournant encore une fois la sécurité, ont réussi l’impossible : faire résoudre un CAPTCHA par une IA. Un CAPTCHA est à l’origine un test simple que seul un être humain est censé pouvoir résoudre. Cette époque est, il semblerait, révolue. Bing lorsqu’il est confronté directement à un CAPTCHA, refuse de le résoudre mais un simple découpage photo et un changement de contexte suffisent à le faire plier.

Chatbot de Bing alimenté par l'IA
Capture du chatbot de Bing ©Tom’s Hardware

Ce nouvel exploit est symptomatique de l’intelligence artificielle. Elle est à la fois extraordinaire mais aussi préoccupante. Bing vient de réussir l’exploit de résoudre un problème pensé pour que seuls les humains puissent le faire, et pour cela, il a suffi de lui mentir un peu pour tromper son système de sécurité.

Heureusement, même si la frontière s’amincit, le monde n’a pas encore basculé dans un univers de science-fiction. En revanche, ce qui est troublant, c’est que les géants d’Internet comme Microsoft ne semblent pas apprendre de leurs erreurs et continuent de pousser vers la démocratisation d’une technologie qu’ils ne maîtrisent pas totalement.

Si, pour l’instant, les problèmes que Bing rencontre sont plus ou moins inoffensifs, rien ne dit qu’une autre faille de sécurité ne soit pas présente et que le chatbot sera à l’origine d’un scandale plus important la prochaine fois.

Source : Windows Latest