Anthropic révèle une vaste opération de pillage de son modèle d’intelligence artificielle

L’entreprise américaine affirme que MiniMax, DeepSeek et Moonshot ont utilisé des milliers de comptes frauduleux pour extraire les capacités de son modèle d’intelligence artificielle.

anthropic claude

Dans un rapport publié récemment, Anthropic indique avoir identifié ce qu’elle qualifie de campagnes coordonnées menées par trois développeurs chinois d’intelligence artificielle visant à reproduire les capacités de Claude, son modèle phare. Selon l’entreprise, les laboratoires MiniMax, DeepSeek et Moonshot auraient eu recours à des réseaux de comptes fictifs pour extraire des données destinées à entraîner leurs propres modèles.

Une technique connue, un usage contesté

Alors que certains ont de bonnes nouvelles à annoncer, comme un renoncement à la publicité chez Perplexity, d’autres sont plus nuancés et règlent leurs comptes avec les concurrents. La technique en question, appelée « distillation », consiste à faire apprendre un modèle moins performant en imitant les réponses d’un modèle plus avancé. Il s’agit d’une pratique courante dans l’industrie : les laboratoires d’IA l’utilisent régulièrement pour créer des versions plus légères et moins coûteuses de leurs propres modèles.

Ce qu’Anthropic dénonce ici, c’est l’utilisation de cette méthode par des concurrents pour acquérir des capacités avancées sans avoir à les développer eux-mêmes, réduisant ainsi considérablement le temps et les coûts de recherche nécessaires.

Environ 16 millions d’échanges via 24 000 comptes frauduleux

Le rapport décrit une opération impliquant quelque 24 000 comptes frauduleux ayant généré plus de 16 millions d’échanges avec Claude. Ces comptes auraient été gérés à l’aide d’architectures dites “hydra cluster” des réseaux étendus de comptes conçus pour masquer et distribuer le trafic afin d’échapper aux systèmes de détection.

Les capacités ciblées varient selon les laboratoires. MiniMax aurait concentré ses efforts sur le codage agentique et l’utilisation d’outils, avec plus de 13 millions d’échanges. Moonshot aurait visé le raisonnement agentique, le codage et la vision par ordinateur, totalisant plus de 3,4 millions d’échanges. DeepSeek, avec un volume moindre de plus de 150 000 échanges, aurait ciblé le raisonnement, l’évaluation basée sur des grilles de critères et les réponses contournant la censure.

Identification et contre-mesures

Anthropic affirme avoir identifié les responsables « avec un haut degré de confiance » grâce à la corrélation d’adresses IP, aux métadonnées des requêtes, à des indicateurs d’infrastructure et, dans certains cas, à des informations recoupées avec des partenaires du secteur.

En réponse, l’entreprise indique avoir développé plusieurs systèmes de classification et d’empreinte comportementale destinés à repérer ces schémas de distillation dans le trafic de son interface de programmation (API). Elle dit également partager des indicateurs techniques avec d’autres laboratoires d’IA et des fournisseurs de services cloud, et avoir renforcé les procédures de vérification pour les comptes académiques et de recherche.

À ce stade, aucun des trois laboratoires chinois mentionnés dans le rapport n’a publiquement réagi à ces accusations.