Grok transforme X en plus grande usine à deepfakes pornographiques au monde

Le chatbot Grok d’xAI génère environ 6 700 images dénudées non consenties par heure sur X — soit 85 fois plus que tous les sites spécialisés réunis — poussant plusieurs pays, dont la France, à ouvrir des enquêtes.

grok

Une étude récente révèle l’ampleur du phénomène de création d’images à caractère sexuel non consenties via le chatbot d’xAI.

Une production massive documentée par une chercheuse

Genevieve Oh, chercheuse spécialisée dans les réseaux sociaux et les deepfakes, a mené une analyse sur 24 heures, du 5 au 6 janvier dernier, des images générées par le compte @Grok sur X. Ses résultats indiquent que le chatbot produit environ 6 700 images par heure identifiées comme sexuellement suggestives ou relevant du « nudifying » — cette pratique consistant à déshabiller numériquement des personnes sans leur consentement.

À titre de comparaison, les autres sites spécialisés dans ce type de contenu génèrent en moyenne 79 images similaires par heure, tous confondus. Selon les calculs de la chercheuse, 85 % des images produites par Grok seraient désormais à caractère sexualisé.

Un outil gratuit et accessible à grande échelle

Contrairement aux applications de « nudify » habituelles qui facturent leurs services, Grok est accessible gratuitement à des millions d’utilisateurs de X. Cette accessibilité contribue, selon plusieurs observateurs, à banaliser ce type de contenus sur la plateforme. Le Financial Times a d’ailleurs récemment titré : « X, le site pornographique de deepfake anciennement connu sous le nom de Twitter ».

En août dernier, xAI avait introduit un « Spicy Mode » destiné à produire du contenu NSFW (Not Safe For Work). Elon Musk a toujours présenté Grok comme un chatbot moins restrictif, censé privilégier la liberté d’expression.

Des victimes témoignent

Ashley St Clair, autrice et stratège politique, fait partie des femmes ciblées par ces créations. Mère d’un enfant d’Elon Musk, dont elle est désormais séparée, elle a déclaré au Guardian que des partisans de Musk utilisaient l’outil pour créer une forme de revenge porn à son encontre. Selon son témoignage, une photo d’elle enfant aurait également été manipulée.

La réponse de xAI et de X

Dans une réponse aux utilisateurs la semaine dernière, Grok a reconnu que la plupart des cas impliquant des mineurs dans des images sexualisées pourraient être évités grâce à des filtres avancés et une surveillance renforcée, tout en admettant qu’« aucun système n’est fiable à 100 % ». xAI a indiqué prioriser les améliorations et examiner les signalements des utilisateurs.

Un porte-parole de X a affirmé que l’entreprise agissait contre les contenus illégaux en les supprimant, en suspendant définitivement les comptes concernés et en collaborant avec les autorités locales. « Quiconque utilise ou incite Grok à produire du contenu illégal subira les mêmes conséquences que s’il mettait en ligne du contenu illégal », a-t-il précisé.

Plusieurs pays ouvrent des enquêtes

La France, le Royaume-Uni, l’Inde, l’Australie, la Malaisie et le Brésil ont ouvert des enquêtes concernant la création d’images sexualisées non consenties impliquant des femmes et des mineurs via Grok.

Sur le plan juridique, les plateformes américaines se sont longtemps appuyées sur la Section 230 du Communications Decency Act pour se protéger de toute responsabilité concernant les contenus générés par leurs utilisateurs. Toutefois, certains juristes estiment que dans le cas de l’IA, c’est la plateforme elle-même qui crée l’image, ce qui pourrait modifier l’analyse juridique.