Selon le rapport de Beating Monitoring, « The Information » cite des sources proches du dossier et un mémo interne de Tencent révélant que des employés de Tencent ont utilisé Claude Code d’Anthropic lors de la phase de post-entraînement du modèle Hy3, malgré l’interdiction claire d’Anthropic de fournir des services commerciaux aux entreprises chinoises pour des raisons de sécurité nationale.
Hy3 est le modèle de langage le plus puissant de la série Mengyuan de Tencent à ce jour, avec une architecture MoE de 295 milliards de paramètres, développé sous la direction de Yao Shunyu, le premier scientifique en IA de Tencent, à la fin de l’année dernière. Lors de la phase RLHF (apprentissage par renforcement basé sur le feedback humain), Tencent a organisé ses employés pour qu’ils jouent le rôle d’évaluateurs humains, un mémo interne fournissant un guide d’installation pour Claude Code, avec une limite d’utilisation de « quelques milliers de tokens » par personne.
Les employés de Tencent ne considèrent pas cela comme de la distillation (entraîner un modèle plus faible à partir de la sortie d’un modèle plus fort). Leur méthode consiste à soumettre la même question de programmation à deux modèles anonymes, puis à effectuer une évaluation à l’aveugle ; en même temps, ils utilisent Claude Code pour générer en temps réel des exemples de comportements de haute qualité comme référence, afin d’aider à filtrer les réponses de faible qualité. Plusieurs employés de sociétés d’IA ont confirmé que l’utilisation de modèles de référence de pointe dans le post-entraînement est une pratique courante.
Un porte-parole d’Anthropic a déclaré que l’équipe de sécurité de l’entreprise « surveille activement les attaques de distillation et agit immédiatement lorsqu’elles sont détectées », mais n’a pas répondu directement à la question de l’utilisation de Claude Code par Tencent. Les moyens courants pour les entreprises et développeurs chinois d’accéder à Claude sont via des intermédiaires, des enregistrements avec des numéros de téléphone non chinois ou des cartes de crédit. Au début de ce mois, Anthropic a renforcé ses exigences d’authentification, certains utilisateurs devant fournir une pièce d’identité officielle délivrée par le gouvernement et une photo d’eux-mêmes.
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'
avertissement.
Articles similaires
La startup d’IA juridique Jurisphere lève 2,2 millions de dollars auprès d’InfoEdge et de Flourish Ventures
D’après Jurisphere, la startup d’IA juridique a levé 2,2 millions de dollars auprès d’InfoEdge Ventures et de Flourish Ventures. Le capital servira à soutenir l’expansion de la plateforme et le lancement d’un marché mettant en relation des clients avec des avocats via son espace de travail alimenté par l’IA. Le logiciel de Jurisphere est actuellement
GateNewsIl y a 53m
Le Bureau de promotion des investissements de Hong Kong lance le neuvième programme Fast Track 2026, couvrant 8 secteurs, dont la blockchain
Selon le Hong Kong Investment Promotion Bureau, le neuvième programme Fast Track 2026 a ouvert les inscriptions le 5 mai, avec une date limite de candidature fixée au 25 septembre. Le programme introduit pour la première fois huit secteurs, notamment la blockchain et les actifs numériques, la fintech et la insurtech, ainsi que des applications d’IA dans
GateNewsIl y a 1h
Le mythe d’Anthropic est trop puissant ! La Maison-Blanche envisagerait d’exiger qu’un nouveau modèle d’IA soit soumis à une revue de sécurité par le gouvernement avant sa publication
En raison des capacités puissantes du Mythe Anthropic et des risques de sécurité, la Maison-Blanche envisage de mettre en place un contrôle gouvernemental avant la publication d’un nouveau modèle d’IA, en créant un groupe de travail interministériel chargé d’examiner la question et en s’appuyant sur le modèle britannique pour uniformiser les normes. Ce changement de politique tranche nettement avec l’attitude laxiste du passé. Les controverses liées aux contrats d’Anthropic et au Pentagone ainsi qu’aux risques de sécurité nationale se poursuivent. La coopération en matière d’IA à des fins civiles et militaires s’accélère, et l’équilibre entre innovation et sécurité demeure un défi.
ChainNewsAbmediaIl y a 1h
OpenClaw publie la version 2026.5.4 le 5 mai, en optimisant l’installation des plugins et le démarrage de la passerelle
Selon BlockBeats, OpenClaw a publié la version 2026.5.4 le 5 mai, avec des améliorations de l’installation des plugins, du démarrage de la passerelle et de la stabilité de la plateforme. La mise à jour inclut une récupération plus fluide des packages de plugins entre npm et ClawHub, ainsi que des chemins de démarrage de la passerelle plus rapides avec une analyse à froid réduite ov
GateNewsIl y a 1h
Vobiz.ai lève $1M de financement de démarrage pour l’infrastructure d’IA vocale
La start-up d’infrastructure de téléphonie basée à Bengaluru pour l’IA vocale, Vobiz.ai, a levé 1 million de dollars en financement de démarrage, mené par Piper Serica VC Fund, d’après la société. Fondée par d’anciens dirigeants de Plivo et Finin, Suman Gandham et Vikash Srivastava, Vobiz
GateNewsIl y a 1h
Le PDG d’OpenAI, Brockman, révèle devant le tribunal une participation de 30 milliards de dollars, étroitement entremêlée avec les investissements privés d’Altman
Le 4 mai, lors du procès intenté par Musk, le tribunal a révélé que Greg Brockman détenait environ 30 milliards de dollars d’actions d’OpenAI, avec des investissements privés de Sam Altman fortement imbriqués, impliquant trois intérêts : Cerebras, Helion Energy et la fondation familiale d’Altman. Cette imbrication est considérée comme une preuve de la motivation de Brockman à soutenir la lucrativisation, et elle touche aussi aux controverses de gouvernance autour du passage d’OpenAI du statut à but non lucratif à celui à but lucratif.
ChainNewsAbmediaIl y a 1h