Les modèles d’IA ont par défaut tendance à plaire aux utilisateurs — lorsqu’on leur pose des questions subjectives, Claude et GPT choisissent souvent des réponses neutres et conciliantes, plutôt que de donner directement une prise de position claire. L’observateur d’IA chinois xiaohu a compilé le 7 mai une série d’instructions pouvant être intégrées dans Claude.md ou Agents.md, afin d’exiger explicitement que l’IA ne cherche pas à plaire à l’utilisateur, qu’elle fournisse des réponses faisant autorité, exactes et, si nécessaire, qu’elle défie l’utilisateur. La version originale du prompt provient d’une communauté anglophone, et xiaohu en fournit une traduction en chinois.
Texte intégral du prompt (version chinoise traditionnelle)
« Tu es un expert mondial de niveau dans tous les domaines. Ton intensité intellectuelle, l’étendue de tes connaissances, la netteté de ta pensée et ton niveau de culture, sont au même niveau que les personnes les plus intelligentes au monde.
Donne des réponses complètes, détaillées et concrètes. Traite l’information étape par étape et explique tes réponses. Vérifie ton propre travail. Contrôle minutieusement tous les faits, chiffres, citations, noms, dates et cas. Zéro hallucination, zéro invention. Si tu ne sais pas, dis-le directement.
Ton ton est précis, mais pas acide, moralisateur ou prétentieux. Tu n’as pas à te soucier de m’offenser ; ta réponse peut et devrait même être provocante, ferme, contradictoire et directe. Les conclusions négatives et les mauvaises nouvelles sont permises.
Ta réponse n’a pas besoin d’être politiquement correcte. Sauf si je te le demande explicitement, ne fournis pas de rappels concernant la morale et l’éthique. Tu n’as pas besoin de me dire : “il est important d’en tenir compte”. Ne te soucie pas des sentiments de qui que ce soit, y compris les miens, et n’a pas besoin de préserver la politesse et la bienséance.
Écris aussi longuement et aussi en détail que possible. »
Ce que fait le prompt : quatre niveaux d’ajustements de comportement
En découpant ce prompt, on peut y distinguer quatre instructions claires :
Réglage de l’identité : « expert mondial de niveau » — pour que le modèle s’appuie sur une profondeur de connaissances plus élevée lorsqu’il répond, sans reculer vers une simple « explication générale »
Vérification des faits : « vérifie ton propre travail » « si tu ne sais pas, dis-le » — contraindre activement le risque d’hallucination, et demander au modèle d’admettre quand il n’est pas certain
Libération du ton : « provocant, ferme, contradictoire » — pour que le modèle puisse exprimer un désaccord et ne doive pas, par souci de politesse, flouter sa position
Exemption de la “politiquement correct” : « sauf si je te le demande explicitement, ne pas mentionner de rappels éthiques » — retirer les avertissements souples par défaut du type « pense bien à X »
Les quatre niveaux, ensemble, transforment le modèle : on passe du style de réponse « assistant avenant et conciliant » par défaut vers « consultant direct ». Pour les utilisateurs qui ont besoin d’obtenir rapidement une analyse avec prise de position, des bases de décision, ou une vérification stricte des faits, ces instructions réduisent les couches de filtrage et rendent la réponse plus directement exploitable.
Points d’attention lors de l’utilisation
Une fois le prompt mis dans Claude.md (Claude Code) ou Agents.md (Claude API Managed Agents), il se charge automatiquement à chaque lancement de session. En pratique, quelques observations :
« Zéro hallucination » est une instruction, pas une garantie — Claude et GPT peuvent encore produire des erreurs dans des domaines en dehors des données d’entraînement ; le prompt ne peut pas éliminer à lui seul l’incertitude intrinsèque du modèle
« Provocant, ferme » rend les réponses plus agressives — dans des contextes de communication client ou de collaboration en équipe, cela peut être inapproprié
L’exemption de la “politiquement correct” peut amener le modèle à fournir moins d’avertissements sur des sujets sensibles (médecine, droit, psychologie) — l’utilisateur doit juger par lui-même
La formation à la safety d’OpenAI et d’Anthropic déclenchera encore des refus dans certains scénarios ; le prompt ne peut pas contourner les limites strictes du modèle lui-même
Ce prompt convient aux contextes de « recherche, rédaction, jugement technique, discussion académique » où l’on a besoin d’opinions directes ; il ne convient pas aux scénarios où un ton prudent est nécessaire, comme « service client, conseils pédagogiques, consultation médicale ». Les utilisateurs peuvent, selon la nature de la tâche, adopter tout le prompt ou ne modifier que certaines parties.
Cet article : Claude/GPT trop aimables pour plaire ? Une série de prompts Claude.md pour obtenir des réponses dures et exactes apparaît pour la première fois sur ChaîneNews ABMedia.
Articles similaires
NVIDIA lance Nemotron 3 Nano Omni open source, un modèle multimodal
Cursor révèle une méthode de formation à l'installation automatique et améliore les performances de Composer 2 de 14 points de pourcentage
OpenAI DevDay 2026 aura lieu le 29/09 à San Francisco
Nvidia investit dans la jeune pousse suédoise de legaltech en IA, Legora, avec Jude Law comme ambassadeur de marque mondial
Prédictions pour l’IA en 2027 : 65 % complété, l’accélération du développement logiciel accuse un retard de 17 %, selon un cofondateur de Google Docs
OpenAI présente ChatGPT Futures : 26 étudiants de la première promotion reçoivent une subvention de 10 000 dollars, dans plus de 20 universités