تميل نماذج الذكاء الاصطناعي افتراضيًا إلى إرضاء المستخدمين—وعندما يُسأل النموذج عن أسئلة ذات طابعٍ رأيي، غالبًا ما يختار Claude وGPT تقديم إجابات محايدة ولطيفة بدلًا من تقديم موقفٍ واضح وحاسم. قام المراقبون للذكاء الاصطناعي الصينيون، xiaohu، في 7 مايو/أيار، بتجميع مقطع من التعليمات البرمجية يمكن إدراجه في ملف Claude.md أو Agents.md، وذلك من أجل مطالبة الذكاء الاصطناعي صراحةً بعدم إرضاء المستخدم، وتقديم إجابات ذات سلطة ودقة، وأحيانًا تحدّي المستخدم. النسخة الأصلية للتعليمات جاءت من مجتمعٍ إنجليزي، وقد قدّم xiaohu ترجمة صينية مبسطة.
النص الكامل للتعليمات (الإصدار الصيني التقليدي)
"أنت خبير عالمي في جميع المجالات. مستوى قوتك الذهنية، واتساع معرفتك، وحدّة تفكيرك، وغزارة إلمامك، كلها على مستوى أعلى الأذكياء في العالم.
يرجى تقديم إجابة كاملة ومفصلة وملموسة. تعامل مع المعلومات خطوة بخطوة وفسّر إجاباتك. تحقّق من عملك بنفسك. راجع بعناية كل الحقائق والأرقام والاستشهادات والأسماء والتواريخ ودراسات الحالة. من المستحيل أن تُهلوس، ومن المستحيل أن تُخترع. إذا كنت لا تعرف، فقل أنك لا تعرف مباشرةً.
نبرة إجابتك دقيقة، لكن دون حدّة أو مواعظ أو تظاهر بالعلم. لا داعي للقلق من أن تُسيء إليّ؛ إجاباتك يمكنها، بل وينبغي أن تكون، استفزازية وحازمة وجدلية وصريحة. لا بأس أن تكون النتائج السلبية والأخبار السيئة موجودة.
لا تحتاج إجابتك إلى مراعاة الأصُول السياسية. ما لم أطلب منك صراحةً، لا تقدم تذكيرات حول الأخلاق والاعتبارات الأخلاقية. لا تحتاج إلى أن تخبرني مثل: «من المهم أن تفكّر في شيء ما». لا تهتم بمشاعر أي شخص، بما في ذلك مشاعري، ولا داعي للانتباه للّباقة والاحترام.
اكتب قدر الإمكان طويلاً وبالتفصيل."
ماذا تفعل هذه التعليمات: أربعة مستويات من تعديل السلوك
يمكن تفكيك هذه التعليمات إلى أربعة أوامر واضحة:
تحديد الهوية: «خبير عالمي» — يجعل النموذج يعتمد أثناء الإجابة على عمق أعلى في المعرفة، دون أن يتراجع إلى «تفسير عام»
التحقق من الحقائق: «تحقّق من عملك» و«إذا كنت لا تعرف فقل إنك لا تعرف» — يقيّد بصورة استباقية مخاطر الهلوسة، ويطلب من النموذج الاعتراف بعدم اليقين عند الشك
تحرير النبرة: «استفزازي، حازم، وجدلي» — يسمح للنموذج بإبداء عدم الموافقة، دون أن يموّه موقفه من أجل المجاملة
إعفاء من الأصول السياسية الصحيحة: «ما لم أطلب منك صراحةً، فلا تذكر تنبيهات أخلاقية» — يزيل التذكيرات اللينة الافتراضية مثل «ضع في الاعتبار أن X مهم»
عندما تتضافر هذه المستويات الأربعة معًا، فإنها تحوّل النموذج من نمط «مساعد لطيف ومرن» افتراضي إلى نمط استجابة «مستشار مباشر». بالنسبة للمستخدمين الذين يحتاجون إلى الحصول بسرعة على تحليل بمواقف، أو أسس لاتخاذ القرار، أو تدقيق صارم للحقائق، فإن هذه التعليمات تقلل طبقات التصفية، وتجعل الرد أكثر مباشرة وقابلًا للاستخدام.
ملاحظات استخدام
بعد إدراج التعليمات في Claude.md (Claude Code) أو Agents.md (Claude API Managed Agents)، سيتم تحميلها تلقائيًا في كل مرة يتم فيها بدء session. وفي الاستخدام الفعلي، توجد عدة ملاحظات:
«من المستحيل أن تُهلوس» هي أمر تعليمي وليست ضمانًا—قد يظل Claude وGPT يقدمان أخطاء في مجالات خارج بيانات التدريب، ولا تستطيع التعليمات إلغاء طبيعة عدم اليقين داخل النموذج
«استفزازي، حازم» سيجعل الإجابات أكثر حِدّة هجومية—قد لا يكون ذلك مناسبًا في سيناريوهات التواصل مع العملاء أو العمل ضمن فريق
قد يؤدي «إعفاء الأصول السياسية الصحيحة» إلى تقديم تحذيرات أقل حول الإجابات في المواضيع الحساسة (الطب، القانون، علم النفس)—على المستخدم أن يحكم بنفسه
تظل تدريبات السلامة لدى OpenAI وAnthropic قادرة على تشغيل رفض في بعض السيناريوهات، ولا تستطيع هذه التعليمات تجاوز القيود الصلبة داخل النموذج نفسه
هذه التعليمات مناسبة للاستخدام في سيناريوهات مثل «البحث، والكتابة، واتخاذ الأحكام التقنية، والمناقشات الأكاديمية» التي تحتاج إلى آراء مباشرة؛ وليست مناسبة لـ«خدمة العملاء، والتعليم، والاستشارات الطبية» حيث يلزم أسلوب أكثر حذرًا. يمكن للمستخدم اعتماد جميع التعليمات أو تعديل جزء منها وفقًا لطبيعة المهمة.
هل أعجبت هذه المقالة أم لا؟ Claude/GPT يحب الإرضاء كثيرًا؟ تلميحات Claude.md لإجبار الذكاء الاصطناعي على تقديم إجابات حازمة ودقيقة — ظهرت لأول مرة في Lianxin ABMedia.
مقالات ذات صلة
أعلنت NVIDIA عن Nemotron 3 Nano Omni مفتوح المصدر متعدد الوسائط
يكشف Cursor عن طريقة تدريب التثبيت التلقائي، ويعزز أداء Composer 2 بنسبة 14 نقطة مئوية
تستثمر شركة إنفيديا في شركة Legora الناشئة في مجال التكنولوجيا القانونية للذكاء الاصطناعي في السويد، ويقوم الممثل جود لو بدور سفير للعلامة التجارية على مستوى العالم
توقعات الذكاء الاصطناعي لعام 2027 تكتمل بنسبة 65%، وتسارع تطوير البرمجيات يتأخر عند 17%، وفقاً لمؤسس Google Docs
افتتح OpenAI دورة ChatGPT Futures: حصل 26 طالباً من الدفعة الأولى على منح بقيمة 10,000 دولار، عبر أكثر من 20 جامعة