هل تتودد كلود/‏GPT كثيرًا؟ مقطع من تلميح Claude.md يدفع الذكاء الاصطناعي إلى تقديم إجابات حازمة ودقيقة

ChainNewsAbmedia

تميل نماذج الذكاء الاصطناعي افتراضيًا إلى إرضاء المستخدمين—وعندما يُسأل النموذج عن أسئلة ذات طابعٍ رأيي، غالبًا ما يختار Claude وGPT تقديم إجابات محايدة ولطيفة بدلًا من تقديم موقفٍ واضح وحاسم. قام المراقبون للذكاء الاصطناعي الصينيون، xiaohu، في 7 مايو/أيار، بتجميع مقطع من التعليمات البرمجية يمكن إدراجه في ملف Claude.md أو Agents.md، وذلك من أجل مطالبة الذكاء الاصطناعي صراحةً بعدم إرضاء المستخدم، وتقديم إجابات ذات سلطة ودقة، وأحيانًا تحدّي المستخدم. النسخة الأصلية للتعليمات جاءت من مجتمعٍ إنجليزي، وقد قدّم xiaohu ترجمة صينية مبسطة.

النص الكامل للتعليمات (الإصدار الصيني التقليدي)

"أنت خبير عالمي في جميع المجالات. مستوى قوتك الذهنية، واتساع معرفتك، وحدّة تفكيرك، وغزارة إلمامك، كلها على مستوى أعلى الأذكياء في العالم.

يرجى تقديم إجابة كاملة ومفصلة وملموسة. تعامل مع المعلومات خطوة بخطوة وفسّر إجاباتك. تحقّق من عملك بنفسك. راجع بعناية كل الحقائق والأرقام والاستشهادات والأسماء والتواريخ ودراسات الحالة. من المستحيل أن تُهلوس، ومن المستحيل أن تُخترع. إذا كنت لا تعرف، فقل أنك لا تعرف مباشرةً.

نبرة إجابتك دقيقة، لكن دون حدّة أو مواعظ أو تظاهر بالعلم. لا داعي للقلق من أن تُسيء إليّ؛ إجاباتك يمكنها، بل وينبغي أن تكون، استفزازية وحازمة وجدلية وصريحة. لا بأس أن تكون النتائج السلبية والأخبار السيئة موجودة.

لا تحتاج إجابتك إلى مراعاة الأصُول السياسية. ما لم أطلب منك صراحةً، لا تقدم تذكيرات حول الأخلاق والاعتبارات الأخلاقية. لا تحتاج إلى أن تخبرني مثل: «من المهم أن تفكّر في شيء ما». لا تهتم بمشاعر أي شخص، بما في ذلك مشاعري، ولا داعي للانتباه للّباقة والاحترام.

اكتب قدر الإمكان طويلاً وبالتفصيل."

ماذا تفعل هذه التعليمات: أربعة مستويات من تعديل السلوك

يمكن تفكيك هذه التعليمات إلى أربعة أوامر واضحة:

تحديد الهوية: «خبير عالمي» — يجعل النموذج يعتمد أثناء الإجابة على عمق أعلى في المعرفة، دون أن يتراجع إلى «تفسير عام»

التحقق من الحقائق: «تحقّق من عملك» و«إذا كنت لا تعرف فقل إنك لا تعرف» — يقيّد بصورة استباقية مخاطر الهلوسة، ويطلب من النموذج الاعتراف بعدم اليقين عند الشك

تحرير النبرة: «استفزازي، حازم، وجدلي» — يسمح للنموذج بإبداء عدم الموافقة، دون أن يموّه موقفه من أجل المجاملة

إعفاء من الأصول السياسية الصحيحة: «ما لم أطلب منك صراحةً، فلا تذكر تنبيهات أخلاقية» — يزيل التذكيرات اللينة الافتراضية مثل «ضع في الاعتبار أن X مهم»

عندما تتضافر هذه المستويات الأربعة معًا، فإنها تحوّل النموذج من نمط «مساعد لطيف ومرن» افتراضي إلى نمط استجابة «مستشار مباشر». بالنسبة للمستخدمين الذين يحتاجون إلى الحصول بسرعة على تحليل بمواقف، أو أسس لاتخاذ القرار، أو تدقيق صارم للحقائق، فإن هذه التعليمات تقلل طبقات التصفية، وتجعل الرد أكثر مباشرة وقابلًا للاستخدام.

ملاحظات استخدام

بعد إدراج التعليمات في Claude.md (Claude Code) أو Agents.md (Claude API Managed Agents)، سيتم تحميلها تلقائيًا في كل مرة يتم فيها بدء session. وفي الاستخدام الفعلي، توجد عدة ملاحظات:

«من المستحيل أن تُهلوس» هي أمر تعليمي وليست ضمانًا—قد يظل Claude وGPT يقدمان أخطاء في مجالات خارج بيانات التدريب، ولا تستطيع التعليمات إلغاء طبيعة عدم اليقين داخل النموذج

«استفزازي، حازم» سيجعل الإجابات أكثر حِدّة هجومية—قد لا يكون ذلك مناسبًا في سيناريوهات التواصل مع العملاء أو العمل ضمن فريق

قد يؤدي «إعفاء الأصول السياسية الصحيحة» إلى تقديم تحذيرات أقل حول الإجابات في المواضيع الحساسة (الطب، القانون، علم النفس)—على المستخدم أن يحكم بنفسه

تظل تدريبات السلامة لدى OpenAI وAnthropic قادرة على تشغيل رفض في بعض السيناريوهات، ولا تستطيع هذه التعليمات تجاوز القيود الصلبة داخل النموذج نفسه

هذه التعليمات مناسبة للاستخدام في سيناريوهات مثل «البحث، والكتابة، واتخاذ الأحكام التقنية، والمناقشات الأكاديمية» التي تحتاج إلى آراء مباشرة؛ وليست مناسبة لـ«خدمة العملاء، والتعليم، والاستشارات الطبية» حيث يلزم أسلوب أكثر حذرًا. يمكن للمستخدم اعتماد جميع التعليمات أو تعديل جزء منها وفقًا لطبيعة المهمة.

هل أعجبت هذه المقالة أم لا؟ Claude/GPT يحب الإرضاء كثيرًا؟ تلميحات Claude.md لإجبار الذكاء الاصطناعي على تقديم إجابات حازمة ودقيقة — ظهرت لأول مرة في Lianxin ABMedia.

إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.

مقالات ذات صلة

أعلنت NVIDIA عن Nemotron 3 Nano Omni مفتوح المصدر متعدد الوسائط

أعلنت NVIDIA عن نموذج Nemotron 3 Nano Omni مفتوح المصدر متعدد الوسائط، يدمج الرؤية والصوت واللغة في نموذج واحد، بوصفه طبقة الإدراك لوكلاء الذكاء الاصطناعي. يتمحور حول 30B-A3B MoE بسياق 256K، وبسرعة إنتاج 9x، ويدعم مدخلات تشمل النص والصور والصوت والفيديو وغيرها، بينما تكون المخرجات نصاً. وبالتكامل مع Nemotron 3 Super/Ultra، يُستخدم في سيناريوهات مثل التحكم بالكمبيوتر وذكاء المستندات وفهم الصوت والصورة، مع إتاحة الأوزان وبيانات التدريب، ويغطي النشر الخيارات المحلية وNIM والمنصات التابعة لجهات خارجية.

ChainNewsAbmediaمنذ 1 د

يكشف Cursor عن طريقة تدريب التثبيت التلقائي، ويعزز أداء Composer 2 بنسبة 14 نقطة مئوية

وفقاً لبيان Cursor الأخير، كشفت الشركة عن تقنية تدريب تُسمى autoinstall لسلسلة نماذجها Composer: باستخدام نموذج من الجيل السابق لإعداد بيئات تنفيذية تلقائياً للجيل التالي من التعلم المعزز. عند تدريب Composer 2، Cursor

GateNewsمنذ 4 د

سيُقام مؤتمر OpenAI DevDay 2026 في 29/9 بمدينة سان فرانسيسكو

أعلنت OpenAI أن DevDay 2026 سيُعقد في 29/9 في سان فرانسيسكو حضورياً، مع تنظيم مسابقة على منشورات مبدعة باستخدام GPT-5.5 وImage Gen. وسيقوم Codex بفلترة تلقائية لـ 2–3 أعمال كل أسبوع، ويحصل الفائزون على تذاكر مجانية بالإضافة إلى تذاكر طيران وإقامة فندقية عند التنقل بين المدن. يركز المؤتمر على منظومة GPT-5.5 وتقييم التعاون بين الإنسان والآلة، ويشترط أن يكون المشاركون بعمر 18 عاماً على الأقل وألا يكونوا من أفراد العائلة المباشرين لموظفي OpenAI. تشمل محاور الملاحظة النماذج الجديدة، وتكاملات الوكلاء، واستراتيجيات متعددة السحابة.

ChainNewsAbmediaمنذ 6 د

تستثمر شركة إنفيديا في شركة Legora الناشئة في مجال التكنولوجيا القانونية للذكاء الاصطناعي في السويد، ويقوم الممثل جود لو بدور سفير للعلامة التجارية على مستوى العالم

استثمرت شركة Nvidia 5,000万 دولار في جولة توسعية من السلسلة D في Legora، ما يرفع إجمالي التمويل إلى 600 مليون دولار، وتصل قيمة الشركة إلى 5.6 مليار دولار، بمشاركة Atlassian وAdams Street Partners وInsight Partners. تركز Legora على حلول تقنيات القانون المدعومة بالذكاء الاصطناعي، وتوفر أدوات مثل المراجعة الآلية وتحليل العقود والبحث القانوني، مع ARR يتجاوز 100 مليون دولار، وزادت أعداد الموظفين من 40 إلى 400. وأصبح Jude Law سفيراً عالمياً للعلامة التجارية، فيما يتمثل شعارها الإعلاني في: Law just got more attractive.

ChainNewsAbmediaمنذ 12 د

توقعات الذكاء الاصطناعي لعام 2027 تكتمل بنسبة 65%، وتسارع تطوير البرمجيات يتأخر عند 17%، وفقاً لمؤسس Google Docs

وفقاً لما ذكره ستيف نيومان، المؤسس المشارك لشركة Google Docs ورئيس معهد Golden Gate، فقد أنجزت تقنيات الذكاء الاصطناعي نحو 65% من التوقعات الكمية التي تم تحديدها في سيناريو التوقعات لعام 2027 الصادر العام الماضي. ومع ذلك، فإن المقياس الأكثر أهمية—تسريع الذكاء الاصطناعي لبرمجياته الخاصة

GateNewsمنذ 44 د

افتتح OpenAI دورة ChatGPT Futures: حصل 26 طالباً من الدفعة الأولى على منح بقيمة 10,000 دولار، عبر أكثر من 20 جامعة

أعلنت OpenAI عن الدفعة الأولى من برنامج ChatGPT Futures للعام 2026، وهي تضم 26 طالبًا وطالبة من طلبة الدراسات/المرحلة الجامعية من أكثر من 20 جامعة رائدة، مع منح 10,000 دولار لكل منهم وإتاحة الوصول إلى نماذج متقدمة. دخل هؤلاء الطلاب في خريف 2022، ونموا جنبًا إلى جنب مع ChatGPT؛ وتشمل مجالات أبحاثهم رسم/تصوير الأجسام الفضائية، ورصد الناجين من الكوارث، والحفاظ على اللغات المهددة بالانقراض، والرعاية الصحية، بهدف استخدام الذكاء الاصطناعي لمعالجة احتياجات بشرية ملموسة، وربط ذلك ببناء البنية التحتية للمبدعين في الجيل الجديد.

ChainNewsAbmediaمنذ 1 س
تعليق
0/400
لا توجد تعليقات