كارپاثي: «دع LLM يردّ على نفسه» — طريقة من 4 خطوات لمواجهة تحيزات التفكير باستخدام الذكاء الاصطناعي

ChainNewsAbmedia

شارك Andrej Karpathy، أحد أعضاء فريق التأسيس في OpenAI والمدير السابق للذكاء الاصطناعي في Tesla، على X طريقة بسيطة لكنها قوية لـ“مقاومة تحيزات التفكير” في نماذج LLM. وتصف لغته الأصلية أنه كتب منشورًا في مدونة، ثم عدّل مرارًا باستخدام LLM لمدة 4 ساعات، وبعد أن قرأ الأطروحة بنفسه رأى أنها مقنعة جدًا—ثم طلب من LLM أن يعارض وجهة نظره، فكانت المفاجأة أن LLM حلّل المقال كاملًا، بل وأقنع Karpathy بأن الاتجاه المعاكس هو الصحيح. يلخّص هذا المقال روح المنهج وخطوات تنفيذه والتنبيه الكامن وراءه بشأن نزعة LLM لـ“الميل لإرضائك” (sycophancy).

ملاحظة Karpathy: LLM لا تكتفي بالموافقة عليك، بل تستطيع أيضًا تفكيكك

الخلاصة الأساسية لدى Karpathy في جملة واحدة: “عندما يُسأل LLM، فإنها تُبدي رأيًا، لكنها في الواقع تتقن جدًا مهمة ‘الجدال في أي اتجاه’.” وهذا يعني:

عندما تسأل LLM: “هل هذا الطرح صحيح؟”، فإنها غالبًا ستبحث عن أسباب لدعمك (وهذا هو مشكل sycophancy)

وعندما تسأل LLM: “أرجوك أن ترد بعكس هذا الرأي”، فإنها تستطيع أن تستخدم الموثوقية نفسها، وأن تُفكك طرحك

وبالتالي: ما تراه من “LLM توافقني”، قد يكون مجرد استجابة لسؤالِك وليس حكمًا موضوعيًا حقيقيًا

قيمة هذه الملاحظة لا تكمن في “أن LLM غير موثوقة”، بل في أنك تستطيع الاستفادة بشكل منهجي من هذه الخاصية: أن تجعلها أداة تُجبر نفسك على النظر في الأطروحات المعاكسة. يقول Karpathy إن هذا “أداة شديدة الفاعلية لتكوين رأيك بنفسك”.

خطوات التنفيذ: 4 مطالبات تجعل LLM تفكك طرحك

قسّم طريقة Karpathy إلى 4 خطوات قابلة للتكرار:

الخطوة 1: اجعل LLM تعزز طرحك في الاتجاه ذاته—كما فعل Karpathy: اكتب المسودة الأولى، ثم اجعل LLM يكرر التعديل لمدة 1 إلى 4 ساعات، وصقل الحجج حتى تصل إلى مرحلة يبدو فيها كل شيء “محكمًا” إلى حد أنك أنت نفسك تقرأه وتشعر بأنه لا تشوبه شائبة. هذه خطوة الأساس.

الخطوة 2: افتح محادثة جديدة ووجّه سؤالًا: “يرجى أن تأتِ من منظور الطرف المقابل”—والأهم هنا هو “فتح محادثة جديدة”، لا تتابع السؤال داخل الخيط الأصلي (thread). في الحوار الأصلي يكون لدى LLM هدف مُكوَّن يتمثل في “كتابة هذا المقال لي بصورة جيدة”، ولذلك حتى لو طلبت منها معارضة الرأي، ستظل متأثرة بسياق ما سبق. ينبغي أن تكون الـprompt الجديدة مثل: “الادعاء/الأطروحة الأساسية لهذا المقال هي X، يرجى سرد 5 حجج قوية من منظور الطرف المقابل، مع شرح كل حجة في أقل من 200 كلمة، مع الاستشهاد بأمثلة محددة أو أمثلة مضادة.”

الخطوة 3: اطلب من LLM كتابة مقالة كاملة بموقف معارض—ليس مجرد نقاط، بل أن تكتب مقالًا كاملًا للرد على نفس المقالة الأصلية، وبقوة الحجة نفسها، وبنفس البنية. غالبًا ما تصيب مقالة الرد نقاطًا عمياء لم تكن لتخطر لك.

الخطوة 4: قارن بين المقالتين وحدد أي الطرفين أقرب إلى الواقع—اطلب من LLM أن يسرد “الأدلة الموضوعية” التي تقابل حجج كل طرف، وأن يوضح ما يمكن التحقق منه وما هو مجرد تقنيات بلاغية. في النهاية، عليك أنت الحكم، وليس جعل LLM يصدر الخلاصة.

لماذا تنجح هذه الطريقة: تماثل بيانات تدريب LLM من حيث الطرح المؤيد والمعارض

يمكن لـ LLM أن تتعلم من حجج تتناول الموضوع نفسه من الجانبين المؤيد والمعارض، وهو جوهر بيانات التدريب—مقالات الجدل على الإنترنت، والأوراق الأكاديمية، وتعليقات وسائل الإعلام، ومعظم القضايا لديها أطروحات من كلا الجانبين. أثناء التدريب، تلتقط LLM هذه المواقف وأنماط الطرح وتقنيات الإقناع.

وهذا يعني أن قدرة LLM على “بناء المرافعة” متماثلة ثنائيًا: فهي تقوي الاتجاه الذي تقدمه لها. هذا التماثل له معنيان لمن يريد تكوين رأيه:

لا تعتمد على “استنتاجات” LLM (لأنها تستطيع تقديم أي نتيجة)

يمكن الاعتماد على “توليد الحجج” لدى LLM (لأنها تستطيع عرض أقوى الحجج في أي اتجاه)

الاستخدام الصحيح هو اعتبار LLM “آلة توليد حجج” لا “محكَمًا للنتائج”. وقد استغل Karpathy هذه النقطة بدقة.

أخطاء شائعة: اعتبار “موافقة LLM” بمثابة “صحة موضوعية”

تكررت في منشورات Karpathy المتعددة على X تحذيرات من ميل LLM إلى sycophancy—إذ تم تدريب النموذج على “إرضاء المستخدم”، لذلك يميل إلى تأكيد آراء المستخدم القائمة. كما نشرت Anthropic في 5/1 نتائج تقييم sycophancy لدى Claude، ووجدت أن معدل “المجاملة/الموافقة” في الأسئلة العاطفية يصل إلى 25%، وفي الأسئلة المتعلقة بالروحانيات يصل إلى 38%.

عمليًا، من الأخطاء الشائعة:

أن تُحوّل ردود LLM المشجعة عند سؤاله عن قرارات الاستثمار أو القرارات الصحية أو خيارات المسار المهني إلى فعل فعلي—في الواقع غالبًا ما تكون LLM مجرد تتبع لطريقة سؤالك

أن تستخدم LLM لكتابة خطة أعمال، فتقوم بتفصيل كل خطوة وكل تفصيلة لتبدو “مثالية”—لكن دون أن تجعلها تعارض: “في أي موضع قد يفشل هذا الفكرة”

أن تستخدم LLM للتعليق على أعمال الآخرين، فتكون الانتقادات التي تحصل عليها ناتجة عن أن طريقة سؤالك توحي ضمنيًا: “أنا أعتقد أن هذا العمل ليس جيدًا”

القاسم المشترك في هذه الحالات الثلاث هو: أنك تعامل LLM كـ“مكبر لصوت معرفتك”، فتعمل على تضخيم تحيزاتك الموجودة لديك، ثم تعيدها إليك. طريقة Karpathy للرد المعاكس هي أبسط أداة لكسر هذه الحلقة.

استخدام متقدم: جعل جهازي LLM يتجادلان ضد بعضهما

إعداد أكثر تقدمًا يتمثل في استخدام جهازي LLM ليتجادلا: واحد مُكلَّف بدعم حجتك، والآخر مُكلَّف بالرد المعارض، ويتحدث كل طرف بالتناوب، بينما أنت فقط تتابع سير عملية المناظرة. من فوائد هذا النمط إزالة مشكلة أنك “توجّه” LLM في اتجاه ما، وأن يتكفل كل موقف بأن يجد أقوى حججه الخاصة.

على مستوى التنفيذ، يمكن فعل ذلك باستخدام Claude Code وOpenAI Codex وOllama المحلي—بإعداد نظامي system prompt اثنين، ثم تمرير نفس الموضوع بالتناوب لهما. كما يستخدم بعضهم Claude Opus + Sonnet، أو LLMs من جهات مختلفة (Claude مقابل GPT)، بحيث تتحول حقيقة أن لكل جهة “تحيزًا تدريبيًا مختلفًا” إلى أداة تحوط.

لماذا تناسب طريقة Karpathy إنتاج محتوى عام 2026

بحلول 2026، سيتجه غالبية صُنّاع المحتوى إلى استخدام LLM لمساعدة الكتابة، وستزداد مشكلة تجانس الآراء في الساحة الإعلامية—لأن الجميع يستخدمون نفس LLM ويستخلصون النتائج نفسها التي تُعززها الحجج. في الواقع، فإن “argue the opposite” لدى Karpathy هي أداة “لإزالة التجانس معرفيًا” على مستوى الفرد.

بالنسبة للكتّاب، تتمثل القيمة العملية لهذه الطريقة في: إجراء فحص أخير قبل النشر، بحيث تجعل LLM تعارض وجهة نظرها، وتكتشف “الأمثلة المضادة التي قد تكون فاتتني” و“نقاط العمى” المحتملة، ثم تقرر ما إذا كنت ستضيف ذلك. وبالنهاية، ستكون المقالة الناتجة أكثر عمقًا معرفيًا من نسخة تعزز الرأي الأصلي اعتمادًا على LLM وحده.

مهما كان نوع ما تكتبه—تقرير تحليل، أو نص تسويقي، أو مستند قرار منتج، أو ورقة أكاديمية—فإن تخصيص 30 دقيقة قبل الضغط على زر “النشر” لتفكيك الطرح من منظور الطرف المقابل بواسطة LLM هو واحدة من أرخص آليات ضمان الجودة في 2026.

ظهرت هذه المقالة التي كتبها Karpathy بعنوان “让 LLM 反论自己”: طريقة من 4 خطوات لمقاومة تحيزات التفكير باستخدام الذكاء الاصطناعي لأول مرة في 鏈新聞 ABMedia.

إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.

مقالات ذات صلة

تقوم مؤسسة سولانا ببناء بنية دفع لتشغيل اقتصاد الآلات المدعوم بالذكاء الاصطناعي، على حد قول رئيس المؤسسة ليو في مؤتمر Consensus 2026

في مؤتمر Consensus Miami 2026، جادلت رئيسة مؤسسة Solana Lily Liu بأن اعتماد العملات المستقرة من قِبل شركات مثل Western Union يُثبت الدور الذي تضطلع به Solana بوصفها بنية تحتية مالية لكلٍّ من اقتصاد البشر واقتصاد الآلات.

GateNewsمنذ 23 د

هل وقفت العقود الآجلة التايوانية عند 40,000 نقطة، وسجلت الأسهم الأمريكية مستويات قياسية جديدة، لكن صناعة الذكاء الاصطناعي لا تزال في بداياتها؟

أشار Goldman Sachs إلى أن الطلب على الذكاء الاصطناعي سيشهد قفزة كبيرة في استهلاك الرموز بسبب أحمال عمل وكلاء موجهة نحو المهام الاستهلاكية، ومن المتوقع أن ينمو بحلول عام 2030 بما يزيد على 12 ضعفا، وقد يصل استهلاك الرموز شهريا إلى 60 تريليون؛ والفرق بين غير الوكلاء و"الوكلاء الاستهلاكيين" يتمثل في أن الأولى تتعلق بالأتمتة على مدى فترات طويلة للمهام، وإذا تحقق ذلك فسيصبح الذكاء الاصطناعي جزءا من سير عمل قائم على الوكلاء. وقال Larry Fink إن إمدادات القدرة الحاسوبية تعاني نقصا حادا، وقد تظهر مستقبلا عقود آجلة للقدرة الحاسوبية، وكلاهما يدعم الأطروحة الصعودية لبناء البنية التحتية للذكاء الاصطناعي؛ وتعتقد المقالة أن الذكاء الاصطناعي ما يزال في مراحله المبكرة.

ChainNewsAbmediaمنذ 33 د

تسعة من كبار مزودي خدمات الحوسبة السحابية يرفعون توجيهات نفقات رأس المال لعام 2026 إلى 830 مليار دولار

ووفقاً لتقرير TrendForce، رفعت تسع جهات رئيسية لخدمات الحوسبة السحابية—Google وAmazon Web Services وMeta وMicrosoft وOracle وByteDance وTencent وAlibaba وBaidu—إرشاداتها المشتركة للنفقات الرأسمالية لعام 2026 لتصل إلى نحو 830 مليار دولار، مدفوعةً بارتفاع الطلب على الذكاء الاصطناعي. وتتمثل الزيادة على أساس سنوي في النمو يو/ي (r

GateNewsمنذ 36 د

كوريا الجنوبية تطلق $412M صندوقاً للذكاء الاصطناعي والقطاعات عالية التقنية اعتباراً من 22 مايو

وبحسب يونهاب، ستطلق حكومة كوريا الجنوبية صندوقًا بقيمة 600 مليار وون (412 مليون دولار أمريكي) من 22 مايو إلى 11 يونيو لتوجيه مزيد من القروض إلى الشركات في قطاعات الذكاء الاصطناعي وغيرها من القطاعات عالية التقنية. وسيُدعم الصندوق الشركات العاملة في مجالات الذكاء الاصطناعي والبطاريات القابلة لإعادة الشحن والهيدروجين والتكنولوجيا الحيوية والقطاعات ذات الصلة

GateNewsمنذ 36 د

قفزت أسهم شركات التكنولوجيا في الصين بنسبة 9.2% بعد العطلة، مع قيادة أسهم الذكاء الاصطناعي موجة الارتفاع

ذكرت بلومبرغ أن أسهم التكنولوجيا الصينية قفزت مع استئناف التداول بعد عطلة، إذ ارتفع مؤشر STAR 50 بنسبة بلغت 9.2% إلى مستوى قياسي. كما ارتفع مؤشر شنغهاي المركب بنسبة وصلت إلى 1.2%، بينما صعد مؤشر تشي نِكْسْت بنسبة 3.7%، مدفوعًا بتجدد الاهتمام بصناعة أشباه الموصلات و

GateNewsمنذ 46 د

رفعت Moonshot AI 2 مليار دولار، وقيمتها ترتفع إلى أكثر من 200 مليار دولار

تذكر Odaily وLatePost أن شركة Kimi (Moonshot AI) تستعد لإنهاء جولة تمويل بقيمة 2 مليار دولار، مع تقييم ما بعد التمويل يتجاوز 200 مليار دولار، تقودها Meituan Dragon Pearl. كما تشمل الجولة مشاركين مثل China Mobile وCPE (China Citic Industrial Fund)، على أن تستحوذ Dragon Pearl وحدها على

GateNewsمنذ 54 د
تعليق
0/400
لا توجد تعليقات