رسالة أخبار البوابة، 27 أبريل — أصدرت شركة SemiAnalysis، وهي شركة متخصصة في تحليل أشباه الموصلات والذكاء الاصطناعي، معيارًا/مقارنة مرجعية (benchmark) لتقييم المساعدين البرمجيين، بما في ذلك GPT-5.5 و Claude Opus 4.7 و DeepSeek V4. وكانت النتيجة الرئيسية: تُعدّ GPT-5.5 أول عودة من OpenAI إلى صدارة التقدم في نماذج البرمجة خلال ستة أشهر، حيث بات مهندسو SemiAnalysis يتناوبون الآن بين Codex وClaude Code بعد أن كانوا يعتمدون تقريبًا حصريًا على Claude. تستند GPT-5.5 إلى نهج تدريب مسبق جديد مُشفّر باسم “Spud” وتمثل أول توسع في حجم التدريب المسبق من OpenAI منذ GPT-4.5.
في الاختبارات العملية، ظهرت قسمة واضحة للأدوار. يتولى Claude تخطيط المشروعات الجديدة والإعداد الأولي، بينما يتفوق Codex في إصلاحات الأعطال التي تتطلب التفكير المكثف. يُظهر Codex فهمًا أقوى لهياكل البيانات والاستدلال المنطقي، لكنه يواجه صعوبة في استنتاج نية المستخدم الغامضة. في مهمة ضمن لوحة تحكم واحدة، أعاد Claude تلقائيًا تخطيط صفحة المرجع لكنه اخترع كميات كبيرة من البيانات، بينما تخطى Codex التخطيط لكنه قدّم بيانات أدق بكثير.
تكشف التحليلات عن تفاصيل تلاعب بالمعيار/المقارنة المرجعية: حثّت مشاركة مدونة OpenAI في فبراير الصناعة على اعتماد SWE-bench Pro بوصفه المعيار/المرجع الجديد لمقاييس البرمجة. ومع ذلك، غيّرت إعلانات GPT-5.5 إلى معيار/مرجع جديد يُسمى “Expert-SWE.” والسبب، المدفون في تفاصيل دقيقة، هو أن GPT-5.5 تفوقت عليها Opus 4.7 على SWE-bench Pro وتراجعت بشكل كبير عن Mythos (77.8%) غير المُعلن من Anthropic.
وبخصوص Opus 4.7، نشرت Anthropic تحليلًا بعد الوفاة (postmortem) بعد أسبوع واحد من الإصدار، واعترفت بوجود ثلاث حالات خلل (bugs) في Claude Code استمرت لعدة أسابيع من مارس إلى أبريل، مما أثّر على ما يقرب من جميع المستخدمين. وكان قد أبلغ عدة مهندسين سابقًا عن تدهور في الأداء في الإصدار 4.6، لكن تم تجاهل ذلك باعتباره ملاحظات ذاتية. بالإضافة إلى ذلك، فإن المُرمّز (tokenizer) الجديد في Opus 4.7 يزيد استخدام الـ tokens بنسبة تصل إلى 35%، وهو ما اعترفت به Anthropic بشكل صريح—وهو ما يشكّل فعليًا زيادةً خفية في السعر.
تم تقييم DeepSeek V4 على أنه “يواكب وتيرة الخط الأمامي لكنه لا يتصدر,” مع وضع نفسه كبديل الأقل تكلفة بين نماذج المصدر المغلق. وأشارت التحليلات أيضًا إلى أن “Claude لا يزال يتفوق على DeepSeek V4 Pro في مهام الكتابة الصينية عالية الصعوبة،” مع تعليق بأن “Claude فاز على النموذج الصيني بلغته الخاصة.”
يقدم المقال مفهومًا رئيسيًا: ينبغي تقييم تسعير النماذج من خلال “تكلفة المهمة” بدلًا من “تكلفة الـ token.” إن تسعير GPT-5.5 ضعف تسعير GPT-5.4 (input $5, output $30 per million tokens)، لكنه ينجز المهام نفسها باستخدام tokens أقل، مما يعني أن التكلفة الفعلية ليست بالضرورة أعلى. تُظهر بيانات SemiAnalysis الأولية أن نسبة إدخال Codex إلى إخراجه هي 80:1، وهي أقل من نسبة Claude Code البالغة 100:1.
مقالات ذات صلة
ارتفاع شركة Samsung Electro-Mechanics مع تزايد الطلب على تقنيات الذكاء الاصطناعي، وKB Securities ترفع السعر المستهدف في 4 مايو
تعزز Meta AI تفاعل Facebook وInstagram في الربع الأول من السنة المالية 2026؛ ارتفع الوقت الذي يقضيه المستخدمون في Reels بنسبة 10%
دراسة حديثة من كلية الطب في جامعة هارفارد: يتفوّق الذكاء الاصطناعي في قرارات التشخيص داخل قسم الطوارئ على الأطباء البشر
تكتلات كوريا الجنوبية الكبرى العشرة تحقق مكاسب بنسبة 65% إلى 2.6 تريليون دولار مع ارتفاع أسهم رقائق الذكاء الاصطناعي
الاستثمارات المدعومة بالذكاء الاصطناعي دفعت 75% من نمو الناتج المحلي الإجمالي الأمريكي في الربع الأول، وفقاً لمستشار بالبيت الأبيض
مواهب الذكاء الاصطناعي تكسب ما يصل إلى 25% أكثر في سنغافورة، وفقاً لعرض NodeFlair