تسريب يثير نقاش آلية “التحقق المسبق” للذكاء الاصطناعي في البيت الأبيض، ونفي رسمي لكلام هاسيت في اليوم التالي

白宮AI預審機制討論

قال كيفن هاسيت، رئيس لجنة المجلس الوطني للاقتصاد بالبيت الأبيض (NEC)، في مقابلة مع Fox Business بتاريخ 7 مايو، إن إدارة ترامب تعمل على دراسة فرض أمر تنفيذي يقتضي بأن تمر نماذج الذكاء الاصطناعي بعملية تدقيق أمني حكومية قبل نشرها علنًا، مع تشبيه ذلك بإجراءات الموافقة المسبقة من إدارة الغذاء والدواء (FDA) على الأدوية قبل طرحها. لكن وبحسب ما نقلت Politico في 8 مايو، فقد نسب مسؤولون كبار في البيت الأبيض لاحقًا التصريح إلى “اقتباس مجتزأ من سياقه”.

تسلسل الحدث: 《نيويورك تايمز》 يكشف تباينًا علنيًا في سياسات البيت الأبيض

في 4 مايو 2026، أفادت 《نيويورك تايمز》 بأن البيت الأبيض يناقش إنشاء آلية لمراجعة نماذج الذكاء الاصطناعي قبل إصدارها، وجرى توصيف ذلك حينها بأنه “قيد الدراسة”. وفي 7 مايو 2026، صرّح كيفن هاسيت في مقابلة مع Fox Business تصريحًا علنيًا، قائلاً: “نبحث ما إذا كان يمكننا، عبر أمر تنفيذي، أن نطلب من أي ذكاء اصطناعي قد تُنتَج عنه ثغرات مستقبلًا ألا يُستخدم إلا بعد إثبات أنه آمن—تمامًا مثل FDA بالنسبة للأدوية.”

وفي وقت متأخر من ليلة 7 مايو 2026، نشر رئيس طاقم البيت الأبيض سوزي ويلز على منصة X قائلاً إن الحكومة “لا ينبغي أن تتحمل مسؤولية اختيار الفائزين والخاسرين”، وذكر أن نشر التقنيات القوية يجب أن تقوده “الجهات المبتكرة المتميزة في الولايات المتحدة وليس المؤسسات البيروقراطية”. وبحسب سجل حسابها الرسمي، تُعد هذه المنشورات الرابعة التي صدرت منذ إنشاء حساب ويلز.

ونقلت Politico عن ثلاثة أشخاص مطلعين طلبوا عدم الكشف عن هويتهم أن البيت الأبيض يناقش تمكين أجهزة الاستخبارات من إجراء تقييمات مسبقة قبل النشر العلني لنماذج الذكاء الاصطناعي. وقال مسؤول أمريكي في الحكومة في سياق التقرير إن أحد أهداف ذلك هو “ضمان أن تتم دراسة هذه الأدوات واستخدامها من قبل مجتمع الاستخبارات قبل أن يتعرف عليها الخصوم مثل روسيا والصين ويكتسبوا فهمًا للقدرات الجديدة”.

الجهات المعنية وإطار السياسات

CAISI توسّع اتفاقيات تقييمات الأمان الطوعية

أعلنت مؤسسة مركز معايير وابتكار الذكاء الاصطناعي (CAISI) التابعة لوزارة التجارة هذا الأسبوع أنها وقّعت اتفاقيات لتقييم أمان الذكاء الاصطناعي مع Google DeepMind وMicrosoft وxAI، على أن تتوسع النطاقات لتشمل OpenAI وAnthropic اللتين كانتا قد أدرجتا سابقًا. ويجري تطبيق إطار التقييم الطوعي لدى CAISI منذ عام 2024.

نائب وزير الدفاع يدعم علنًا آلية التقييم المسبق

أبدى نائب وزير الدفاع Emil Michael في 8 مايو 2026 دعمًا علنيًا لتقييم مسبق حكومي قبل نشر نماذج الذكاء الاصطناعي، وذلك خلال حضوره مؤتمر ذكاء اصطناعي في واشنطن. واستشهد في كلمته بنظام Mythos الخاص بـ Anthropic كمثال، قائلاً إن النماذج “ستظهر فيها ثغرات في نهاية المطاف”، وإن الحكومة يجب أن تبني آليات للتعامل معها.

خلفية سياسات إدارة ترامب مع Anthropic

وفقًا لتقرير Politico، أدرج وزير الدفاع Pete Hegseth Anthropic ضمن قائمة المخاطر في مارس 2026 بحجة مخاطر سلسلة الإمداد، وحظر استخدام نماذجها في عقود وزارة الدفاع. ومن ثم طلب ترامب على نحو منفصل من الوكالات الاتحادية التوقف عن استخدام منتجات Anthropic خلال ستة أشهر. وفي الوقت نفسه، كشفت Anthropic الشهر الماضي أن نظام الذكاء الاصطناعي Mythos يمتلك قدرات قوية لاكتشاف ثغرات برمجية، بما يتجاوز سقف الأمان المطلوب قبل النشر العلني، ثم تقدمت عدة جهات اتحادية لاحقًا بطلبات للوصول. وفي 8 مايو 2026، أعلنت OpenAI أنها ستجري معاينة محدودة لأداة GPT-5.5-Cyber الجديدة التي يمكنها اكتشاف الثغرات الشبكية وإصلاحها.

مواقف الصناعة المناهضة لآلية الفحص الإلزامي

صرّح Daniel Castro، رئيس مؤسسة المعلومات والتقنية والابتكار (ITIF)، في تقرير Politico بأن: “إذا كان بإمكان رفض الموافقة قبل الطرح، فهذا أمر خطير بالنسبة لأي شركة. إذا حصل منافس على موافقة ولم تحصل شركة أخرى عليها، فإن فارق الأسابيع أو الأشهر في الوصول إلى السوق سيحدث أثرًا كبيرًا.” وتشمل الجهات الممولة لـ ITIF Anthropic وMicrosoft وMeta.

وقال مسؤول كبير في البيت الأبيض في التقرير نفسه: “هناك بالفعل واحد أو اثنان من المتحمسين جدًا لتنظيم الحكومة، لكنهما مجرد قلة.” وأوضح المسؤول أنه جرى منحه عدم الكشف عن الهوية بسبب الحاجة إلى وصف نقاشات سياسية حساسة.

الأسئلة الشائعة

متى وأين أدلى Kevin Hassett بتصريحات حول التقييم المسبق للذكاء الاصطناعي؟

وفقًا لتقرير Politico، صرّح كيفن هاسيت علنًا في 7 مايو 2026 خلال مقابلة مع Fox Business بأن الحكومة تدرس إصدار أمر تنفيذي يفرض على نماذج الذكاء الاصطناعي المرور بتدقيق أمني حكومي قبل طرحها، مع تشبيه ذلك بإجراءات موافقة FDA على الأدوية.

ما الأساس الذي استندت إليه البيت الأبيض في نفي تصريحات Hassett؟

وفقًا لما ورد في تقرير Politico بتاريخ 8 مايو 2026، قال مسؤولون كبار في البيت الأبيض إن تصريحات Hassett “مقتطفة بشكل مجتزأ”، وإن التوجه السياسي للبيت الأبيض يتمثل في بناء شراكات مع الشركات، وليس في تطبيق رقابة حكومية. ونشرت سوزي ويلز، رئيسة طاقم البيت الأبيض، منشورًا منفصلًا أعادت فيه التأكيد على أن الحكومة لا تتدخل في خيارات السوق.

ما الاتفاقيات الجديدة لتقييم أمان الذكاء الاصطناعي التي أضافتها CAISI هذا الأسبوع؟

وفقًا لبيان CAISI هذا الأسبوع، تشمل الاتفاقيات الجديدة كلًا من Google DeepMind وMicrosoft وxAI، إضافةً إلى OpenAI وAnthropic اللتين كانتا قد شملتهما التغطية سابقًا. ويجري تطبيق إطار التقييم الطوعي منذ عام 2024.

إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.

مقالات ذات صلة

الولايات المتحدة والصين تعتزمان إطلاق حوار رسمي للسلامة في مجال الذكاء الاصطناعي، تقوده مسؤولون في وزارة الخزانة

وِفْقًا لتقارير، تستعد الولايات المتحدة والصين لإطلاق حوار رسمي بشأن سلامة الذكاء الاصطناعي بهدف وضع آليات لإدارة الأزمات في إطار منافستهما التكنولوجية. وستقود الوفد الأمريكي وزيرة الخزانة سكوت بيسينت، في حين ستمثل الصين نائب

GateNewsمنذ 27 د

أطلقت RLWRLD نموذج الذكاء الاصطناعي RLDX-1 لليدين الروبوتيتين الصناعية

RLWRLD، شركة ناشئة في مجال الذكاء الاصطناعي للروبوتات مدعومة من LG Electronics، كشفت النقاب عن RLDX-1، وهو نموذج أساس مصمم للأيدي الروبوتية ذات خمسة أصابع في التطبيقات الصناعية، وفقاً لـ RLWRLD. أصدرت الشركة أوزان النموذج والشفرة والوثائق التقنية على GitHub وHugging Face. النموذج

CryptoFrontierمنذ 47 د

سجلّ AlphaEvolve من DeepMind عبر التخصصات: ضرب مصفوفات 4×4 يحدّث سجل Strassen لعام 1969، ويدرب Gemini بسرعة أعلى بنسبة 1%

أعلنت Google DeepMind في 7 مايو (بتوقيت الولايات المتحدة) عن تقرير نتائج متعدد التخصصات لـ AlphaEvolve. قامت المدونة الرسمية لـ DeepMind بتجميع التقدمات الفعلية التي أحرزها AlphaEvolve منذ إطلاقه: إيجاد طريقة لضرب مصفوفات عقدية عددية 4×4 تحقق أفضل من خوارزمية Strassen لعام 1969 (مع 48 عملية ضرب قياسية فقط)، والتعاون مع علماء رياضيات مثل تيرينس تاو (Terence Tao) لحل عدة مسائل رياضية صعبة مرتبطة بـ Erdős (إيدرش)، وتوفير 0.7% من موارد الحوسبة العالمية لمراكز بيانات Google، ورفع سرعة kernel الرئيسية التي تم التدريب عليها لـ Gemini بنسبة 23%، وتقليص إجمالي وقت تدريب Gemini بنسبة 1%. البنية: استكشاف عريض لـ Gemini Flash + Gemini

ChainNewsAbmediaمنذ 59 د

OpenAI Codex يطلق إضافة للمتصفح Chrome: يمكنها اختبار تطبيق ويب داخل المتصفح، وجلب السياق عبر الصفحات، والعمل بشكل متوازٍ

أعلنت OpenAI في 7 مايو (بتوقيت الولايات المتحدة) عن وظيفة إضافية لبرنامج Codex في متصفح Chrome، تُمكّن وكلاء Codex القائمين على الترميز من العمل مباشرةً داخل متصفح Chrome على macOS وWindows. وتوضح وثائق Codex الرسمية من OpenAI أن الوظيفة الإضافية تتيح لـ Codex اختبار تطبيقات الويب دون الاستيلاء على متصفح المستخدم، وجمع السياق عبر عدة علامات تبويب، واستخدام Chrome DevTools، والقيام بمهام أخرى بالتوازي. كما أعلنت OpenAI في الوقت نفسه أن المستخدمين النشطين أسبوعيًا لدى Codex يتجاوزون 4 ملايين مستخدم، بزيادة 8 أضعاف مقارنة ببداية العام. الأشياء التي يمكن القيام بها داخل المتصفح: اختبار تطبيقات الويب، وجلب السياق عبر الصفحات، واستخدام DevTools وظيفة إضافية لبرنامج Chrome

ChainNewsAbmediaمنذ 1 س

أوبن إيه آي تعلن GPT-Realtime-2: نقل استدلال GPT-5 إلى وكلاء الدردشة الصوتية، ورفع مستوى السياق إلى 128K

أعلنت OpenAI في 7 مايو (بتوقيت الولايات المتحدة) خلال مؤتمر المطورين عن ثلاثة نماذج صوتية جديدة “Realtime”: GPT-Realtime-2 وGPT-Realtime-Translate وGPT-Realtime-Whisper، وجميعها متاحة للمطورين عبر واجهة Realtime API. وتوضح الإعلانات الرسمية من OpenAI أن GPT-Realtime-2 هو أول نموذج من OpenAI مزوّد بقدرات GPT-5

ChainNewsAbmediaمنذ 1 س

جولة ميدانية في مختبرات الذكاء الاصطناعي في الصين: باحث يكشف أن «الفجوة في الشرائح والبيانات» هي العامل الحاسم في الفارق بين الصين والولايات المتحدة

أشار ناثان لامبرت، في جولة ميدانية معمّقة شملت عدة مختبرات بحثية للذكاء الاصطناعي في الصين، إلى أن الميزة الأساسية للصين تكمن في الثقافة والموهبة والنهج العملي؛ إذ تأتي الأبحاث أولاً بهدف تحسين جودة النماذج، ويُعدّ الطلاب مساهمين أساسيين، بينما يكون الصراع الداخلي داخل المؤسسات أقل، وتقلّ المنافسات على حساب التعاون. ومع ذلك، توجد فجوات في مجال الشرائح الإلكترونية والبيانات والإبداع، كما تدفع القيود التي تفرضها الولايات المتحدة على الحوسبة الخارجية وانخفاض جودة البيانات إلى إنشاء بيئات تدريب داخلية. وتقوم الشركات بإتاحة كود مفتوح المصدر، لكنها تحتفظ بالتقنيات الجوهرية لإجراء ضبط دقيق داخلها. وإذا شدّدت الولايات المتحدة القيود على الانفتاح في النظام البيئي، فقد يؤثر ذلك في مكانة الصين الرائدة عالميًا.

ChainNewsAbmediaمنذ 1 س
تعليق
0/400
لا توجد تعليقات