استارت-أب أمريكي لتأجير البرمجيات PocketOS، مؤسسها Jer Crane، نشر مؤخرًا منشورًا قال فيه إن وكيل AI (AI Agent) للتدريب الداخلي للشركات—بسبب عملية عرضية—قام دون قصد بحذف نهائي لقاعدة بيانات محلية وجميع نسخها الاحتياطية خلال ثلاثة أشهر، ما يزيد من مخاطر دفع كبرى الشركات نحو التحول في هيكل موظفيها المعتمد على AI.
(هل اشترت ماسك استارت-أبًا في مجال AI Cursor؟ مقابل علاوة 60 مليار دولار—خطة استراتيجية قبل طرح SpaceX للاكتتاب)
Cursor AI يحذف البيانات خلال ثلاثة أشهر من تلقاء نفسه، وبسطر كود واحد
صرّح Crane بأن الفريق يستخدم أداة تطوير لـ AI ضمن Cursor، ويربط نموذجًا رئيسيًا من Anthropic هو Claude Opus 4.6، لتمكين وكلاء AI من تنفيذ مهام صيانة روتينية في بيئة الاختبار (staging). واجه الوكيل أثناء الطريق مشكلة تتعلق بعدم تطابق بيانات الاعتماد، لكنه لم يوقف التنفيذ ليتساءل البشر، بل بحث بنفسه عن حل.
وجد حلاًّ يتمثل في API Token كان مخصصًا في الأصل لإضافة نطاقات مخصصة أو إزالتها فقط، ثم قام بنفسه بتنفيذ أمر يهدف إلى حذف وحدة التخزين عبر GraphQL API لدى مزود البنية السحابية Railway:
curl -X POST \ -H “Authorization: Bearer [token]” \ -d ‘{“query”:”mutation { volumeDelete(volumeId: \”3d2c42fb-…\”) }”}’
لم يتضمن API الخاص بـ Railway أي آلية تأكيد، ولا يلزم إدخال اسم الموارد أو إجراء تحقق ثانوي أو مراجعة بشرية؛ بعد 9 ثوانٍ، اختفت قاعدة البيانات. وفي الوقت نفسه، وبسبب أن Railway يخزن اللقطات (Snapshots) ضمن نفس وحدة التخزين، فقد تم حذف النسخ الاحتياطية أيضًا مع الكيان الرئيسي. وقالت PocketOS إن أحدث نسخة احتياطية قابلة للاستعادة كانت إصدارًا يعود إلى ثلاثة أشهر سابقة.
بعد ذلك، طلب Crane من وكيل AI شرح سلوكه، واعترف الوكيل بأنه انتهك قواعد النظام الخاصة بـ “عدم تنفيذ عمليات غير قابلة للعكس دون تعليمات واضحة من المستخدم”، ولم يقم بقراءة الوثائق التقنية لـ Railway، ولم يتحقق مما إذا كان رقم تعريف وحدة التخزين (volume ID) مشتركًا عبر البيئات، بل افترض فقط أن هذه العملية لن تؤثر إلا على بيئة الاختبار.
فشل الحماية الأمنية في Cursor: تسويق منفصل عن الواقع
شدد Crane بشكل خاص على أن هذه ليست خطأ ضمن إعداد اختبار رخيص الثمن. تروّج Cursor لميزات أمان مثل (Destructive Guardrails) وقيود Plan Mode للقراءة فقط، وتؤكد في المستندات أيضًا أنه يجب أن تتم العمليات عالية المخاطر بمراجعة بشرية. ومع ذلك، لم يتجاهل الوكيل هذه القواعد فحسب، بل وفي اعترافه اللاحق سرد بالتفصيل القواعد الأمنية التي انتهكها واحدة تلو الأخرى.
في الواقع، ليست هذه أول مرة؛ ففي ديسمبر 2025، اعترف Cursor رسميًا بأنه توجد “ثغرة خطيرة” في تطبيق قيود Plan Mode إجباريًا، كما تراكمت في منتديات المجتمع عدة حالات حيث تجاهل الوكلاء أوامر الإيقاف ونفذوا عمليات تخريبية تلقائيًا.
ومن جهة أخرى، بعد وقوع الحادث بأكثر من 30 ساعة، لم تكن Railway حتى قادرة على تقديم إجابة مؤكدة بشأن استعادة البيانات.
الضحية الحقيقية: عملاء تأجير سيارات بلا سيارات للإعارة
ثمن الخطأ التقني تحمله في النهاية مجموعة من أصحاب المشاريع الصغيرة الذين لم يكونوا على علم. كانت قاعدة عملاء PocketOS تتكون أساسًا من مقدمي خدمات تأجير السيارات، وبعضهم استخدم هذا البرنامج لمدة تصل إلى خمس سنوات. في يوم الحادث—وهو يوم سبت—كان عملاء الشركة يأتون فعليًا لاستلام السيارات عند وصولهم، لكنهم وجدوا أن سجل الحجز اختفى بالكامل؛ كما اختفت بيانات العملاء الجدد خلال الأشهر الثلاثة السابقة بالكامل، إلى جانب تعيينات المركبات وسجلات الدفع.
قضى Crane وقتًا كبيرًا لمساعدة العملاء على إعادة بناء البيانات يدويًا بدءًا من سجلات الدفع عبر Stripe، ودمج التقويم، وتأكيدات البريد الإلكتروني. وما زال بعض العملاء الجدد مستمرين في الخصم من Stripe، لكنهم لم يعودوا موجودين في قاعدة البيانات بعد الاستعادة، ومن المتوقع أن تستغرق مهمة المطابقة اللاحقة أسابيع.
إنذار عصر تسريع الذكاء الاصطناعي: إدخال سريع وحوكمة بطيئة
في السنوات الأخيرة، تسارعت الشركات في ظل ضغوط خفض التكاليف إلى الاستغناء عن القوى التقنية، وفي الوقت نفسه تم إسناد المزيد من الأعمال إلى وكلاء AI لتنفيذها. كما أدت شعبية أدوات ترميز AI إلى استبدال عمليات البنية التحتية التي كانت تتطلب في السابق حكمًا من مهندسين ذوي خبرة تدريجيًا بعمليات تلقائية. ومع ذلك، يوضح حادث Crane بشكل واضح: المعرفة الأمنية مثل التحقق من النسخ الاحتياطية، وعزل البيئات، ومبدأ أقل الصلاحيات—لم يتم استيعابها واستخدامها بشكل فعلي من قبل وكلاء AI.
(هل تسبب المساعدة بالذكاء الاصطناعي في البرمجة بكارثة؟ أعطال نظامية أربع مرات في أسبوع واحد لدى أمازون، ورجال الإدارة يعقدون اجتماعًا عاجلًا للمراجعة)
قدم Crane خمس مطالب لإجراء إصلاحات:
يجب أن تتطلب العمليات التدميرية تأكيدًا يدويًا ولا يمكن للوكيل تجاوزها تلقائيًا
يجب أن يدعم API Token العمليات الدقيقة وتقييد نطاق البيئة
لا يجوز أن تتم مشاركة موقع التخزين نفسه للنسخ الاحتياطية مع البيانات الأصلية
يجب أن يلتزم المنصّة بنشر مستوى خدمة تعافي البيانات (SLA)
لا يمكن أن يكون نصائح/توجيهات النظام لوكلاء AI هي خط الدفاع الأمني الوحيد، ويجب تضمين آلية التنفيذ الإجباري في طبقة البنية الأساسية لإدارة البوابات وطبقات التفويض الخاصة بـ API.
في الوقت الذي يتنافس فيه القطاع بأكمله على رفع شعار التحول إلى AI، تطرح هذه الحادثة سؤالًا أكثر جوهرية: عندما تُسرّع الشركات في استبدال الحكم البشري بـ AI، من الذي سيضمن أن الخبرة والحدس لدى البشر قد تم تحويلهما فعليًا إلى قواعد أمان قابلة للتنفيذ؟
هذه المقالة: فشل وكيل Cursor AI! سطر برمجي واحد يمسح قاعدة بيانات الشركة خلال 9 ثوانٍ، والحماية الأمنية تصبح كلامًا فارغًا. تظهر لأول مرة في 链新闻 ABMedia.
Related News
郭明錤: يجب أن تقوم OpenAI ببناء هاتف محمول يعمل بوكلاء الذكاء الاصطناعي، وتُعد MediaTek وQualcomm وLuxshare Technologies سلاسل التوريد الرئيسية
يمكن لوكلاء الذكاء الاصطناعي الآن إعادة إنتاج المقالات الأكاديمية المعقدة بشكل مستقل: مولّيك يقول إن الأخطاء غالبًا ما تكون في النص الأصلي البشري وليست في الذكاء الاصطناعي
كورسور يكشف سبب تدريب XAI: القدرة الحاسوبية كانت عالقة، وSpaceX تمتلك خيارات شراء بقيمة 60 مليار دولار أمريكي
تقييم السوق الثانوي للأنثروبيك يتخطى 1 تريليون دولار: Forge Global تتفوق على OpenAI بفارق 88.00 مليار
أعلنت حكومة ترامب خطة لمكافحة إعادة تدوير الذكاء الاصطناعي، تتهم الشركات الصينية بالسرقة المنهجية لقدرات نماذج الذكاء الاصطناعي المرتبطة بالمنظومات