جوجل: تُستخدم نماذج اللغات الكبيرة في هجمات فعلية، ويمكن للذكاء الاصطناعي تجاوز آليات الأمان الخاصة بالمصادقة الثنائية

大型語言模型攻擊

في 12 مايو، أفادت CoinEdition بأن فريق Google التهديدات/المخابرات (Threat Intelligence) أصدر تقريرًا يحذر من أن المهاجمين يستخدمون نماذج لغوية كبيرة في هجمات فعلية على الشبكات تؤثر على أنظمة على مستوى العالم، كما أكد أن قراصنة طوروا ثغرة يوم صفر مبنية على Python يمكنها تجاوز آليات الأمان الخاصة بالتحقق على مرحلتين (2FA). وتقول Google إن الأنشطة ذات الصلة ترتبط بإساءة استخدام أدوات الذكاء الاصطناعي في الهجمات السيبرانية على مستوى الدول، وكذلك في شبكات القراصنة تحت الأرض.

التطبيقات المحددة لأدوات الذكاء الاصطناعي في الهجمات السيبرانية

وفقًا لتقرير فريق Google التهديدات/المخابرات، تساعد أدوات الذكاء الاصطناعي المهاجمين على تعزيز قدراتهم في كل مرحلة تقريبًا من مراحل الهجوم السيبراني، بما في ذلك: اكتشاف ثغرات البرمجيات بشكل أسرع، وأتمتة أجزاء من إجراءات الهجوم، وتحسين أساليب مثل التصيد الاحتيالي (Phishing) وإنشاء البرمجيات الخبيثة.

يسجل التقرير حالة محددة: نجح مهاجمون في تجاوز التحقق على مرحلتين (2FA) باستخدام ثغرة يوم صفر مبنية على Python. وتوضح Google أن الهجوم ما زال يتطلب بيانات اعتماد دخول فعالة، ما يشير إلى أن مصدر الثغرة يعود إلى تصميم النظام نفسه، وليس إلى عيب تقني في البرامج.

ويشير التقرير كذلك إلى أن المهاجمين يدرّبون أساليب هجومهم عبر استخدام قواعد بيانات للثغرات الأمنية تتضمن آلاف الثغرات المعروفة وأمثلة على الاستغلال، من أجل تحديد الأنماط التي تساعد في اكتشاف نقاط ضعف جديدة؛ كما يستخدم القراصنة الذكاء الاصطناعي لإنشاء كود زائف، وتعديل الحمولة (payloads) بشكل غير مشروع، وكتابة سكربتات ديناميكية لتجنب الكشف، وفي بعض الحالات يمكن لأنظمة الذكاء الاصطناعي إرسال أوامر فورًا إلى الأجهزة المصابة.

منظمات مرتبطة بكوريا الشمالية والصين: التقرير يؤكد أنها أول من تبنّى أساليب هجوم مدعومة بالذكاء الاصطناعي

وفقًا لتقرير فريق Google التهديدات/المخابرات، فإن المنظمات المرتبطة بالصين وكوريا الشمالية تتصدر في تبني أساليب الهجوم المساعدة بالذكاء الاصطناعي المذكورة أعلاه. وتشمل الأساليب: صياغة رسائل مطالبات (prompts) بدقة لسرقة معلومات أمنية من النظام، والتنكر في هيئة خبراء أمن سيبراني لإجراء فحوصات محتملة للثغرات على البرامج الثابتة (firmware) والأجهزة المضمنة.

Google تنشر أنظمة دفاع بالذكاء الاصطناعي لمواجهة التهديدات

وفقًا لتقرير CoinEdition، قالت Google إنها تعمل على تعزيز إجراءاتها الدفاعية القائمة على الذكاء الاصطناعي: يستخدم نظام Big Sleep لتحديد الثغرات تلقائيًا؛ ويستخدم نظام CodeMender لإصلاح الثغرات تلقائيًا؛ كما تتضمن Gemini تدابير أمنية مضمنة لمنع الأنشطة المشبوهة داخل حسابات المستخدمين.

الأسئلة الشائعة

لماذا تتضمن تقرير فريق Google التهديدات/المخابرات حالة اختراق تتجاوز التحقق على مرحلتين باستخدام الذكاء الاصطناعي؟

وفقًا لتقرير CoinEdition بتاريخ 12 مايو 2026، يؤكد تقرير فريق Google التهديدات/المخابرات أن القراصنة نجحوا في تجاوز آلية أمان 2FA باستخدام ثغرة يوم صفر مبنية على Python. وتوضح Google أن مصدر الثغرة يعود إلى تصميم النظام نفسه، وأن تنفيذ الهجوم يتطلب بيانات اعتماد دخول صالحة.

ما المنظمات المرتبطة بدول محددة التي ذكرتها Google صراحةً بوصفها أول من يستخدم أساليب هجوم مدعومة بالذكاء الاصطناعي؟

وفقًا لتقرير فريق Google التهديدات/المخابرات، فإن المنظمات المرتبطة بالصين وكوريا الشمالية هي التي تبنت أدوات الذكاء الاصطناعي أولًا لتنفيذ هجمات سيبرانية؛ وتشمل الأساليب: صياغة رسائل مطالبات بدقة لسرقة معلومات أمنية، والتنكر في هيئة خبراء أمن سيبراني لمسح ثغرات البرامج الثابتة.

ما أنظمة الذكاء الاصطناعي الدفاعية المُسماة التي نشرتها Google لمواجهة التهديدات ذات الصلة؟

وفقًا لتقرير CoinEdition، قامت Google بنشر أنظمة دفاع بالذكاء الاصطناعي مثل Big Sleep (لتحديد الثغرات تلقائيًا)، وCodeMender (لإصلاح الثغرات تلقائيًا)، وGemini مع تدابير أمنية مضمنة (لمنع الأنشطة المشبوهة في الحسابات).

إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.

مقالات ذات صلة

ارتفاع وظائف الذكاء الاصطناعي في الهند بنسبة 15-20%، حسبما قال الوزير في قمة CII

أعلن وزير الاتحاد للالكترونيات وتكنولوجيا المعلومات في الهند أشويني فايشنو (Ashwini Vaishnaw) أن الوظائف المرتبطة بالذكاء الاصطناعي تشهد نمواً بنسبة 15% إلى 20%، استناداً إلى ملاحظات من قطاع تكنولوجيا المعلومات، خلال كلمته في مؤتمر قمة الأعمال السنوية الذي تنظمه CII. وحث الشركات على التعاون مع Nasscom لتدريب العاملين على التقنيات الجديدة مع خضوع قطاع تكنولوجيا المعلومات لتحول. كما سلط الوزير الضوء على تعهدات استثمارية كبيرة وخططاً لتوسيع البنية التحتية تهدف إلى تموضع الهند كمركز عالمي للذكاء الا

CryptoFrontierمنذ 2 د

توقّع مشروع OpenAI توفير 97 مليار دولار في مدفوعات Microsoft بحلول 2030 بموجب اتفاقية جديدة

وفقاً لـ The Information، من المتوقع أن توفر OpenAI نحو 97 مليار دولار في المدفوعات إلى Microsoft بحلول عام 2030 بموجب اتفاقية الشراكة المُنقّحة التي جرى التفاوض عليها في أكتوبر من العام الماضي. قالت مديرة الشؤون المالية (CFO) سارة فرير للمستثمرين إن الشركة تتوقع تقاسم 8-10% من الإيرادات مع جميع الشركاء التجاريين، بما في ذلك Microsoft، مقارنةً بنسبة 20% حالياً.

GateNewsمنذ 17 د

مكتب الرئاسة الكوري الجنوبي يوضح أن تعليقات “أرباح الذكاء الاصطناعي” كانت مجرد رأي شخصي لمسؤول

وفقاً لما ذكرته شركة Glontech، قال مسؤول في مكتب الرئاسة الكوري الجنوبي اليوم إن تصريحات مدير السياسات الرئاسية كيم يونغ-بوم بشأن استخدام عائدات الذكاء الاصطناعي لتوزيع «توزيع أرباح للمواطنين» تمثل رأيه الشخصي فقط. وأشار المسؤول إلى أن منشورات كيم ذات الصلة على وسائل التواصل الاجتماعي لا تمت بصلة إلى أي مناقشات أو مداولات داخل مكتب الرئاسة.

GateNewsمنذ 25 د

أكد الرئيس التنفيذي لشركة إنفيديا، هوانغ، أهمية وظائف التكنولوجيا المتعلقة بالطبقة العاملة خلال حفل التخرج في جامعة كارنيغي ميلون

خلال خطابه يوم الأحد في حفل تخرج جامعة كارنيغي ميلون لعام 2026، شدد الرئيس التنفيذي لشركة Nvidia جنسن هوانغ على أن الكهربائيين والسباكين والعمال المختصين بتركيب الحديد وعمال البناء هم الأكثر استعداداً للاستفادة من طفرة الذكاء الاصطناعي. وقال هوانغ لخريجي الجامعة: "يمنح الذكاء الاصطناعي أمريكا فرصة لإعادة البناء. لقد حان وقتكم". كما أكد أن الذكاء الاصطناعي لا يخلق صناعة حوسبة جديدة فحسب، بل يطلق أيضاً عصراً صناعياً جديداً، مع احتياجات ضخمة للبنية التحتية تتطلب حرفياً مهرة.

GateNewsمنذ 52 د

100 مليار شركة ناشئة Thinking Machines تطلق نموذج ذكاء اصطناعي تفاعلي فوري، يركز على «يتحدث ويستمع وينفذ المهام في الوقت نفسه»

由前 OpenAI 前高層 Mira Murati 與 John Schulman 共同創辦、百億美元估值的人工智慧新創公司 Thinking Machines,週二推出首個能「邊說邊聽」的全雙工 AI 模型預覽版,延遲低至 0.4 秒,挑戰現有人機即時互動模式。 (輝達注資 Thinking Machines Lab 部署 Vera Rubin 提升前沿模型效能) Thinking Machines 新模型:打破輪流說話的舊模式 现有所有主流 AI 模型,运作方式都是「用户输入,模型等待,然后回应」。前 OpenAI 技术长 Mira Murati 与 OpenAI 共同创办人 John Schulman 认为这种轮流回复的过程就像传讯息,并不是真正的对话。如今两人联手创立的 Thinking Machines Lab,于 5 月 11 日正式发表全新「互動模型(Interaction Models)」的研究预览版,试图从根本上改变这一现状。 People talk, listen, watch, think, and collaborate at the same time, in

ChainNewsAbmediaمنذ 1 س

مهاجمون يستولون على قنوات TanStack وOpenSearch وMistral الرسمية، ويطرحون 84 نسخة خبيثة في 12 مايو

وفقاً لمراقبة Beating، في 12 مايو بين الساعة 3:20 و3:26 بالتوقيت العالمي المنسق+8، استولى مهاجمون مرتبطون بـ TeamPCP على مسارات الإطلاق الرسمية لكل من TanStack وOpenSearch من Amazon وMistral، ودفعوا 84 إصداراً خبيثاً من الحزم عبر npm وPyPI. تشمل الحزم المتأثرة @tanstack/react-router (10M+ تنزيلات أسبوعياً)، و@opensearch-project/opensearch (1.3M تنزيلات أسبوعياً)، وعميل mistralai من Mistral. تجاوزت الحزم الخبيثة آليات الثقة الأمنية عبر استغلال ثغرات في إعدادات GitHub Actions للحصول على بيانات اعت

GateNewsمنذ 1 س
تعليق
0/400
لا توجد تعليقات