Google 揭首例 AI 制造零日漏洞:黑客欲绕过 2FA 大规模利用

鏈新聞abmedia

Google 威脅情报團队(Threat Intelligence Group,GTIG)5 月 11 日揭露首例「由 AI 模型協助打造」的零日漏洞利用案:駭客集團计畫对某熱门开源網頁版系统管理工具发动「大規模利用」、目標是繞过該工具的雙因素验证(2FA)登入机制。根據 CNBC 报導,Google 在攻擊正式发动前協同該工具供应商完成漏洞修補。

事件本身:零日漏洞如何被 AI 「製造」出来

GTIG 在分析駭客留下的 Python 漏洞利用腳本后、「高度確信」該腳本是由 AI 模型協助生成。判斷依據是腳本中出现多項 LLM 慣用特徵:

大量教学式 docstring 与註解(与真实駭客通常簡潔的程式碼风格相反)

內含「幻覺式 CVSS 評分」(AI 模型常见的杜撰行为)

結構化、教科书式的 Python 程式风格与詳細的说明选單

整潔的 _C ANSI 顏色類別等「LLM 訓練资料中典型」的模板痕跡

漏洞本身屬於「高層級语意逻辑缺陷」、源自一个被硬編碼的信任假设(hard-coded trust assumption)—Google 形容这正是 LLM 在程式分析中最擅长挖出的漏洞類型。实际攻擊路徑:駭客在取得受害者的合法帳密之后、透过該漏洞繞过 2FA 直接登入。

Google 应对:与廠商靜默修補、攻擊未正式发动

Google 並未公开受害的开源系统管理工具名稱、亦未具名 AI 模型廠商。GTIG 在发现后与該工具的維護廠商協同进行「负责揭露」程序、靜默修補漏洞、Google 評估这套處理可能在駭客集團正式啟动大規模利用前、就破壞了行动的勢头。

Google 也未具體点名攻擊者—僅描述为「網路犯罪威脅行为者」(cybercrime threat actors)、未指认国家行为者背景。

产业意義:AI x 资安进入新階段

本媒體觀察:本案是 Google 首次公开記錄「AI 模型在野外被武器化用於漏洞发现与利用程式产生」的案例。过去半年市场討論「AI 駭客能力是否被誇大」、雙方各有論点:肯定派指出开源 LLM 加上專屬资料集已足以協助找漏洞、否定派則指出 LLM 寫出的漏洞利用程式多半在实际環境中无法运作。

GTIG 这次的判定提供一个具體數據点—LLM 不只能找漏洞、还能寫出「足以发动大規模利用」的可运作程式。资安研究員 Ryan Dewhurst 評論:「AI 已在加速漏洞发现、降低识別、验证、武器化缺陷所需的勞力。」

后续可追蹤的事件包括:Google 是否陸续公开更多 AI 駭客个案、其他资安廠商(Microsoft Defender、CrowdStrike、Mandiant 等)是否提出類似觀察、以及 LLM 廠商(OpenAI、Anthropic、Google 自家)是否針对漏洞分析類请求建立更嚴格的偵測机制。

这篇文章 Google 揭首例 AI 製造零日漏洞:駭客欲繞过 2FA 大規模利用 最早出现於 链新聞 ABMedia。

免责声明:本页面信息可能来自第三方,不代表 Gate 的观点或意见。页面显示的内容仅供参考,不构成任何财务、投资或法律建议。Gate 对信息的准确性、完整性不作保证,对因使用本信息而产生的任何损失不承担责任。虚拟资产投资属高风险行为,价格波动剧烈,您可能损失全部投资本金。请充分了解相关风险,并根据自身财务状况和风险承受能力谨慎决策。具体内容详见声明
评论
0/400
暂无评论