OpenAI 的 GPT-5.5-Cyber 武裝網路防禦者

Cryptonews

OpenAI 已向已審查的網路安全防禦者發布 GPT-5.5-Cyber,讓他們在針對專門的安全工作流程時可使用較寬鬆的保護欄。
摘要

  • OpenAI 的 GPT-5.5-Cyber 是其陣容中最寬鬆的模型,僅限於小規模內測,提供給獲核准的合作夥伴進行進階安全工作。
  • 經審查的團隊可用於漏洞挖掘、惡意程式分析與逆向工程,但惡意程式撰寫與竊取憑證仍被阻止。
  • 此次發布是在競品 Anthropic 一個月前推出 Claude Mythos Preview 之後,當時引發了投資人與政府的關注。

OpenAI 於 5 月 7 日在有限內測中發布 GPT-5.5-Cyber,鎖定防禦關鍵基礎設施的安全專業人士。該公司將其描述為其網路安全陣容中最寬鬆的模型,目標是針對小範圍、獲核准合作夥伴的專門授權工作流程,並具備更強的驗證要求與帳戶層級的控管。

這個針對資安的版本讓經審查的團隊更容易使用 OpenAI 最新模型進行脆弱性辨識、修補驗證與惡意程式分析;這些流程如果使用一般可用的 GPT-5.5 內建的保護欄,原本會造成摩擦。

OpenAI 表示:「GPT-5.5-Cyber 讓較小的一組合作夥伴能夠研究進階工作流程,而在這些流程中,專門的存取行為可能很重要。」

防禦者能做與不能做的事

獲准納入 OpenAI 之「資安可信存取(Trusted Access for Cyber)」計畫最高層級的防禦者,將取得一個比公眾模型保護欄更少的 GPT-5.5 版本,使其能夠進行漏洞挖掘、惡意程式研究,以及針對攻擊的逆向工程。無論存取層級如何,竊取憑證與撰寫惡意程式都仍被阻止。

在早期測試中,受選合作夥伴使用 GPT-5.5-Cyber 來自動化並擴展對基礎設施系統的紅隊測試演練,並驗證高嚴重度的漏洞。OpenAI 計畫在未來的技術深度解析中記錄這些發現,作為負責任揭露流程的一部分。

英國 AI 安全研究所(UK AI Security Institute)發布了對 GPT-5.5 在 95 個狹窄資安任務上的評估。該研究所發現,自至少 2026 年 2 月以來,基礎任務已被領先模型完全飽和,儘管它也提醒,其測試不反映面向受良好防護的真實世界目標、且有主動防禦者與告警懲罰時的效能。

競爭壓力

此部署發布時程比 Anthropic 早一個月:Anthropic 釋出 Claude Mythos Preview,這是一個聚焦資安的模型,儘管在數週前 Anthropic 已被五角大廈列入黑名單,仍然引起投資人與川普政府高階成員的關注。

AI 網路安全已成為一個正式的競爭戰場,兩家公司都提出疑問:究竟是誰在掌控 AI 的攻擊與防禦工具,以及當這些能力被濫用時,責任應由誰承擔。

OpenAI 指出,它也已向美國 AI 標準與創新中心(US Center for AI Standards and Innovation)以及英國 AI 安全研究所提供較早期模型 GPT-5.4-Cyber,以供獨立評估。對於多數防禦者而言,標準版 GPT-5.5 仍是它建議的切入點。

免責聲明:本頁面資訊可能來自第三方,不代表 Gate 的觀點或意見。頁面顯示的內容僅供參考,不構成任何財務、投資或法律建議。Gate 對資訊的準確性、完整性不作保證,對因使用本資訊而產生的任何損失不承擔責任。虛擬資產投資屬高風險行為,價格波動劇烈,您可能損失全部投資本金。請充分了解相關風險,並根據自身財務狀況和風險承受能力謹慎決策。具體內容詳見聲明
回覆
0/400
暫無回覆