Anthropic Code Mode 解 MCP Vs CLI 之爭:工具住 Runtime、tokens 從 150K 壓到 2K

鏈新聞abmedia

2025 年整年 AI 工程社群在「MCP vs CLI」哪個更適合 Agent 工具呼叫的問題上爭論不休、Anthropic 2025 年 11 月發表的「Code execution with MCP」論文從第一原則重新定義了問題。akshay_pachaar 5/10 整理 thread說明:問題從來不在協議本身、而在「session 開始時把所有工具描述塞進 context」的舊習慣;Anthropic 的解法是讓模型寫程式碼呼叫工具、運行時負責管理工具細節。新模式被稱為「Code Mode」。

舊模式的問題:150K tokens 中模型大部分用不到

舊 MCP 模式的浪費結構:

Playwright MCP:13.7K tokens(一次塞滿)

Chrome DevTools MCP:18K tokens

5 個 server 設定:尚未開始工作就燒掉 55K tokens

單一 workflow 完整執行:可膨脹到 150K tokens

模型實際用到的:絕大部分都用不上

批評者主張改用 CLI、但 CLI 在多租戶 app 容易出錯、缺乏 typed contract、agent 在不熟悉 API 上要花輪次解析輸出文字。兩派各有理、但都把問題定位錯。

解法:模型寫 code 呼叫工具、不再從 context 直接 call

Anthropic 提出的「Code Mode」核心:

翻轉模型角色:不是模型透過 context 呼叫工具、而是模型寫程式碼、由 runtime 呼叫工具

工具住在 runtime 裡、模型只看到自己 import 的部分

type 跟著 import 走、模型 import 哪個工具就拿到哪個的型別合約

用 Bash 呼叫已安裝的二進位檔(git、curl 等)

用 typed module imports 呼叫專有 API

Anthropic 範例:Google Drive 文字記錄流入 Salesforce CRM 更新。舊作法載入兩邊工具 schema、把整段文字記錄透過模型傳兩次;新作法 10 行 TypeScript 只 import 需要的、同樣任務從原本的 150K 壓到 2K tokens、減 98.7%。

Cloudflare 推到極限:2,500 個 endpoint API、從 1.17M tokens 壓到 1K

Cloudflare 做了最激進的版本:

原始 API 規模:2,500 個 endpoint、schema 合計 1.17M tokens

新作法:只暴露兩個函式 search 與 execute、總計 1K tokens

Agent 寫程式碼先 search 工具目錄、再 execute 對應的工具

壓縮比:超過 1,000 倍

「MCP 已死」的說法錯了—Anthropic 公布 MCP SDK 下載量已達 3 億、年初為 1 億、是當前成長最快的 Agent 基礎建設之一。死的是「session 開始時把所有工具一次載入」這種寫法、而那本來就是壞主意。對 2026 年寫 Agent 的開發者、規則簡單:工具定義屬於 code、不屬於 context;模型寫幾行程式碼呼叫、runtime 處理其餘部分。

後續可追蹤的具體事件:MCP SDK 下載量從 3 億繼續攀升的速度、Anthropic 是否將 Code Mode 標準化為 MCP 規範的官方推薦模式、以及 OpenAI、Google、Cursor 等其他 Agent 平台對 Code Mode 的採納進度。

這篇文章 Anthropic Code Mode 解 MCP vs CLI 之爭:工具住 runtime、tokens 從 150K 壓到 2K 最早出現於 鏈新聞 ABMedia。

免責聲明:本頁面資訊可能來自第三方,不代表 Gate 的觀點或意見。頁面顯示的內容僅供參考,不構成任何財務、投資或法律建議。Gate 對資訊的準確性、完整性不作保證,對因使用本資訊而產生的任何損失不承擔責任。虛擬資產投資屬高風險行為,價格波動劇烈,您可能損失全部投資本金。請充分了解相關風險,並根據自身財務狀況和風險承受能力謹慎決策。具體內容詳見聲明
回覆
0/400
暫無回覆