Google 尋求與 Marvell 擴大 AI 晶片生態系規模,以因應英偉達競爭升溫

Cryptonews

Alphabet Inc. 的 Google 據稱正與 Marvell Technology 洽談,研發兩款全新的晶片,旨在提升人工智慧模型的運行方式。
摘要

  • Google 正與 Marvell 洽談開發兩款面向 AI 的晶片,其中包括記憶體處理單元,以及新一代 TPU,以提升模型效率。
  • 這項推動是 Google 努力讓其 TPU 成為 Nvidia GPU 的替代方案,同時擴大與 Intel 與 Broadcom 的合作。
  • 此舉與 Gemma 4 的推出同步,反映出 Google 在 AI 競爭日益激烈之際,正調整其 AI 模型與硬體堆疊。

根據 The Information 的一份報導,援引知情人士的說法,其中一款可能提出的晶片,或將是一種記憶體處理單元,設計用於與 Google 的張量處理單元(TPU)並行運作。第二款晶片則預期會是專為更有效率地運行 AI 工作負載而量身打造的全新 TPU。

這項行動屬於 Google 努力將其自研晶片定位為 Nvidia GPU 的替代品的一部分。由於 Google Cloud 的營收成長,TPU 的採用正在有所貢獻;同時,公司也希望能在其 AI 基礎建設支出上看見回報。

該報導還補充,Google 計劃在明年之前完成記憶體導向晶片的設計,然後再轉向測試量產。與此同時,它也已擴大與 Intel 與 Broadcom 等晶片製造商的合作,以支援日益增長的 AI 基礎建設需求。

AI 硬體競爭升溫

隨著 Google 加快其 AI 加速器的開發,它可能開始挑戰 Nvidia 長年在高效能運算領域的領先地位。

例如,NVIDIA 正推進其自身的 AI 推論晶片陣容,其中包含融入 Groq 技術的設計。再有另一家大型競爭者加入,可能會加劇 AI 硬體競賽,並重塑企業為模型尋求運算能力的方式。

投資人可能會在 4 月 29 日 Google 公布首季財報時,尋求更多明確資訊。預期這次財報發布將提供雲端效能、廣告趨勢,以及公司在未來幾季將如何積極投資 AI 與半導體等方面的訊號。

AI 模型進展支撐硬體推動

Google 最新的晶片討論,正是在其持續擴大 AI 模型能力之際。這個月稍早,該公司推出 Gemma 4,一個為高階推理與代理式工作流程打造的全新開放模型家族。

Gemma 4 提供四種規模,並設計用於更有效地處理多步驟邏輯與結構化問題解決。它在與數學以及遵循指令任務相關的基準測試中,也帶來了更佳的成果。

這些模型包含原生的函數呼叫、結構化 JSON 輸出以及系統層級指令等功能,讓開發者能夠打造能夠連接 API 與外部工具的自主系統。它們也能在離線狀態下生成程式碼,讓本地設備成為稱職的 AI 程式助理。

綜合來看,模型升級與晶片開發計畫顯示,隨著 AI 領域競爭持續升溫,Google 正在協調其軟體與硬體堆疊。

免責聲明:本頁面資訊可能來自第三方,不代表 Gate 的觀點或意見。頁面顯示的內容僅供參考,不構成任何財務、投資或法律建議。Gate 對資訊的準確性、完整性不作保證,對因使用本資訊而產生的任何損失不承擔責任。虛擬資產投資屬高風險行為,價格波動劇烈,您可能損失全部投資本金。請充分了解相關風險,並根據自身財務狀況和風險承受能力謹慎決策。具體內容詳見聲明
回覆
0/400
暫無回覆