📢 GM!Gate 广场|4/5 热议:#假期持币指南
🌿 踏青还是盯盘?#假期持币指南 带你过个“松弛感”长假!
春光正好,你是选择在山间深呼吸,还是在 K 线里找时机?在这个清明假期,晒出你的持币态度,做个精神饱满的交易员!
🎁 分享生活/交易感悟,抽 5 位锦鲤瓜分 $1,000 仓位体验券!
💬 茶余饭后聊聊:
1️⃣ 休假心态: 你是“关掉通知、彻底失联”派,还是“每 30 分钟必刷行情”派?
2️⃣ 懒人秘籍: 假期不想盯盘?分享你的“挂机”策略(定投/网格/理财)。
3️⃣ 四月展望: 假期过后,你最看好哪个币种“春暖花开”?
分享你的假期姿态 👉 https://www.gate.com/post
📅 4/4 15:00 - 4/6 18:00 (UTC+8)
SambaNova 发布最快的代理式 AI 芯片,合作英特尔,并筹集超过 3.5 亿美元
这是一份付费新闻稿。如有任何询问,请直接联系新闻稿分发商。
SambaNova 揭晓面向 Agentic AI 的最快芯片,携手英特尔,并融资 $350M+
Business Wire
2026 年 2 月 27 日 3:24(GMT+9) 8 分钟阅读
本文包含:
INTC
-3.04%
9434.T
+0.05%
SambaNova 的 SN50 芯片最高速度为同类芯片的 5 倍。以比 GPU 低 3 倍的成本运行 agentic AI——降低推理成本并最大化利润率。
阿联酋迪拜,2026 年 2 月 26 日–(BUSINESS WIRE)–SambaNova 今日发布其 SN50 AI 芯片,该芯片最高速度宣称比竞争芯片快 5 倍。公司同时宣布计划与英特尔开展合作,以提供高性能、低成本的 AI 推理解决方案,并从新老投资者获得超过 $350M 的投资。
SN50 被定位为面向 agentic AI 的最高效芯片,可为企业提供 3 倍更低的总拥有成本——作为快速扩展推理规模并将自主 AI 代理全面投入生产的强大基础。SN50 将于今年晚些时候开始向客户发货。
为快速规模化并分发 SN50,SambaNova 正与英特尔合作,并已获得 $350 million 的战略 E 轮融资,用于扩大全球制造与云能力。
“AI 不再是一场只为构建最大的模型而竞争,” SambaNova 联合创始人兼首席执行官 Rodrigo Liang 表示。“借助 SN50 以及我们与英特尔的深度协作,真正的竞赛在于谁能用会即时作答、从不卡顿的 AI 代理点亮整个数据中心——并以一种让 AI 从实验变成云中最具盈利能力引擎的成本来实现。”
“客户正在寻求更多选择以及更高效的方式来扩展 AI,” 英特尔数据中心集团(Data Center Group)执行副总裁兼总经理 Kevork Kechichian 表示。“通过将英特尔在计算、网络和内存方面的领先优势与 SambaNova 的全栈 AI 系统和推理云平台相结合,我们正在为那些希望以 GPU 替代方案在规模化部署先进 AI 的组织提供一个极具吸引力的选项。”
SN50 每个加速器提供的计算能力是上一代的 5 倍,并且网络带宽是上一代的 4 倍。它可通过多 terabyte per second 级别的互联架构连接多达 256 个加速器,从而缩短首个 token 的时间并支持更大的批处理规模。结果是:企业能够部署更大、更长上下文的 AI 模型,获得更高吞吐与更快响应——同时将性能、高度复杂成本与延迟维持在可控范围内。
“AI 正从软件层面的叙事转向基础设施层面的叙事,” Cambium Capital 联合创始人兼管理合伙人 Landon Downs 表示。“SN50 针对现实世界的延迟与经济性要求进行了工程化设计,这将决定谁能在规模化部署 agentic AI。”
这则消息紧随 SambaNova 在 2025 年收官时创下的记录级预订量与营收发布,反映出对可投入生产的 AI 系统需求正在加速增长,覆盖金融服务、电信、能源以及全球范围内的主权部署等领域。
为 agentic 生产而打造
基于 SambaNova 的可重配置数据单元(Reconfigurable Data Unit,RDU)架构,SN50 提供:
“全新的 SambaNova SN50 RDU 改变了规模化 AI 推理的 tokenomics。通过在芯片层面既实现高性能又实现高吞吐,并使用现有供电且采用风冷,SambaNova 正在改写游戏规则,” 分析机构 IDC 的 Performance Intensive Computing(性能密集计算)研究副总裁 Peter Rutten 表示。
软银将在日本的 AI 数据中心部署 SN50
软银公司(SoftBank Corp.)将成为首家在其下一代日本 AI 数据中心部署 SN50 的客户。该部署将为覆盖亚太地区的主权与企业客户提供低延迟推理服务,并在延迟与吞吐要求激进的前提下,同时支持开源与专有的前沿模型。
“借助 SN50,我们正在为日本构建一张 AI 推理基础设施网络,能够以我们理应为客户与合作伙伴提供的速度、韧性与主权能力来服务他们,” SoftBank Corp. 技术部门(Technology Unit)下属数据平台战略部(Data Platform Strategy Division)副总裁兼负责人 Hironobu Tamba 表示。“通过以 SN50 作为标准化选择,我们能够在自己的条件下交付世界一流的 AI 服务——性能达到最佳 GPU 集群的水平,但在经济性与可控性方面远胜于传统方案。”
SN50 的部署将加深 SambaNova 与软银公司(SoftBank Corp.)之间现有的合作关系。软银公司已托管 SambaCloud,以为该地区开发者提供超快推理。通过将其最新集群以 SN50 为核心,软银将 SambaNova 定位为其主权 AI 计划以及未来大规模 agentic 服务的推理支撑骨干。
SambaNova 与英特尔计划开展多年度合作
SambaNova 与英特尔已签署计划中的多年度战略合作,以为全球 AI 原生公司、模型提供商、企业以及政府组织提供高性能、具成本效益的 AI 推理解决方案。该合作将为客户提供强有力的替代 GPU 方案——在提供可预测吞吐与可控总拥有成本的同时,为领先的开源模型提供优化性能。
作为合作的一部分,英特尔计划进行对 SambaNova 的战略性投资,以加速 Intel 驱动的 AI 云的推出。此次合作预计将覆盖三个关键领域:
SambaNova 与英特尔旨在共同塑造下一代异构 AI 数据中心——整合英特尔 Xeon 处理器、英特尔 GPU、英特尔网络与存储,以及 SambaNova 系统——以释放一个多达数十亿美元级别的推理市场机会。
融资 $350M+,由 Vista 与 Cambium 领投
该超额认购的 E 轮融资由 Vista Equity Partners 与 Cambium Capital 领投,英特尔资本(Intel Capital)参与度较高。
本轮加入的新投资者包括:Assam Ventures、Battery Ventures、First Data、Gulf Development Public Company Limited、Mayfield Capital、Saudi First Data、Seligman Ventures,以及 T. Rowe Price Associates, Inc. 旗下账户。参与本轮的现有投资者包括:A&E、8Square、Atlantic Bridge、BlackRock、GV、Nepenthe、Nuri Capital 和 Redline Capital。
First Data 董事长 Sharaf Al Hariri 先生表示,SambaNova 构成 First Data 投资战略的核心部分,旨在将先进 AI 技术带到沙特阿拉伯王国以及更广泛的中东地区。他强调,First Data 正在投资 SambaNova 的平台,以实现高性能、低延迟且具主权可用性的 AI 能力,同时受益于低功耗要求,并能够在现有风冷数据中心环境中高效运行。在该战略中,SambaNova 支持先进推理与可扩展的 AI 服务,从而增强 First Data 交付世界一流 AI 基础设施与解决方案的能力。他进一步指出,此项投资反映了 First Data 更广泛、长期的承诺:通过多元化其技术投资组合来打造韧性创新能力,并使公司能够在交付对该地区持续有价值的同时,适应不断演变的全球技术趋势,并实现可持续价值。
随着 agentic 负载扩展,企业正在发现:为训练而优化的基础设施难以满足生产级别的延迟与成本要求:“我们很自豪能够在公司增长如此关键的时刻投资 SambaNova,” Vista Capital 合伙人 Monti Saroya 表示。“SN50 针对 agentic AI 系统进行了工程化设计,该系统能够以比传统以 GPU 为中心的系统更高效的方式,在接近实时的情况下编排多个模型并处理请求。”
所得资金将用于扩大 SN50 的生产规模、扩展 SambaCloud,并深化企业软件集成。
关于 SambaNova
SambaNova 是下一代 AI 基础设施领域的领先者,提供完整栈平台,为企业、NeoClouds、AI 实验室与服务提供商,以及全球的主权 AI 计划提供最快、最高效的 AI 推理能力。SambaNova 成立于 2017 年,总部位于美国加利福尼亚州圣何塞。SambaNova 交付芯片、系统与云服务,使客户能够以卓越性能、更低总拥有成本以及更快速的价值实现时间来部署最先进的模型。
欲了解更多信息,请访问 sambanova.ai,或在 X 和 LinkedIn 上关注 SambaNova。
[1] SemiAnalysis InferenceX - Llama 3.3 70B 在 Nvidia B200(FP8、1K 输入/1k 输出)的最高速度为每秒每用户 184 tokens。Llama 3.3 70B 在 SN50(FP8、1K 输入/1k 输出)上的最高速度为每秒每用户 895 tokens。
[2] SemiAnalysis InferenceX - Nvidia B200 上(FP8、1K 输入/1k 输出)每芯片 Llama 3.3 70B 的吞吐量——在多种配置范围内,相比每个 GPU 的总吞吐量与每个 RDU 的总吞吐量的转换从约 ~1X(每秒每用户 33 tokens)到 RDU 的约 ~25X 优势(每秒每用户 184 tokens)。3X 的计算基于假设的延迟预算下,SN50 在 Llama 70B、GPT-OSS 120B 以及 DeepSeek 671B 上的平均吞吐优势。
在 businesswire.com 查看源版本:
联系人
媒体联系人:
Emad Abdo
Emad@memediapro.com
+971522038872
条款与隐私政策
隐私仪表板
更多信息