SambaNova Ungkap Chip Tercepat untuk AI Agenik, Berkolaborasi dengan Intel, dan Mengumpulkan Lebih dari $350M

Ini adalah siaran pers berbayar. Hubungi distributor siaran pers secara langsung untuk pertanyaan apa pun.

SambaNova Mengungkap Chip Tercepat untuk Agentic AI, Berkolaborasi dengan Intel, dan Menggalang $350M+

Business Wire

Jumat, 27 Februari 2026 pukul 3:24 AM GMT+9 8 min read

Dalam artikel ini:

INTC

-3.04%

9434.T

+0.05%

Chip SambaNova SN50 menghadirkan kecepatan maksimum 5X lebih cepat dibanding chip kompetitor. Menjalankan agentic AI dengan biaya 3X lebih rendah dibanding GPU — memangkas biaya inferensi dan memaksimalkan margin.

_Chip SN50 baru memiliki **kecepatan maksimum 5X lebih cepat **dibanding chip kompetitor [1]_
_Jalankan agentic AI dengan biaya 3X lebih rendah dibanding GPU — memangkas biaya inferensi dan memaksimalkan margin [2]_
_SoftBank Corp. akan menjadi pelanggan pertama yang menerapkan SN50 di pusat data AI generasi berikutnya di Jepang_
_SambaNova, Intel berencana kolaborasi strategis multi-tahun untuk menghadirkan inferensi AI skala cloud guna membuka peluang pasar senilai multi-miliar dolar_
_$350 juta dalam pendanaan Seri E strategis untuk memperluas kapasitas manufaktur dan cloud; investor baru termasuk Vista Equity Partners, Cambium Capital, First Data, Intel Capital,__ Battery Ventures, serta akun yang ditangani oleh T. Rowe Price Associates, Inc._

DUBAI, Uni Emirat Arab, 26 Februari 2026–(BUSINESS WIRE)–SambaNova hari ini memperkenalkan chip AI SN50 mereka, yang memiliki kecepatan maksimum 5X lebih cepat dibanding chip kompetitif. Perusahaan juga mengumumkan rencana kolaborasi dengan Intel untuk menghadirkan solusi inferensi AI berperforma tinggi dan efisien biaya, serta lebih dari $350M investasi dari investor baru dan yang sudah ada.

Diposisikan sebagai chip paling efisien untuk agentic AI, chip SN50 menawarkan total biaya kepemilikan 3X lebih rendah bagi perusahaan — landasan yang kuat untuk melakukan penskalaan inferensi secara cepat dan membawa agen AI otonom ke produksi penuh. SN50 akan mulai dikirim ke pelanggan pada akhir tahun ini.

Untuk segera menskalakan dan mendistribusikan SN50, SambaNova berkolaborasi dengan Intel, dan telah memperoleh pendanaan Seri E strategis sebesar $350 juta untuk memperluas kapasitas manufaktur dan cloud.

“AI kini bukan lagi kompetisi untuk membangun model terbesar,” kata Rodrigo Liang, co-founder dan CEO SambaNova. “Dengan SN50 dan kolaborasi mendalam kami dengan Intel, perlombaan sesungguhnya adalah siapa yang bisa menyalakan seluruh pusat data dengan agen AI yang menjawab seketika, tanpa macet, dan melakukannya dengan biaya yang mengubah AI dari sebuah eksperimen menjadi mesin paling menguntungkan di cloud.”

“Para pelanggan meminta lebih banyak pilihan dan cara yang lebih efisien untuk menskalakan AI,” kata Kevork Kechichian, EVP, General Manager, Data Center Group, Intel. “Dengan menggabungkan kepemimpinan Intel dalam komputasi, jaringan, dan memori dengan sistem AI full-stack SambaNova serta platform cloud inferensi, kami menghadirkan opsi yang menarik bagi organisasi yang mencari alternatif GPU untuk menerapkan AI canggih dalam skala besar.”

SN50 memberikan komputasi lima kali lebih besar per akselerator dan bandwidth jaringan empat kali lebih besar dibanding generasi sebelumnya. SN50 dapat menghubungkan hingga 256 akselerator melalui interkoneksi multi-terabyte-per-detik, memangkas waktu hingga token pertama dan mendukung ukuran batch yang lebih besar. Hasilnya: Perusahaan dapat menerapkan model AI berdurasi konteks lebih panjang dan lebih besar dengan throughput serta responsivitas yang lebih tinggi — sambil menjaga performa tetap tinggi dan biaya serta latensi tetap terkendali.

Cerita Berlanjut  

“AI bergerak dari kisah perangkat lunak menjadi kisah infrastruktur,” kata Landon Downs, co-founder dan managing partner di Cambium Capital. “SN50 dirancang untuk latensi dunia nyata dan kebutuhan ekonomi yang akan menentukan siapa yang berhasil menerapkan agentic AI dalam skala besar.”

Berita ini mengikuti catatan pemesanan dan pendapatan SambaNova saat mereka menutup tahun 2025, yang mencerminkan permintaan yang terus meningkat untuk sistem AI siap produksi di layanan keuangan, telekomunikasi, energi, dan penerapan kedaulatan di seluruh dunia.

Dibuat untuk Produksi Agentic

Dibangun di atas arsitektur Reconfigurable Data Unit (RDU) milik SambaNova, SN50 menghadirkan:

**Pengalaman AI Instan** — Latensi ultra-rendah memberikan respons real-time untuk aplikasi enterprise generasi berikutnya seperti asisten suara.
**Skala dan Konkurensi yang Tak Tertandingi** — Menggerakkan ribuan sesi AI simultan dengan performa tinggi yang konsisten.
**Kapasitas Model yang Terobosan** — Arsitektur memori tiga tingkat membuka model parameter 10T+ dan panjang konteks 10M+ untuk penalaran yang lebih mendalam serta output yang lebih kaya.
**Efisiensi Maksimal dalam Skala** — Pemanfaatan perangkat keras yang lebih tinggi menurunkan biaya per token, mendorong performa dan ROI yang lebih besar.
**Memori yang Lebih Cerdas, Efisiensi yang Lebih Cerdas** — Memori multi-model yang menetap dan caching agentic mengoptimalkan arsitektur tiga tingkat, memangkas biaya infrastruktur untuk penerapan AI berskala enterprise.

“SN50 RDU SambaNova yang baru mengubah tokenomics dari inferensi AI dalam skala besar. Dengan menghadirkan performa tinggi dan throughput tinggi melalui chip yang menggunakan daya yang ada dan didinginkan dengan udara, SambaNova mengubah permainan,” kata Peter Rutten, Research Vice-President Performance Intensive Computing di firma analis IDC.

SoftBank Menerapkan SN50 di Pusat Data AI mereka di Jepang

SoftBank Corp. akan menjadi pelanggan pertama yang menerapkan SN50 di pusat data AI generasi berikutnya mereka di Jepang. Penerapan ini akan mendukung layanan inferensi latensi rendah untuk pelanggan kedaulatan dan enterprise di seluruh Asia-Pasifik, mendukung baik model frontier berbasis open-source maupun proprietari dengan kebutuhan latensi dan throughput yang agresif.

“Dengan SN50, kami membangun infrastruktur inferensi AI untuk Jepang yang dapat melayani pelanggan dan mitra kami dengan kecepatan, ketahanan, dan kedaulatan yang mereka harapkan dari SoftBank,” kata Hironobu Tamba, Wakil Presiden dan Kepala Divisi Strategi Platform Data dari Technology Unit di SoftBank Corp. “Dengan menstandarkan pada SN50, kami memperoleh kemampuan untuk menghadirkan layanan AI kelas dunia sesuai ketentuan kami — dengan performa klaster GPU terbaik, tetapi dengan ekonomi yang jauh lebih baik dan kendali yang lebih besar.”

Penerapan SN50 memperdalam hubungan yang sudah ada antara SambaNova dan SoftBank Corp., yang sudah meng-host SambaCloud untuk menyediakan inferensi ultra-cepat bagi pengembang di wilayah tersebut. Dengan menjadikan klaster terbaru mereka berlabuh pada SN50, SoftBank menempatkan SambaNova sebagai tulang punggung inferensi untuk inisiatif AI kedaulatan mereka dan layanan agentic skala besar di masa depan.

SambaNova dan Intel Berencana Kolaborasi Multi-Tahun

SambaNova dan Intel telah menjalin kolaborasi strategis multi-tahun yang direncanakan untuk menghadirkan solusi inferensi AI berperforma tinggi dan efisien biaya bagi perusahaan yang berbasis AI, penyedia model, perusahaan, dan organisasi pemerintah di seluruh dunia. Kolaborasi ini akan memberi pelanggan alternatif yang kuat dibanding solusi yang berpusat pada GPU, menawarkan performa yang dioptimalkan untuk model open-source terkemuka dengan throughput yang dapat diprediksi serta total biaya kepemilikan.

Sebagai bagian dari kolaborasi, Intel berencana melakukan investasi strategis di SambaNova untuk mempercepat peluncuran cloud AI yang didukung Intel. Kolaborasi ini diperkirakan mencakup tiga area kunci:

**Perluasan AI Cloud —** Menskalakan cloud AI SambaNova yang terintegrasi secara vertikal, yang dibangun di atas infrastruktur berbasis Intel Xeon dan dioptimalkan untuk model bahasa besar dan multimodal. Platform ini akan memberikan layanan AI latensi rendah dan throughput tinggi, didukung oleh arsitektur referensi, blueprint penerapan, serta kemitraan dengan integrator sistem dan vendor perangkat lunak.
**Infrastruktur AI Terintegrasi —** Menggabungkan sistem SambaNova dengan CPU, akselerator, dan teknologi jaringan milik Intel untuk menghasilkan inferensi yang dapat diskalakan dan siap produksi untuk penalaran, generasi kode, aplikasi multimodal, dan alur kerja agentic.
**Eksekusi Go-to-Market —** Penjualan bersama dan co-marketing melalui kanal enterprise global Intel, cloud, dan mitra untuk mempercepat adopsi di seluruh ekosistem AI.

Bersama-sama, SambaNova dan Intel bertujuan untuk membentuk generasi berikutnya dari pusat data AI heterogen — mengintegrasikan prosesor Intel Xeon, GPU Intel, jaringan dan penyimpanan Intel, serta sistem SambaNova — untuk membuka peluang pasar inferensi senilai multi-miliar dolar.

Menggalang $350M+, dipimpin oleh Vista dan Cambium

Putaran Seri E yang kelebihan permintaan dipimpin oleh Vista Equity Partners dan Cambium Capital, dengan partisipasi kuat dari Intel Capital.

Investor baru yang bergabung dalam putaran ini meliputi: Assam Ventures, Battery Ventures, First Data, Gulf Development Public Company Limited, Mayfield Capital, Saudi First Data, Seligman Ventures, serta akun yang ditangani oleh T. Rowe Price Associates, Inc. Investor yang sudah ada dan berpartisipasi meliputi: A&E, 8Square, Atlantic Bridge, BlackRock, GV, Nepenthe, Nuri Capital, dan Redline Capital.

Tuan Sharaf Al Hariri, Ketua First Data, menyatakan bahwa SambaNova membentuk bagian inti dari strategi investasi First Data untuk menghadirkan teknologi AI canggih ke Kerajaan Arab Saudi dan wilayah Timur Tengah yang lebih luas. Ia menekankan bahwa First Data berinvestasi pada platform SambaNova untuk memungkinkan kapabilitas AI berperforma tinggi, latensi rendah, dan siap untuk kebutuhan kedaulatan, sekaligus memperoleh manfaat dari kebutuhan daya yang rendah dan kemampuan untuk beroperasi secara efisien dalam lingkungan pusat data yang sudah didinginkan dengan udara yang ada. Dalam strategi ini, SambaNova mendukung inferensi canggih dan layanan AI yang dapat diskalakan, sehingga memperkuat kemampuan First Data untuk menghadirkan infrastruktur dan solusi AI kelas dunia. Ia juga menambahkan bahwa investasi ini mencerminkan komitmen First Data yang lebih luas dan jangka panjang untuk mendiversifikasi portofolio teknologinya, membangun kapabilitas inovasi yang tangguh, serta menempatkan perusahaan agar dapat beradaptasi dengan tren teknologi global yang terus berkembang sambil tetap memberikan nilai yang berkelanjutan bagi kawasan tersebut.

Seiring beban kerja agentic berkembang, perusahaan menemukan bahwa infrastruktur yang dioptimalkan untuk pelatihan kesulitan memenuhi kebutuhan latensi produksi dan biaya: “Kami bangga berinvestasi di SambaNova pada saat yang sangat penting dalam pertumbuhan perusahaan,” kata Monti Saroya, Partner di Vista Capital. “SN50 dirancang untuk sistem agentic AI yang mengorkestrasi beberapa model dan memproses permintaan dalam waktu yang hampir real-time secara lebih efisien dibanding sistem tradisional yang berpusat pada GPU.”

Hasil pendanaan akan digunakan untuk memperluas produksi SN50, menskalakan SambaCloud, dan memperdalam integrasi perangkat lunak enterprise.

Tentang SambaNova

SambaNova adalah pemimpin dalam infrastruktur AI generasi berikutnya, menyediakan platform full stack yang menggerakkan inferensi AI tercepat dan paling efisien untuk perusahaan, NeoClouds, lab AI dan penyedia layanan, serta inisiatif AI kedaulatan di seluruh dunia. Didirikan pada 2017 dan berkantor pusat di San Jose, Calif., SambaNova menghadirkan chip, sistem, dan layanan cloud yang memungkinkan pelanggan menerapkan model-model mutakhir dengan performa yang unggul, total biaya kepemilikan yang lebih rendah, dan waktu yang cepat untuk mencapai nilai.

Untuk informasi lebih lanjut, kunjungi sambanova.ai atau ikuti SambaNova di X dan LinkedIn.

[1] SemiAnalysis InferenceX - Llama 3.3 70B max speed on Nvidia B200 at FP8 and 1K input/1k output - 184 tokens per second per user. Llama 3.3 70B max speed on SN50 at FP8 and 1K input/1k output - 895 tokens per second per user.

[2] SemiAnalysis InferenceX - Llama 3.3 70B throughput per chip on Nvidia B200 at FP8 and 1K input/1k output - across a range of configurations, total throughput per GPU versus total throughput per RDU moves from ~1X (at 33 tokens per second per user) to ~25X advantage for RDUs (at 184 tokens per second per user). 3X is derived as the average throughput advantage for SN50 across Llama 70B, GPT-OSS 120B and DeepSeek 671B, assuming a latency budget.

Lihat versi sumber di businesswire.com:

Kontak

**Kontak Pers: **
Emad Abdo
Emad@memediapro.com
+971522038872

Syarat dan Kebijakan Privasi

Dasbor Privasi

Info Lebih Lanjut

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan