Anthropic dan CoreWeave mencapai perjanjian sewa pusat data jangka panjang, menerapkan model AI Claude

Berita Gate, 10 April, Anthropic menyetujui untuk menyewa kapasitas pusat data milik CoreWeave untuk memenuhi kebutuhan layanannya yang berbasis AI yang terus meningkat. CoreWeave pada Jumat dalam sebuah pernyataan mengatakan bahwa perjanjian jangka panjang ini akan membantu Anthropic membangun dan menerapkan model AI Claude-nya. CEO CoreWeave, Intratoto, mengatakan bahwa perjanjian tersebut akan mencakup berbagai arsitektur chip Nvidia di pusat data di Amerika Serikat. Kedua perusahaan menolak mengungkapkan rincian keuangan perjanjian tersebut. Anthropic, seperti halnya sebuah perusahaan AI lainnya, telah berada di garis depan ledakan layanan AI, dan kadang menghadapi apa yang disebutnya sebagai “permintaan yang belum pernah terjadi sebelumnya”, sehingga sulit untuk mempertahankan pengoperasian produk-produknya secara online. Lebih awal pekan ini, Anthropic mengumumkan kemitraan dengan Broadcom dan Google untuk memperoleh energi 3,5 gigawatt (1 gigawatt daya cukup untuk memasok sekitar 750.000 rumah tangga di Amerika Serikat secara bersamaan dengan listrik).

Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke Penafian.

Artikel Terkait

Jensen Huang Menepis Teori Kiamat AI: Masa Depan Akan Menciptakan Peluang Kerja Baru dalam Skala Besar

CEO Nvidia, Jensen Huang, mengatakan dalam diskusi global bahwa AI bukanlah kiamat, dan ia percaya AI akan mendorong Amerika Serikat menuju industrialisasi ulang serta menciptakan lapangan kerja. Ia memprediksi gelombang berikutnya “AI berbasis agen” akan membuat kebutuhan GPU melonjak 1000 kali lipat, sehingga diperlukan infrastruktur tingkat industri baru dan pasar tenaga kerja yang sangat besar. Ia menekankan bahwa AI meningkatkan produktivitas, bukan menggantikan tenaga kerja manusia, serta menyerukan pengembangan yang bertanggung jawab dan standar keamanan lintas negara. Dampak terhadap pekerjaan dan ekonomi masih perlu dipantau dalam jangka panjang.

ChainNewsAbmedia6menit yang lalu

OpenAI Mempercepat Telepon AI Agent hingga H1 2027, MediaTek untuk Mengamankan Kesepakatan Eksklusif Prosesor

Menurut survei industri terbaru analis Ming-Chi Kuo, OpenAI mempercepat pengembangan ponsel agen AI pertamanya dan menargetkan produksi massal sedini H1 2027. MediaTek kini kemungkinan besar akan mengamankan pesanan prosesor eksklusif, dengan chip yang berbasis pada versi khusus dari

GateNews9menit yang lalu

Sierra menggalang dana 9,5 miliar dolar AS, valuasi 15,8 miliar: Bret Taylor mendirikan posisi sebagai ketua OpenAI untuk merebut kepemimpinan layanan pelanggan AI

Sierra yang didirikan bersama Bret Taylor mengumumkan telah menyelesaikan pendanaan Series E senilai 95 juta dolar AS, dengan valuasi 15,8 miliar dolar AS, dipimpin oleh Tiger Global dan GV. Dalam 8 kuartal, perusahaan mencapai ARR sebesar 15 juta dolar AS, dengan tingkat penetrasi Fortune 50 lebih dari 40%. Sierra memposisikan diri sebagai platform layanan pelanggan vertikal yang berpusat pada AI agent, menyediakan workflow siap pakai. Taylor juga menjabat sebagai ketua OpenAI, dengan fokus pada tata kelola dan pengungkapan kepentingan.

ChainNewsAbmedia1jam yang lalu

Gemini API kini mendukung Webhooks: Google mengatasi rasa sakit polling tugas jangka panjang, Batch/Veo bisa dikirim secara real-time

Google Gemini API meluncurkan Webhooks pada 4 Mei. Untuk tugas yang berjalan lama, hasil akan otomatis dipush ke URL callback, menggantikan polling, sehingga mengurangi penggunaan sumber daya dan latensi serta menyederhanakan pemrograman. Ini berlaku untuk Batch API, Veo2, dan inferensi long context, khususnya cocok untuk serverless. Dibandingkan OpenAI yang lebih cenderung memakai SSE dan Anthropic yang masih menggunakan polling, Google menekankan pengembangan infrastruktur bagi pengembang. Ke depan, yang perlu diperhatikan adalah mekanisme keamanan dan perluasan model. Bagi pengembang di Taiwan, integrasi ini dapat langsung menurunkan quota secara signifikan dan beban sistem.

ChainNewsAbmedia1jam yang lalu

Krutrim Beralih ke Layanan Cloud AI pada 5 Mei, Memposting Keuntungan Pertama saat Pendapatan FY26 Mencapai $31,6Juta

Menurut Press Trust of India, perusahaan AI India Krutrim memposisikan ulang dirinya sebagai penyedia layanan cloud AI domestik pada 5 Mei, menghentikan upaya desain chip dan mengalihkan modal serta talenta ke infrastruktur cloud. Perusahaan tersebut melaporkan pendapatan FY26 sekitar 3 miliar rupee (US$31,6 juta)

GateNews2jam yang lalu
Komentar
0/400
Tidak ada komentar