Menurut pemantauan 1M AI News, perusahaan Fireworks AI, yang bergerak di infrastruktur output AI, merilis pratinjau Fireworks Training, memperluas dari platform output murni menjadi platform terintegrasi untuk pelatihan dan deployment. Fireworks AI didirikan oleh Lin Qiao, mantan insinyur Meta yang terlibat dalam pembuatan PyTorch, dan saat ini dinilai sebesar 4 miliar dolar, memproses 15 triliun token setiap hari. Platform ini menawarkan tiga tingkat: 1. Agen pelatihan: dirancang untuk tim produk tanpa infrastruktur machine learning, memungkinkan mereka mendeskripsikan tugas dan mengunggah data untuk menyelesaikan seluruh proses dari pelatihan hingga deployment, saat ini hanya mendukung LoRA; 2. Pelatihan terkelola: ditujukan untuk insinyur machine learning, mendukung SFT, DPO, dan fine-tuning dengan reinforcement learning, termasuk pelatihan penuh parameter; 3. API pelatihan: ditujukan untuk tim riset, memungkinkan penyesuaian fungsi loss dan siklus pelatihan, mendukung algoritma seperti GRPO dan DAPO, dengan skala pelatihan parameter penuh dari Qwen3 8B satu node hingga Kimi K2.5 (triliun parameter) pada 64 NVIDIA B200. Klien Fireworks AI untuk output produksi, alat pemrograman AI Cursor, Vercel, dan Genspark telah menyelesaikan pelatihan reinforcement learning tingkat lanjut di platform ini. Vercel melatih model koreksi otomatis untuk produk generasi kode v0 mereka, mencapai 93% kode yang dihasilkan tanpa kesalahan, dibandingkan hanya 62% dari Sonnet 3.5, dan meningkatkan latensi end-to-end sebesar 40 kali dibandingkan model tertutup yang sebelumnya digunakan. Genspark melakukan fine-tuning model terbuka dengan satu triliun parameter Kimi K2 menggunakan reinforcement learning untuk menciptakan agen riset mendalam, meningkatkan penggunaan alat sebesar 33% dan mengurangi biaya sebesar 50%. Cursor menyelesaikan pelatihan reinforcement learning terdistribusi untuk Composer 2 di 3-4 klaster di seluruh dunia ( saat ini menempati posisi teratas di CursorBench), berbagi pool GPU yang sama untuk pelatihan dan output produksi. Fireworks AI menekankan keunggulan teknologi utama mereka dalam konsistensi numerik antara pelatihan dan output. Model MoE (Kelompok ahli campuran) secara numerik lebih rapuh dibandingkan model padat, di mana perubahan kecil pada keadaan tersembunyi dapat mengubah routing ahli dan memperkuat efek cascaded. Fireworks telah mempublikasikan nilai KL-divergence antara pelatihan dan output untuk semua model yang didukung, semuanya di bawah 0.01.

Lihat Asli
post-image
post-image
post-image
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • 1
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
KatyPatyvip
· 12jam yang lalu
Ke Bulan 🌕
Lihat AsliBalas0
  • Sematkan