Serangan beruntun pada rantai pasok perangkat lunak AI: Mistral dan model OpenAI palsu sama-sama berhasil disusupi

ChainNewsAbmedia

Ekosistem alat pengembang AI pada 12 Mei pada hari yang sama merilis dua kasus serangan rantai pasokan besar: (1) Microsoft Threat Intelligence mengungkap paket PyPI milik Mistral AI disisipi kode berbahaya; (2) sebuah proyek model Hugging Face yang meniru OpenAI palsu menduduki peringkat teratas tren selama 1,18 jam dan dalam 18 jam terakhir berhasil menarik 244 ribu unduhan serta mencuri banyak kredensial akun. Menurut laporan Decrypt, kedua peristiwa itu sama-sama menunjukkan kerentanan ekosistem pengembang AI terhadap penyusupan rantai pasokan.

Daftar Isi

Toggle

Kasus paket Mistral AI: serangan dua tahap dengan menyamar sebagai nama Hugging Face Transformers

Kasus Hugging Face OpenAI palsu: infostealer buatan Rust dalam 6 tahap

Makna industri: rantai pasokan AI menjadi permukaan serangan baru

Kasus paket Mistral AI: serangan dua tahap dengan menyamar sebagai nama Hugging Face Transformers

Paket PyPI Mistral AI (pengelola paket Python) disisipi kode berbahaya, diungkapkan Microsoft Threat Intelligence pada 12 Mei melalui X:

Cakupan terdampak: paket mistralai PyPI v2,4,6

Cara pemicu: saat mengimpor paket pada sistem Linux, otomatis dijalankan

Payload tahap kedua: mengunduh transformers.pyz dari server jarak jauh, lalu menjalankan di latar belakang

Jebakan penamaan: transformers.pyz sengaja meniru nama library fungsi Transformers yang populer dari Hugging Face

Fungsi sebenarnya: mencuri kredensial login developer, access token; pada sebagian sistem, pemicu menghapus secara acak file yang berada dalam rentang IP Israel atau Iran

Mistral pada 13 Mei mengonfirmasi serangan rantai pasokan ini, namun menegaskan bahwa “infrastruktur Mistral tidak disusupi, serangan bermula dari perangkat pengembang yang terdampak”. Serangan ini masuk ke dalam keluarga malware Shai-Hulud secara luas (aktif sejak September 2025, menargetkan rantai pasokan paket open source untuk npm dan PyPI).

Kasus Hugging Face OpenAI palsu: infostealer buatan Rust dalam 6 tahap

Secara bersamaan, platform model AI Hugging Face menghadirkan proyek model tiruan bernama “Open-OSS/privacy-filter”, yang sengaja meniru model Privacy Filter milik OpenAI yang dipublikasikan pada April:

Unduhan akumulatif: 244 ribu kali dalam 18 jam

Suka akumulatif: 667 (di antaranya 657 akun terindikasi bot yang melakukan spam)

Peringkat tren: sempat naik ke peringkat 1 di tren Hugging Face

Perintah pemicu: menyarankan pengguna menjalankan _start.bat (Windows) atau loader.py (Linux/Mac)

Perilaku sebenarnya: infostealer buatan Rust dalam 6 tahap, yang mencuri data berikut:

— kata sandi dan Cookie browser Chrome/Firefox

— Discord token

— seed phrase dompet mata uang kripto

— kredensial SSH dan FTP

— semua tangkapan layar

Proyek model tersebut dibongkar oleh perusahaan keamanan AI HiddenLayer, dan Hugging Face telah menurunkannya. Pada waktu yang sama, HiddenLayer juga mengidentifikasi 7 proyek model berbahaya serupa, sebagian meniru Qwen3, DeepSeek, dan model AI populer lainnya.

Makna industri: rantai pasokan AI menjadi permukaan serangan baru

Rangkaian berita: dalam sepekan yang sama, terungkap 3 peristiwa rantai pasokan AI—Mistral PyPI, HuggingFace OpenAI palsu, serta kasus eksploitasi zero-day pembuatan AI yang diungkapkan Google pada 5/11—yang menunjukkan ekosistem pengembang AI telah menjadi prioritas serangan peretas.

Pola bersama dari ketiga kasus:

Penyerang menyamar sebagai pemasok alat AI yang sah (paket PyPI, proyek model di HuggingFace, serta utilitas eksploitasi zero-day pembuatan AI)

Sasarannya adalah kelompok “Web3 dan pengembang AI” yang memiliki token berhak akses tinggi, dompet kripto, serta akun cloud

Jalur pencucian/pencurian cepat—kasus Hugging Face mencapai 244 ribu unduhan dalam 18 jam, yang menunjukkan cakupan dampak berkembang dengan cepat

Mekanisme pemeriksaan platform besar (PyPI, HuggingFace) kurang memadai untuk segera mengenali proyek palsu

Bagi pengembang kripto dan Web3, peristiwa ini menguatkan ancaman “social engineering + bersembunyi 6 bulan” yang disebut dalam laporan minggu yang sama dirilis CertiK tentang “Peretas Korea Utara 2025 mencuri 2,06 miliar dolar AS”—pelaku serangan pada 2026 tidak perlu lagi meretas bursa secara langsung; cukup mencemari paket open source yang digunakan developer, sehingga secara tidak langsung memperoleh kunci dan dana yang sesuai.

Langkah pertahanan praktis bagi pengembang individu: memverifikasi tanda tangan dan penerbit sebelum memasang paket; menjalankan model AI yang baru diunduh pada virtual machine yang terpisah; rutin mengganti kunci API bursa; seed phrase dompet kripto tidak disimpan di perangkat yang terhubung ke internet. Untuk level tim, perlu membangun “SBOM (software bill of materials)” serta proses penandatanganan rantai pasokan.

Peristiwa lanjutan yang dapat ditelusuri termasuk: hasil investigasi penyusupan perangkat internal milik Mistral; apakah Hugging Face menerapkan mekanisme pemeriksaan yang lebih ketat untuk tren; serta data lanjutan dari proyek model berbahaya lainnya yang dibongkar HiddenLayer (termasuk versi tiruan Qwen3 dan DeepSeek).

Artikel tentang dua serangan penyusupan pada rantai pasokan paket AI: Mistral dan model OpenAI palsu sama-sama disusupi, pertama kali muncul di 鏈新聞 ABMedia.

Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke Penafian.
Komentar
0/400
Tidak ada komentar