Ekosistem alat pengembang AI pada 12 Mei pada hari yang sama merilis dua kasus serangan rantai pasokan besar: (1) Microsoft Threat Intelligence mengungkap paket PyPI milik Mistral AI disisipi kode berbahaya; (2) sebuah proyek model Hugging Face yang meniru OpenAI palsu menduduki peringkat teratas tren selama 1,18 jam dan dalam 18 jam terakhir berhasil menarik 244 ribu unduhan serta mencuri banyak kredensial akun. Menurut laporan Decrypt, kedua peristiwa itu sama-sama menunjukkan kerentanan ekosistem pengembang AI terhadap penyusupan rantai pasokan.
Daftar Isi
Toggle
Kasus paket Mistral AI: serangan dua tahap dengan menyamar sebagai nama Hugging Face Transformers
Kasus Hugging Face OpenAI palsu: infostealer buatan Rust dalam 6 tahap
Makna industri: rantai pasokan AI menjadi permukaan serangan baru
Kasus paket Mistral AI: serangan dua tahap dengan menyamar sebagai nama Hugging Face Transformers
Paket PyPI Mistral AI (pengelola paket Python) disisipi kode berbahaya, diungkapkan Microsoft Threat Intelligence pada 12 Mei melalui X:
Cakupan terdampak: paket mistralai PyPI v2,4,6
Cara pemicu: saat mengimpor paket pada sistem Linux, otomatis dijalankan
Payload tahap kedua: mengunduh transformers.pyz dari server jarak jauh, lalu menjalankan di latar belakang
Jebakan penamaan: transformers.pyz sengaja meniru nama library fungsi Transformers yang populer dari Hugging Face
Fungsi sebenarnya: mencuri kredensial login developer, access token; pada sebagian sistem, pemicu menghapus secara acak file yang berada dalam rentang IP Israel atau Iran
Mistral pada 13 Mei mengonfirmasi serangan rantai pasokan ini, namun menegaskan bahwa “infrastruktur Mistral tidak disusupi, serangan bermula dari perangkat pengembang yang terdampak”. Serangan ini masuk ke dalam keluarga malware Shai-Hulud secara luas (aktif sejak September 2025, menargetkan rantai pasokan paket open source untuk npm dan PyPI).
Kasus Hugging Face OpenAI palsu: infostealer buatan Rust dalam 6 tahap
Secara bersamaan, platform model AI Hugging Face menghadirkan proyek model tiruan bernama “Open-OSS/privacy-filter”, yang sengaja meniru model Privacy Filter milik OpenAI yang dipublikasikan pada April:
Unduhan akumulatif: 244 ribu kali dalam 18 jam
Suka akumulatif: 667 (di antaranya 657 akun terindikasi bot yang melakukan spam)
Peringkat tren: sempat naik ke peringkat 1 di tren Hugging Face
Perintah pemicu: menyarankan pengguna menjalankan _start.bat (Windows) atau loader.py (Linux/Mac)
Perilaku sebenarnya: infostealer buatan Rust dalam 6 tahap, yang mencuri data berikut:
— kata sandi dan Cookie browser Chrome/Firefox
— Discord token
— seed phrase dompet mata uang kripto
— kredensial SSH dan FTP
— semua tangkapan layar
Proyek model tersebut dibongkar oleh perusahaan keamanan AI HiddenLayer, dan Hugging Face telah menurunkannya. Pada waktu yang sama, HiddenLayer juga mengidentifikasi 7 proyek model berbahaya serupa, sebagian meniru Qwen3, DeepSeek, dan model AI populer lainnya.
Makna industri: rantai pasokan AI menjadi permukaan serangan baru
Rangkaian berita: dalam sepekan yang sama, terungkap 3 peristiwa rantai pasokan AI—Mistral PyPI, HuggingFace OpenAI palsu, serta kasus eksploitasi zero-day pembuatan AI yang diungkapkan Google pada 5/11—yang menunjukkan ekosistem pengembang AI telah menjadi prioritas serangan peretas.
Pola bersama dari ketiga kasus:
Penyerang menyamar sebagai pemasok alat AI yang sah (paket PyPI, proyek model di HuggingFace, serta utilitas eksploitasi zero-day pembuatan AI)
Sasarannya adalah kelompok “Web3 dan pengembang AI” yang memiliki token berhak akses tinggi, dompet kripto, serta akun cloud
Jalur pencucian/pencurian cepat—kasus Hugging Face mencapai 244 ribu unduhan dalam 18 jam, yang menunjukkan cakupan dampak berkembang dengan cepat
Mekanisme pemeriksaan platform besar (PyPI, HuggingFace) kurang memadai untuk segera mengenali proyek palsu
Bagi pengembang kripto dan Web3, peristiwa ini menguatkan ancaman “social engineering + bersembunyi 6 bulan” yang disebut dalam laporan minggu yang sama dirilis CertiK tentang “Peretas Korea Utara 2025 mencuri 2,06 miliar dolar AS”—pelaku serangan pada 2026 tidak perlu lagi meretas bursa secara langsung; cukup mencemari paket open source yang digunakan developer, sehingga secara tidak langsung memperoleh kunci dan dana yang sesuai.
Langkah pertahanan praktis bagi pengembang individu: memverifikasi tanda tangan dan penerbit sebelum memasang paket; menjalankan model AI yang baru diunduh pada virtual machine yang terpisah; rutin mengganti kunci API bursa; seed phrase dompet kripto tidak disimpan di perangkat yang terhubung ke internet. Untuk level tim, perlu membangun “SBOM (software bill of materials)” serta proses penandatanganan rantai pasokan.
Peristiwa lanjutan yang dapat ditelusuri termasuk: hasil investigasi penyusupan perangkat internal milik Mistral; apakah Hugging Face menerapkan mekanisme pemeriksaan yang lebih ketat untuk tren; serta data lanjutan dari proyek model berbahaya lainnya yang dibongkar HiddenLayer (termasuk versi tiruan Qwen3 dan DeepSeek).
Artikel tentang dua serangan penyusupan pada rantai pasokan paket AI: Mistral dan model OpenAI palsu sama-sama disusupi, pertama kali muncul di 鏈新聞 ABMedia.
Related News
Anthropic membahas pendanaan sebesar 30 miliar dolar AS, valuasi bisa menembus 900 miliar menghadapi tantangan rekor nilai pasar AI sebesar 900 miliar dolar AS
Google: Model bahasa besar digunakan untuk serangan dunia nyata, AI dapat melewati mekanisme keamanan autentikasi dua faktor
Google mengungkap kasus pertama pembuatan zero-day oleh AI: peretas berupaya menghindari 2FA untuk melakukan eksploitasi skala besar
Anthropic: Pelatihan teks fiksi ilmiah untuk Claude Opus 4 meningkatkan tingkat keberhasilan pemerasan sebesar 96%
OpenAI meluncurkan program keamanan siber Daybreak, arsitektur tiga lapis GPT-5.5 melawan Anthropic Mythos