Anthropic Menuduh DeepSeek dan Perusahaan AI China Lainnya Mencoba Pencernaan Model

Apakah Anda pernah mendengar tentang pertempuran tak terlihat di dunia AI? Ini baru saja menjadi kenyataan ketika Anthropic, sebuah perusahaan AI berbasis di AS, menuduh beberapa “Chinese AI Firms”, termasuk DeepSeek, mencoba mengekstrak pengetahuan dari sistem AI mereka menggunakan teknik yang dikenal sebagai distilasi. Menurut Anthropic, tujuan upaya ini adalah untuk menggunakan output dari model mereka untuk melatih sistem AI yang bersaing, dan mereka telah mengambil langkah-langkah untuk mencegah aktivitas semacam itu.
Apa Itu Serangan Distilasi? Perusahaan AI Tiongkok Jadi Sorotan
Distilasi merupakan teknik dalam pembelajaran mesin dimana model “murid” yang lebih kecil dilatih untuk meniru output dari model “guru” yang lebih besar. Teknik ini umumnya digunakan untuk menciptakan versi ringan dari sistem kuat yang dapat berjalan lebih efisien, sebagaimana dijelaskan perusahaan dalam postingan blog mereka.
Di sisi lain, tanpa izin yang jelas, distilasi dapat menjadi bentuk ekstraksi hak kekayaan intelektual (IP). Selama serangan distilasi, pihak yang melakukan serangan akan berkali-kali melakukan query terhadap model AI milik pihak lain melalui antarmuka publik atau API, mengumpulkan sejumlah besar respons, dan kemudian menggunakan data tersebut untuk melatih model baru yang meniru perilaku sistem asli, sebagaimana dijelaskan oleh Anthropic.
Perusahaan AI tersebut menjelaskan bahwa aktivitas semacam ini dapat memungkinkan pesaing untuk mendapatkan manfaat dari kinerja, pekerjaan penyesuaian, dan penjagaan keamanan dari model perbatasan tanpa perlu menanggung biaya penelitian dan pelatihan yang sama.
Apa yang Dituduhkan Anthropic Terhadap DeepSeek dan Beberapa Perusahaan AI China Lainnya?
Selanjutnya, Anthropic mengungkapkan bahwa mereka menemukan kampanye skala industri yang dilakukan oleh tiga laboratorium AI — DeepSeek, Moonshot, dan MiniMax — yang mencoba secara ilegal untuk “mencuri” kemampuan Claude. Perusahaan AI ini juga memberikan rincian terperinci tentang tiga operasi terpisah yang mereka klaim telah mereka identifikasi.
DeepSeek dituduh telah melakukan lebih dari 150.000 pertukaran yang menargetkan kemampuan penalaran Claude dalam berbagai tugas, termasuk penilaian berbasis rubrik yang mengubah Claude menjadi model reward untuk pembelajaran penguatan. Anthropic juga menuduh bahwa DeepSeek menghasilkan alternatif yang aman terhadap sensor untuk query politis yang sensitif, kemungkinan besar untuk melatih sistem mereka sendiri dalam menghindari topik yang dibatasi.
Namun demikian, menurut Anthropic, DeepSeek menggunakan lalu lintas yang disinkronkan melalui beberapa akun, dengan pola yang identik, metode pembayaran bersama, dan penjadwalan yang terkoordinasi yang menunjukkan penyeimbangan beban yang disengaja untuk meningkatkan throughput dan menghindari deteksi. Metadata yang diminta memungkinkan mereka untuk melacak aktivitas ini ke peneliti tertentu di lab tersebut.
Perusahaan juga menuduh Moonshot AI telah melakukan lebih dari 3,4 juta pertukaran yang berfokus pada penalaran agentic, coding, penggunaan alat, pengembangan agen penggunaan komputer, dan tugas visi komputer. Anthropic mengklaim bahwa Moonshot mempekerjakan ratusan akun palsu di berbagai jalur akses untuk menyamarkan koordinasi.
Terakhir, MiniMax diduga telah melakukan lebih dari 13 juta pertukaran yang berpusat pada coding agentic dan orkestrasi alat. Menurut Anthropic, atribusi dibuat menggunakan metadata permintaan dan indikator infrastruktur. Perusahaan AI mengklaim bahwa mereka mendeteksi kampanye ini ketika masih aktif, sebelum model yang sedang dilatih oleh MiniMax dirilis.
Langkah-langkah yang Diambil Anthropic Menanggapi Tuduhan terhadap DeepSeek dan Perusahaan AI Tiongkok Lainnya
Untuk mencegah serangan di masa mendatang, Anthropic menyampaikan bahwa mereka telah berinvestasi besar-besaran dalam membangun sistem pertahanan yang dirancang untuk membuat serangan distilasi lebih sulit dilakukan dan lebih mudah diidentifikasi. Perusahaan tersebut dikabarkan telah mengembangkan beberapa sistem deteksi, termasuk alat klasifikasi dan pemindaian perilaku, untuk menandai pola yang konsisten dengan distilasi dalam lalu lintas API.
Bagian berikutnya, Anthropic juga berbagi indikator teknis dengan laboratorium AI lainnya, penyedia layanan cloud, dan pihak berwenang yang relevan dalam upaya untuk menyoroti masalah distilasi. Mereka juga telah memperkuat kontrol akses, terutama seputar akun pendidikan, program penelitian keamanan, dan jalur startup yang seringkali dieksploitasi untuk menciptakan akun palsu.
Terakhir, Anthropic sedang mengembangkan langkah-langkah penanggulangan di tingkat produk, API, dan model untuk mengurangi efektivitas outputnya bagi distilasi ilegal, tanpa mengganggu pengalaman pelanggan. Perusahaan tersebut menyatakan bahwa mereka mempublikasikan detail untuk menjadikan bukti tersebut tersedia bagi para pemangku kepentingan yang berkepentingan dalam melindungi sistem AI canggih.




