Pemerintah AS mengungkap modus pencurian AI skala industri oleh perusahaan China, termasuk penggunaan proxy dan jailbreaking untuk model distillation.

Pemerintah AS baru-baru ini mengungkap sesuatu yang cukup mengkhawatirkan soal dunia AI. Menurut Kantor Kebijakan Teknologi Gedung Putih, ada entitas asing—terutama dari China—yang mencuri kemampuan model AI buatan Amerika secara masif.

Mereka nggak cuma nyolong data biasa. Ini skala industri, dengan metode yang cukup canggih.

Salah satu teknik yang dipakai adalah model distillation. Kamu bisa bayangin ini seperti menyeduh kopi: mereka ambil 'essence' dari model AI besar buatan OpenAI, Anthropic, atau Google, lalu transfer ke model mereka sendiri yang lebih kecil dan murah.

Advertisement

Hasilnya? Model AI tiruan yang bisa performa mirip, tapi biaya latihannya jauh lebih murah. Rugi buat perusahaan AS yang udah investasi miliaran dolar untuk riset.

Lalu gimana caranya mereka bisa akses model-model ini?

Pertama, lewat akun proxy. Mereka bikin banyak akun palsu atau pinjam akun orang lain untuk akses API model AI. Jadi seolah-olah request-nya datang dari pengguna biasa, padahal dipakai untuk training massal.

Kedua, teknik jailbreaking. Ini cara 'memaksa' model AI untuk ngeluarin informasi yang seharusnya dibatasi. Misalnya, nanya dengan cara tertentu biar model ngasih tahu internal workings-nya.

Kombinasi dua teknik ini bikin pencurian intellectual property jadi sistematis dan efisien.

Masalahnya, ini bukan cuma soal bisnis. Ada implikasi keamanan nasional juga.

Model AI canggih bisa dipakai untuk banyak hal—mulai dari analisis data militer, simulasi senjata, sampai cyberattack. Kalau teknologi ini jatuh ke tangan yang salah tanpa kontrol, risikonya besar.

AS sekarang lagi nyari cara untuk memperketat regulasi. Salah satunya dengan lebih ketat memantau siapa yang akses model AI frontier, terutama yang punya kemampuan reasoning tingkat tinggi.

Tapi ini tricky juga. Terlalu ketat, bisa menghambat inovasi dan kolaborasi riset global. Terlalu longgar, teknologi sensitif bisa bocor.

Nah, buat kamu yang developer atau pakai AI untuk bisnis, ada pelajaran praktis di sini.

Pertama, hati-hati dengan API key dan akses model. Jangan sembarangan share, dan pantau usage pattern yang aneh. Kalau tiba-tiba ada akun dengan request volume tinggi atau pola query yang repetitive, itu red flag.

Kedua, kalau kamu bangun model AI sendiri, pertimbangkan rate limiting dan watermarking. Rate limiting batasi seberapa banyak orang bisa query modelmu. Watermarking bisa bantu trace kalau output modelmu dipakai tanpa izin.

Ketiga, paham bahwa jailbreaking itu real threat. Jangan anggap model AI kamu 'aman' cuma karena ada guardrails dasar. Attack surface-nya besar, dan teknik jailbreaking berkembang terus.

Terakhir, ikuti perkembangan regulasi. Aturan soal ekspor teknologi AI kemungkinan bakal makin ketat. Siapin compliance strategy dari sekarang lebih baik daripada kaget nanti.

Dunia AI memang lagi kompetitif banget. Tapi kompetisi yang fair itu beda sama pencurian. Memahami risiko ini bisa bantu kamu protect aset digital dan tetap inovatif di pasar yang makin kompleks.

Crypto lagi bergerak cepat, jadi jangan cuma lihat headline.

CoinTelegraph

Catatan redaksi

Kalau lo cuma ambil satu hal dari artikel ini

Crypto update dari CoinTelegraph.

Sumber asli

Artikel ini merupakan rewrite editorial dari laporan CoinTelegraph.

Baca artikel asli di CoinTelegraph
#Crypto#CoinTelegraph#rss