NSA menggunakan Anthropic Mythos meski ada blacklist. Pelajari apa itu Mythos, mengapa ini penting, dan apa yang bisa kita ambil pelajaran soal regulasi AI.
Ada yang aneh nih. NSA, badan intelijen Amerika, dikabarkan pakai model AI dari Anthropic yang namanya Mythos. Padahal, seharusnya ada daftar hitam yang melarang hal ini.
Jadi apa sebenarnya Mythos ini? Ini adalah model AI khusus yang dikembangkan Anthropic untuk keperluan government dan defense. Bedanya dengan Claude biasa? Mythos dirancang lebih ketat soal keamanan dan compliance.
Yang bikin heran, Anthropic sendiri punya kebijakan yang cukup keras soal penggunaan AI untuk militer. Mereka sempat nolak beberapa kontrak defense. Tapi ternyata ada celah.
Celahnya ada di klasifikasi pengguna. Mythos masuk kategori "safe" untuk government use, meski secara teknis tetap masuk lingkup defense dan intelligence. Jadi hitungannya nggak melanggar kebijakan internal mereka.
Ini contoh klasik soal bagaimana perusahaan AI navigasi regulasi yang rapuh. Di satu sisi, mereka mau tampil etis. Di sisi lain, kontrak government itu gede banget dan susah ditolak.
Buat kamu yang kerja di tech atau ngikutin perkembangan AI, ini ada pelajaran penting. Regulasi AI itu masih abu-abu banget. Apa yang disebut "blacklist" atau "restricted" seringkali punya definisi yang fleksibel.
Praktisnya, kalau kamu develop AI product atau bikin kebijakan internal, jangan cuma andal di kata-kata manis di press release. Cek detail kontrak dan klasifikasi penggunaannya.
Kasus NSA-Anthropic ini juga nunjukin gap antara public commitment dan actual deployment. Publik mungkin pikir Anthropic "anti-militer", tapi faktanya mereka tetap supply ke intelligence community.
Soal teknis, Mythos ini sebenarnya based on Claude architecture. Tapi ada fine-tuning khusus dan filtering yang lebih agresif. Anthropic bilang ini untuk meminimalkan misuse.
Tapi pertanyaannya: siapa yang define misuse? Kalau client-nya NSA, definisi "safe" dan "ethical" pasti beda dengan standar civil society. Ini gray area yang belum ada solusinya.
Buat developer dan decision maker, takeaway praktisnya adalah: dokumentasi kebijakan AI kamu dengan sangat spesifik. Jangan pakai bahasa fuzzy kayak "we don't support harmful uses."
Definisi "harmful", "military", dan "intelligence" itu perlu di-breakdown. Kalau nggak, nanti ada celah yang bisa dieksploitasi—baik secara internal maupun eksternal.
Kasus ini juga relevant buat diskusi soal AI governance di Indonesia. Kita masih di tahap awal regulasi, dan contoh-contok dari AS bisa jadi pelajaran apa yang harus dihindari.
Intinya: transparansi itu mahal, tapi opacity itu lebih mahal di long run. Perusahaan AI yang main di dua kaki—public image vs government contract—bakal ketahuan juga.
Yang sekarang terjadi di Anthropic mungkin cuma the tip of the iceberg. Makin banyak model AI "specialized" yang dibuat untuk client spesifik, dan publik nggak akan tahu detailnya.
AI Updates lagi bergerak cepat, jadi jangan cuma lihat headline.
Hacker News Front Page
Catatan redaksi
Kalau lo cuma ambil satu hal dari artikel ini
AI Updates update dari Hacker News Front Page.
Sumber asli
Artikel ini merupakan rewrite editorial dari laporan Hacker News Front Page.
Baca artikel asli di Hacker News Front Page→
![A Report on Burnout in Open Source Software Communities (2025) [pdf]](https://cdn.sanity.io/images/dc330kkz/production/5abef2280c91c15bf2815dd8fd0ec564c6d1c72d-1024x576.jpg?w=1400&h=788&fit=crop&auto=format&q=82)

