DeepSeek V4 dirilis dengan konteks jendela 1 juta token, harga super murah, dan optimasi untuk chip Huawei. Ini tiga alasan kenapa model ini penting buat industri AI.

Akhir pekan kemarin, DeepSeek—startup AI asal China—merilis versi preview dari V4, model flagship terbaru mereka yang sudah lama ditunggu-tunggu. Kabar baiknya? Model ini bisa memproses prompt yang jauh lebih panjang dari generasi sebelumnya. Plus, tetap open source seperti tradisi DeepSeek.

V4 ini jadi rilis paling signifikan sejak R1, model reasoning mereka yang sempat menggemparkan dunia AI pada Januari 2025. Bedanya, kali ini DeepSeek datang dalam situasi berbeda: ada pergantian personel, penundaan rilis sebelumnya, dan tekanan dari pemerintah AS maupun China.

Jadi, apakah V4 akan mengguncang industri seperti R1? Kemungkinan besar nggak. Tapi ada tiga alasan kenapa rilis ini tetap penting buat kamu ikuti.

Advertisement

Pertama, V4 membuka jalan baru buat model open source.

DeepSeek mengklaim performa V4 bisa bersaing dengan model-model terbaik, tapi dengan harga jauh lebih murah. Ini kabar gembira buat developer dan perusahaan yang pengen akses AI canggih tanpa khawatir biaya membengkak.

Ada dua versi: V4-Pro untuk coding dan tugas agent kompleks, serta V4-Flash yang lebih cepat dan murah. Keduanya punya mode reasoning yang nunjukkin langkah-langkah pemikiran model.

Soal harga, V4-Pro cuma $1,74 per juta input tokens dan $3,48 per juta output tokens. Jauh lebih murah dari OpenAI dan Anthropic. V4-Flash? Cuma sekitar $0,14 dan $0,28 per juta tokens. Salah satu model top-tier termurah yang ada.

Di benchmark, V4-Pro sejajar dengan Claude-Opus-4.6, GPT-5.4, dan Gemini-3.1. Untuk coding, math, dan STEM, V4 malah mengungguli model open source lain seperti Qwen-3.5 dan GLM-5.1.

Dalam survei internal ke 85 developer berpengalaman, lebih dari 90% memasukkan V4-Pro ke pilihan teratas untuk tugas coding. DeepSeek juga sudah mengoptimalkan V4 untuk framework agent populer kayak Claude Code, OpenClaw, dan CodeBuddy.

Kedua, V4 punya pendekatan baru soal efisiensi memori.

Inovasi kunci V4 ada di context window-nya yang bisa menampung 1 juta tokens. Bayangin, itu cukup buat muatin tiga volume The Lord of the Rings plus The Hobbit sekaligus.

Yang menarik bukan cuma angkanya, tapi cara DeepSeek mencapainya. V4 mengubah arsitektur attention mechanism-nya secara signifikan.

Biasanya, model AI harus membandingkan setiap bagian teks dengan semua bagian lainnya. Makin panjang teks, makin mahal komputasinya. DeepSeek membuat V4 lebih selektif: informasi lama dikompres, fokus diarahkan ke bagian yang paling relevan, sementara teks di sekitar tetap utuh.

Hasilnya? Untuk konteks 1 juta token, V4-Pro cuma butuh 27% computing power dan 10% memori dibanding model sebelumnya. V4-Flash lebih ekstrem lagi: 10% computing power dan 7% memori.

Ini bisa bikin lebih murah membangun tools yang kerja dengan data besar, misalnya AI coding assistant yang baca seluruh codebase atau research agent yang analisis arsip dokumen panjang tanpa lupa konteks.

DeepSeek sebenarnya sudah lama eksplorasi soal ini. Setahun setengah terakhir, mereka diam-diam publikasikan paper tentang cara model AI "mengingat" informasi, bereksperimen dengan kompresi dan teknik matematika.

Ketiga, ini langkah awal melepaskan diri dari Nvidia.

V4 jadi model pertama DeepSeek yang dioptimalkan untuk chip domestik China, khususnya Huawei Ascend. Ini jadi semacam uji coba: bisakah industri AI China mulai mengurangi ketergantungan pada raksasa chip AS?

Sebelumnya, The Information melaporkan DeepSeek nggak kasih akses awal ke Nvidia dan AMD, yang biasanya dilakuin biar chipmaker bisa optimasi dukungan sebelum rilis. Sebaliknya, akses awal cuma diberikan ke chipmaker China.

Huawei langsung mengumumkan produk supernode Ascend 950-nya bakal dukung DeepSeek V4. Artinya, perusahaan dan individu yang pengen jalankan versi modifikasi V4 bisa pakai chip Huawei dengan mudah.

Pemerintah China memang sudah mendorong DeepSeek integrasikan chip Huawei dalam proses training. Ini sejalan dengan kebijakan industri China: sektor strategis sering didorong—bahkan dipaksa—menuju swasembada teknologi.

Tapi mengganti Nvidia nggak semudah tukar chip A dengan chip B. Keunggulan Nvidia bukan cuma di hardware, tapi juga ekosistem software yang developer bangun selama bertahun-tahun. Pindah ke Ascend berarti adaptasi kode, rebuild tools, dan buktiin stabilitas sistem.

DeepSeek sebenarnya belum sepenuhnya lepas dari Nvidia. Laporan teknisnya nunjukkin chip China dipakai untuk inference—saat model dijalankan buat nyelesain tugas. Tapi menurut profesor Tsinghua University Liu Zhiyuan, sebagian proses training V4 kemungkinan masih pakai Nvidia.

Sumber anonim mengkonfirmasi chip China memang masih kalah performa dari Nvidia, tapi lebih cocok untuk inference daripada training.

DeepSeek juga menarik harga V4-Pro ke arah pergeseran hardware ini. Mereka bilang harga bisa turun signifikan setelah supernode Ascend 950 Huawei mulai dikirim besar-besaran di semester dua tahun ini.

Kalau berhasil, V4 bisa jadi tanda awal bahwa China sedang membangun infrastruktur AI paralel yang viable.

Praktisnya buat kamu: kalau lagi bangun aplikasi AI atau jadi developer, V4 worth dicoba. Harganya murah, performanya solid, dan konteks window yang gede bikin banyak use case baru jadi mungkin. Yang paling penting, tren model open source berkualitas tinggi dengan harga terjangkau bakal makin mengubah cara kita akses dan bangun AI.

AI Updates lagi bergerak cepat, jadi jangan cuma lihat headline.

MIT Technology Review AI

Catatan redaksi

Kalau lo cuma ambil satu hal dari artikel ini

AI Updates update dari MIT Technology Review AI.

Sumber asli

Artikel ini merupakan rewrite editorial dari laporan MIT Technology Review AI.

Baca artikel asli di MIT Technology Review AI
#AIUpdates#MITTechnologyReviewAI#rss