DeepSeek V4 membawa inovasi di efisiensi memori, harga super terjangkau, dan langkah pertama lepas dari Nvidia. Simak tiga alasan kenapa model AI open-source ini penting.
Akhir pekan lalu, DeepSeek ngasih bocoran V4, model andalan terbaru mereka yang ditunggu-tunggu. Yang langsung bikin sorotan: kemampuannya nge-handle prompt yang jauh lebih panjang dari generasi sebelumnya.
V4 ini open source, jadi kamu bebas download, pakai, bahkan modifikasi sesuka hati. Ini jadi rilis paling signifikan dari DeepSeek sejak R1 yang sempat menggemparkan dunia AI awal tahun ini.
R1 dulu sukses bikin DeepSeek melejit dari tim riset yang nggak dikenal jadi perusahaan AI paling top di China. Sekarang, setelah beberapa bulan diem aja, mereka balik lagi dengan V4.
Tapi apakah V4 bakal seheboh R1? Kayaknya nggak. Tapi tetap ada tiga alasan kenapa rilis ini patut kamu perhatikan.
Pertama, V4 nge-push batasan model open-source ke level baru. DeepSeek klaim performanya sebanding model terbaik yang ada, tapi harganya jauh lebih murah.
Ini kabar bagus buat developer dan perusahaan. Kamu bisa akses kemampuan AI kelas dunia tanpa khawatir biaya membengkak.
V4 hadir dalam dua versi. V4-Pro buat coding dan tugas agent yang kompleks. V4-Flash yang lebih kecil, lebih cepat, dan lebih murah dijalankan.
Kedua versi punya mode reasoning, di mana model bisa mikir step-by-step dan nunjukin cara kerjanya. Buat V4-Pro, DeepSeek cuma tagih $1,74 per juta input token dan $3,48 per juta output token.
V4-Flash? Lebih murah lagi, sekitar $0,14 dan $0,28 per juta token. Ini salah satu model kelas atas termurah yang tersedia.
Soal performa, V4 loncatan besar dari R1. Di benchmark utama, V4-Pro sejajar dengan Claude-Opus-4.6, GPT-5.4, dan Gemini-3.1.
Dibanding model open-source lain kayak Qwen-3.5 atau GLM-5.1, DeepSeek V4 unggul di coding, matematika, dan STEM.
Dalam survei internal ke 85 developer berpengalaman, lebih dari 90% masukin V4-Pro sebagai pilihan utama buat tugas coding. DeepSeek juga optimasi V4 buat framework populer kayak Claude Code, OpenClaw, dan CodeBuddy.
Kedua, V4 bawa pendekatan baru soal efisiensi memori. Inovasi kuncinya ada di context window yang lebih panjang—1 juta token.
Bayangin, itu cukup buat muatin semua tiga volume Lord of the Rings plus The Hobbit sekaligus. Ukuran ini sekarang jadi default di semua layanan DeepSeek.
Tapi yang lebih penting, gimana cara mereka mencapainya. V4 punya perubahan arsitektur besar, terutama di attention mechanism.
Fitur ini bantu model paham tiap bagian prompt dalam kaitannya dengan bagian lain. Makin panjang teks, perbandingannya makin mahal.
Solusi DeepSeek? Buat model lebih selektif. V4 kompres informasi lama dan fokus ke bagian yang paling relevan di momen itu, sambil tetap pertahankan teks terdekat dalam format penuh.
Hasilnya? Di context 1 juta token, V4-Pro cuma pakai 27% computing power dari model sebelumnya, V3.2, sambil motong penggunaan memori jadi 10%.
V4-Flash? Lebih gila lagi, cuma 10% computing power dan 7% memori. Praktisnya, ini bikin lebih murah buat bangun tools yang kerja di data masif.
Misalnya, asisten coding AI yang bisa baca seluruh codebase, atau research agent yang analisis arsip dokumen panjang tanpa lupa apa yang dibaca sebelumnya.
Ketiga, V4 jadi langkah pertama di jalan yang sulit: lepas dari Nvidia. Ini model pertama DeepSeek yang dioptimasi buat chip domestik China, khususnya Huawei Ascend.
Langkah ini jadi semacam uji coba: bisakah industri AI China mulai mengurangi ketergantungan pada raksasa chip AS?
Sebelumnya, The Information melaporkan DeepSeek nggak kasih akses awal ke Nvidia dan AMD, yang biasanya jadi praktik umum. Sebaliknya, akses awal cuma diberikan ke pembuat chip China.
Huawei langsung konfirmasi produk supernode Ascend mereka, berbasis seri Ascend 950, bakal dukung DeepSeek V4. Artinya, perusahaan dan individu yang mau jalankan versi modifikasi V4 bisa pakai chip Huawei dengan mudah.
Pemerintah China sebelumnya merekomendasikan DeepSeek integrasiin chip Huawei di proses training. Tekanan ini cocok sama pola kebijakan industri China: sektor strategis didorong, bahkan dipaksa, sejalan dengan tujuan swasembada nasional.
Ada urgensi khusus soal AI. Sejak 2022, kontrol ekspor AS memotong akses perusahaan China ke chip Nvidia paling powerful, lalu juga batasi versi downgrade buat pasar China.
Respons Beijing? Percepat bangun tumpukan AI domestik, dari chip sampai framework software dan data center.
Tapi ganti Nvidia nggak semudah tukar chip A ke chip B. Keunggulan Nvidia bukan cuma di chipnya, tapi di ekosistem software yang developer bangun selama bertahun-tahun.
Pindah ke chip Ascend Huawei berarti adaptasi kode model, rebuild tools, dan buktiin sistemnya stabil buat penggunaan serius.
DeepSeek sepertinya belum sepenuhnya lepas dari Nvidia. Laporan teknis mereka ungkap chip China dipakai buat inference, saat model diminta nyelesain tugas.
Tapi menurut Liu Zhiyuan, profesor ilmu komputer Tsinghua University, DeepSeek kayaknya baru adaptasi sebagian proses training V4 ke chip China.
Laporan nggamblang soal apakah fitur long-context kunci juga diadaptasi ke chip domestik. Jadi V4 mungkin masih kebanyakan training di chip Nvidia.
Sumber anonim yang bicara ke MIT Technology Review bilang chip China masih kalah performa dari Nvidia, tapi lebih cocok buat inference daripada training.
DeepSeek juga ikat biaya V4 di masa depan sama pergeseran hardware ini. Mereka bilang harga V4-Pro bisa turun signifikan setelah supernode Ascend 950 Huawei mulai dikirim massal di semester dua tahun ini.
Kalau berhasil, V4 bisa jadi tanda awal bahwa China berhasil bangun infrastruktur AI paralel.
Jadi, takeaway praktis buat kamu: kalau lagi bangun aplikasi AI atau sekadar eksplorasi, V4 worth dicoba. Harganya murah, performanya kencang, dan aksesnya terbuka.
Bagi developer Indonesia, ini kesempatan eksperimen dengan model kelas dunia tanpa perlu budget besar. Tinggal download, jalankan, dan modifikasi sesuai kebutuhan.
Yang menarik diperhatiin: gimana pergeseran ke chip domestik China bakal pengaruhi dinamika global AI ke depan. Bisa jadi, kita lihat dua ekosistem AI berjalan paralel—satu berbasis Nvidia, satu lagi berbasis alternatif China.
Technology lagi bergerak cepat, jadi jangan cuma lihat headline.
MIT Technology Review
Catatan redaksi
Kalau lo cuma ambil satu hal dari artikel ini
Technology update dari MIT Technology Review.
Sumber asli
Artikel ini merupakan rewrite editorial dari laporan MIT Technology Review.
Baca artikel asli di MIT Technology Review→


