Apa yang lebih canggih dari ChatGPT? Kenalan dengan LLMs+, generasi baru large language models yang lebih efisien, punya memori lebih besar, dan bisa kerja otomatis berhari-hari.

Ingat nggak waktu pertama kali ChatGPT muncul akhir 2022? Tiba-tiba semua orang pakai AI buat segala hal—nulis email, coding, bahkan curhat.

Saat itu, LLM kayak ChatGPT dianggap masa depan. Perusahaan tech berlomba-lomba bikin produk serupa. Tapi sekarang, banyak yang mulai nanya: terus apa selanjutnya?

Jawabannya? Lebih banyak LLM. Tapi yang lebih canggih. Mari kita sebut aja LLMs+.

Advertisement

Bayangin AI yang bisa nyelesain masalah rumit yang biasanya butuh waktu berhari-hari atau berminggu-minggu buat manusia. Itu yang lagi dikejar para peneliti top.

Tapi buat sampai ke sana, ada beberapa tantangan yang harus diatasi dulu.

Pertama, LLM harus jadi lebih efisien dan murah dijalankan. Kabar baiknya, kemajuan besar udah terjadi di area ini.

Satu pendekatan menarik namanya mixture-of-experts. Caranya, LLM dibagi jadi bagian-bagian kecil, dan tiap bagian jadi ahli di tugas tertentu.

Jadi nggak semua bagian model harus nyala sekaligus. Lebih hemat energi dan biaya.

Cara lain yang lagi dieksplorasi: ganti transformers dengan diffusion models. Transformers itu neural network yang dipakai hampir semua LLM sekarang.

Diffusion models biasanya dipakai buat generate gambar dan video, tapi ada potensi bikin LLM jauh lebih efisien.

Ada juga pendekatan eksperimental lain. Tahun lalu, DeepSeek perusahaan AI China nunjukin cara encode teks dalam gambar yang bisa motong biaya komputasi.

Area penting lainnya adalah context window. Ini kayak memori kerja LLM—seberapa banyak teks atau video yang bisa diproses sekaligus.

Dulu, LLM cuma bisa handle beberapa ribu token, kira-kira beberapa puluh halaman. Sekarang? Model terbaru udah bisa handle sampai sejuta token—setumpuk buku.

Tapi ada masalah. Semakin besar context window dan semakin lama tugasnya, LLM makin sering "nyasar" atau lupa lagi ngapain.

Untungnya, ada terobosan di sini juga. Peneliti MIT CSAIL baru-baru ini kenalin yang namanya recursive LLMs.

Cara kerjanya beda. Daripada nyerap context window besar sekaligus, recursive LLMs pecah input jadi bagian-bagian kecil.

Tiap bagian dikirim ke salinan dirinya sendiri, yang bisa pecah lagi jadi lebih kecil dan kirim ke salinan lain. Banyak LLM kecil kerja bareng jadi lebih reliable buat tugas panjang dan sulit.

Hasilnya? LLM, tapi bukan yang kamu kenal.

Jadi apa takeaway praktisnya buat kamu? Jangan terlalu nyaman dengan ChatGPT versi sekarang.

Dalam 1-2 tahun ke depan, AI bakal bisa handle proyek kompleks secara mandiri—riset mendalam, analisis data besar, bahkan coding sistem yang rumit.

Buat yang kerja di tech, mulai pahami konsep kayak mixture-of-experts dan recursive processing. Ini bakal jadi standar industri.

Dan buat semua orang: siap-siap aja. AI yang bener-bener bisa "berpikir panjang" bakal ubah cara kita kerja lebih drastis daripada ChatGPT pernah lakukan.

AI Updates lagi bergerak cepat, jadi jangan cuma lihat headline.

MIT Technology Review AI

Catatan redaksi

Kalau lo cuma ambil satu hal dari artikel ini

AI Updates update dari MIT Technology Review AI.

Sumber asli

Artikel ini merupakan rewrite editorial dari laporan MIT Technology Review AI.

Baca artikel asli di MIT Technology Review AI
#AIUpdates#MITTechnologyReviewAI#rss