Sejarah singkat cara robot belajar: dari aturan ketat, simulasi digital, hingga foundation models yang membuat robot humanoid seperti Digit mulai bekerja di gudang nyata.
Dulu, para peneliti robotika punya mimpi besar: menciptakan robot secanggih tubuh manusia. Tapi realitanya? Mereka habis karier cuma menyempurnakan lengan robot untuk pabrik mobil.
Targetnya C-3PO, hasilnya malah Roomba yang muter-muter bersihin lantai. Tapi sekarang, semuanya berubah. Tahun 2025 saja, investor mencucurkan $6,1 miliar ke robot humanoid—empat kali lipat dari tahun sebelumnya.
Apa yang terjadi? Revolusi dalam cara mesin belajar berinteraksi dengan dunia.
Bayangin kamu mau pasang lengan robot di rumah buat lipat baju. Cara lama: tulis ratusan aturan. Periksa kain, identifikasi kerah, lipat lengan kiri sekian senti, ulang untuk lengan kanan.
Kalau bajunya miring? Tambah aturan lagi. Lengannya kusut? Aturan lagi. Cepat atau lambat, aturannya meledak jadi ribuan.
Sekitar 2015, cara berpikir mulai berubah. Para peneliti bikin simulasi digital: lengan robot dan baju virtual. Program ini dapat 'reward' tiap berhasil lipat, dan 'penalty' tiap gagal.
Dengan trial and error jutaan kali—mirip cara AI jago main game—robot jadi lebih pintar tanpa programmer tulis aturan satu per satu.
Kemudian ChatGPT datang tahun 2022. Large language models (LLMs) bekerja beda: bukan trial and error, tapi memprediksi kata berikutnya dalam kalimat.
Model serupa untuk robotika mulai muncul. Mereka 'makan' gambar, data sensor, posisi sendi robot, lalu prediksi aksi berikutnya—ngeluarin perintah motor puluhan kali per detik.
Perubahan konsep ini—bergantung pada AI yang menyerap data besar—berhasil untuk robot ngobrol, bergerak, maupun kerja kompleks.
Cynthia Breazeal dari MIT pernah coba bikin robot sosial namanya Jibo tahun 2014. Bentuknya kayak lampu, bisa kenalan dan joget buat hibur anak.
Visinya? Asisten fisik yang urus jadwal, email, cerita. Tapi Jibo kalah saing dari Siri dan Alexa, yang juga masih pakai scripting kaku. Perusahaannya tutup 2019.
Yang Jibo butuh sebenarnya? Kemampuan bahasa yang lebih natural. Sekarang, voice mode dari AI modern udah engaging banget. Tapi ada risiko baru: percakapan AI bisa 'nyasar', beda dari script yang terkontrol.
OpenAI pernah coba latih tangan robot Dactyl pakai simulasi virtual. Tugasnya? Manipulasi kubus kecil. Tapi masalah klasik muncul: robot jago di simulasi, gagal total di dunia nyata.
Warna sedikit beda, karet di jari robot lebih elastis dari prediksi—semua bikin chaos. Solusinya namanya domain randomization.
Buat jutaan simulasi dengan variasi acak: gesekan beda, pencahayaan beda, warna beda. Dengan cukup variasi, robot jadi lebih adaptif di dunia nyata.
Dactyl berhasil, bahkan bisa selesaikan Rubik's Cube—meski cuma 60% akurat. Tapi OpenAI tutup divisi robotika 2021, baru dibuka lagi fokus ke humanoid.
Tim Google DeepMind punya pendekatan lain. Mereka rekam orang kerjain 700 tugas berbeda selama 17 bulan: ambil keripik, buka toples, dll.
Hasilnya RT-1: model yang terjemahin instruksi jadi perintah motor. Kalau pernah lihat tugasnya, sukses 97%. Tugas baru? 76% tetap berhasil.
RT-2 yang keluar tahun berikutnya makin gila. Dia latih di gambar internet umum, bukan cuma data robotika. Jadi bisa ngerti konteks kayak 'taruh kaleng Coke dekat foto Taylor Swift'.
Tahun 2025, Google DeepMind rilis Gemini Robotics—gabungan LLM dan robotika dengan pemahaman bahasa alami lebih baik.
Covariant, startup dari mantan engineer OpenAI, ambil jalur praktis. Mereka bikin lengan robot untuk gudang, dipakai Crate & Barrel.
Model mereka RFM-1 bisa kamu ajak interaksi kayak rekan kerja. Tunjukin banyak sleeve bola tenis, suruh pisahin ke area berbeda. Robot bisa jawab—misalnya prediksi grip kurang bagus dan minta saran suction cup.
Ini bukan eksperimen lab lagi, tapi deployment skala besar. Data dari setiap lokasi customer dipakai latih model terus-menerus.
Tentu nggak sempurna. Demo Maret 2024, robot struggle waktu disuruh 'balikin pisang ke tempat semula'. Dia ambil spons, apel, barang lain dulu baru berhasil.
Cofounder Peter Chen jujur: robot belum ngerti konsep balik jejak. Tapi ini contoh bagus—di area tanpa data latih yang cukup, performa masih jeblok.
Chen dan founder lainnya sekarang di-hire Amazon, yang lagi lisensi model Covariant untuk 1.300 gudang mereka di AS.
Sekarang, dana investor mengalir ke robot berbentuk manusia. Humanoid kayak Digit dari Agility Robotics dirancang masuk ruang dan pekerjaan yang ditempati manusia.
Tak perlu ubah assembly line buat akomodasi bentuk aneh. Amazon, Toyota, GXO (logistik untuk Apple dan Nike) semua deploy Digit.
Ini salah satu contoh pertama humanoid yang perusahaan lihat sebagai penghemat biaya, bukan cuma gimmick.
Digit kerja sehari-hari: angkat, pindah, tumpuk shipping totes. Tapi masih jauh dari asisten humanlike impian Silicon Valley.
Angkat maksimal cuma 16 kg. Tiap dibikin lebih kuat, baterai makin berat dan sering nge-charge. Standar keselamatan juga lebih ketat karena designed untuk dekat manusia.
Yang menarik: Digit nggak pakai satu metode aja. Agility kombinasi simulasi kayak Dactyl dan kerja sama dengan Gemini buat adaptasi lingkungan baru.
Setelah lebih dari sepuluh tahun eksperimen, industri robotika akhirnya mulai bangun besar lagi.
AI Updates lagi bergerak cepat, jadi jangan cuma lihat headline.
MIT Technology Review AI
Catatan redaksi
Kalau lo cuma ambil satu hal dari artikel ini
AI Updates update dari MIT Technology Review AI.
Sumber asli
Artikel ini merupakan rewrite editorial dari laporan MIT Technology Review AI.
Baca artikel asli di MIT Technology Review AI→
![A Report on Burnout in Open Source Software Communities (2025) [pdf]](https://cdn.sanity.io/images/dc330kkz/production/5abef2280c91c15bf2815dd8fd0ec564c6d1c72d-1024x576.jpg?w=1400&h=788&fit=crop&auto=format&q=82)

