Neuro-symbolic reasoning menggabungkan neural network dan logika simbolik untuk meningkatkan kemampuan AI menyelesaikan tugas penalaran visual seperti ARC-AGI-2.

Kamu pasti familiar dengan tes IQ yang minta kamu melanjutkan pola, kan? Nah, AI juga punya versinya: ARC-AGI-2. Tes ini bikin AI bingung karena butuh penalaran abstrak, bukan sekadar menghafal data.

Masalahnya, pendekatan AI yang ada sekarang punya kelemahan masing-masing. Neural network murni—seperti GPT—jago banget ngeliat pola, tapi susah kombinasiin aturan baru yang belum pernah dilihat. Sebaliknya, sistem simbolik yang pakai aturan logika kaku, susah ngerti gambar atau data visual.

Nah, peneliti di sini punya solusi keren: neuro-symbolic architecture. Intinya, gabungin yang terbaik dari dua dunia. AI tetap pakai neural network buat "ngeliat" dan ngeproses visual, tapi juga pakai sistem simbolik buat nalar logis.

Advertisement

Advertisement

Slot in-article yang tampil setelah paragraf ketiga.

Cara kerjanya gini. Pertama, sistem ekstrak objek-objek dari grid visual. Misalnya, ngidentifikasi "ini kotak merah, ini garis biru." Ini bagian perception yang dihandle dengan cara terstruktur.

Terus, neural network ngasih saran transformasi apa yang mungkin berlaku. Contoh: mungkin objek ini perlu dirotasi, di-flip, atau digeser? Saran-saran ini datang dari domain-specific language (DSL)—kumpulan operasi dasar yang sudah ditentuin.

Yang menarik, sistem nggak langsung percaya sama satu saran. Dia cek konsistensi across multiple examples. Kalau transformasi A cocok buat contoh 1 tapi nggak buat contoh 2, ya ditolak. Ini bagian symbolic consistency filtering-nya.

Peneliti namain framework ini "compositional reasoning based on unit patterns." Konsepnya terinspirasi cara manusia lihat visual: kita otomatis ngeliat objek sebagai unit terpisah, bukan sekadar pixel berantakan.

Hasilnya? Lumayan impressive. Base LLM yang cuma dapet 16% accuracy di ARC-AGI-2, naik jadi 24.4% setelah ditambahin sistem ini. Kalau digabung sama ARC Lang Solver lewat meta-classifier, performanya tembus 30.8%.

Yang lebih penting, improvement ini dicapai tanpa task-specific finetuning atau reinforcement learning. Artinya, sistemnya lebih general, nggak perlu di-training ulang buat setiap jenis soal baru.

Ada lesson praktis buat kamu yang kerja di AI atau machine learning. Pertama, pisahin concern: perception, proposal generation, dan verification itu beda-beda dan worth di-handle dengan cara berbeda.

Kedua, jangan over-rely sama brute-force search atau test-time scaling yang mahal. Pendekatan neuro-symbolic ini justru ngurangin kebutuhan sampling berkali-kali, jadi lebih efisien.

Ketiga, pertimbangin DSL yang domain-specific. Nggak perlu reinvent the wheel—kumpulan operasi dasar yang well-designed bisa jadi building block yang powerful.

Penelitian ini juga nunjukin bahwa augmentasi LLM dengan representasi objek yang eksplisit itu berhasil. Jadi nggak cuma "prompt engineering aja," tapi benar-benar ngasih struktur representasi yang lebih kaya.

Buat yang ngikutin ARC-AGI challenge, ini signifikan karena nunjukin arah baru: nggak cuma scaling model lebih gede, tapi arsitektur yang lebih cerdas dalam memproses informasi.

Kodenya udah open source, jadi kamu bisa eksplor sendiri kalau tertarik. Overall, ini contoh bagus bagaimana kombinasi pendekatan lama (symbolic AI) dan baru (deep learning) bisa ngasih hasil yang lebih kuat daripada masing-masing sendiri.

AI Updates lagi bergerak cepat, jadi jangan cuma lihat headline.

arXiv CS.AI

Catatan redaksi

Kalau lo cuma ambil satu hal dari artikel ini

AI Updates update dari arXiv CS.AI.

Sumber asli

Artikel ini merupakan rewrite editorial dari laporan arXiv CS.AI.

Baca artikel asli di arXiv CS.AI
#AIUpdates#arXivCSAI#rss