Penelitian baru meragukan teori DNA Neanderthal pada manusia modern. Di bidang AI, konsep pengawasan manusia dalam perang ternyata tidak efektif.

Pernah dengar teori kalau kamu punya 'inner Neanderthal'? Konsep ini cukup populer belakangan ini.

Idenya sederhana: Homo sapiens dulu kawin dengan spesies kerabat, meninggalkan jejak DNA Neanderthal di beberapa orang modern. Penemuan ini jadi salah satu yang paling dirayakan dalam evolusi manusia abad ke-21.

Tapi tunggu dulu. Tahun 2024, dua ahli genetika dari Prancis mengguncang fondasi teori ini.

Advertisement

Mereka mengusulkan alternatif: yang dianggap sebagai perkawinan silang sebenarnya bisa dijelaskan oleh struktur populasi. Gen cenderung mengelompok di kelompok kecil yang terisolasi, tanpa perlu ada percampuran spesies.

Jadi, mungkin saja kita tidak se-'Neanderthal' itu. Penelitian ini mengingatkan kita bahwa sains itu dinamis—apa yang jadi 'kebenaran' populer bisa saja berubah.

Sekarang beralih ke topik lain yang juga menggugat keyakinan kita: AI dalam perang.

AI mulai membentuk konflik nyata. Anthropic sedang berperang hukum dengan Pentagon, peran AI dalam konflik Iran makin besar, dan pertanyaan krusial muncul: seberapa banyak manusia yang harus tetap 'in the loop'?

Panduan Pentagon menyebut pengawasan manusia penting untuk akuntabilitas, konteks, dan keamanan. Tapi menurut penulis op-ed Uri Maoz, ini cuma ilusi yang menenangkan.

Bahaya sebenarnya bukan mesin yang bertindak tanpa pengawasan. Bahaya sesungguhnya adalah pengawas manusia tidak tahu apa yang sebenarnya dipikirkan mesin.

Kita sering kali menganggap ada manusia di belakang tombol berarti aman. Padahal, kompleksitas AI modern membuat oversight manusia jadi sekadar formalitas kosong.

Kabar baiknya: sains mungkin punya solusi. Dibutuhkan safeguard baru yang benar-benar efektif, bukan sekadar retorika 'humans in the loop'.

Di luar dua topik utama ini, ada beberapa perkembangan menarik lainnya.

Pemerintahan Trump ternyata ingin akses ke model AI Anthropic yang mereka blacklist—model Mythos yang dianggap terlalu berbahaya untuk rilis publik. Ironis, kan?

Sementara itu, ketergantungan Pentagon pada Starlink SpaceX terungkap saat outage mengganggu tes drone Angkatan Laut. Ini isyarat bahaya mengandalkan satu vendor untuk infrastruktur kritis.

Ekspansi data center untuk AI juga terancam tertunda—40% proyek tahun ini berisiko molor. Alasannya klasik: tak ada yang mau data center di halaman belakang mereka.

Alibaba meluncurkan 'Happy Oyster', world model mereka sendiri. Google Gemini kini bisa generate gambar berdasarkan data pribadi pengguna. OpenAI memperbarui Codex untuk coding agentic.

Dari sisi yang lebih manusiawi: aktor pengisi suara global sedang melawan Hollywood. Suara mereka dipakai melatih model AI yang akhirnya menggantikan mereka.

Jadi apa takeaway praktisnya?

Pertama, jangan terlalu cepat percaya 'fakta' sains populer—termasuk soal asal-usul genetikmu. Sains itu revisi terus.

Kedua, soal AI dalam konteks kritis seperti perang, jangan mudah terlena jargon 'human oversight'. Tanyakan: apakah manusia benar-benar mengerti apa yang diawasi?

Ketiga, diversifikasi dan redundansi itu penting—baik untuk infrastruktur digital maupun sumber informasimu. Jangan bergantung pada satu sumber atau satu narasi.

Technology lagi bergerak cepat, jadi jangan cuma lihat headline.

MIT Technology Review

Catatan redaksi

Kalau lo cuma ambil satu hal dari artikel ini

Technology update dari MIT Technology Review.

Sumber asli

Artikel ini merupakan rewrite editorial dari laporan MIT Technology Review.

Baca artikel asli di MIT Technology Review
#Technology#MITTechnologyReview#rss