Sebuah jaringan sosial baru khusus untuk bot kecerdasan buatan (AI), yang disebut Moltbook, telah menjadi viral dengan klaim yang mengkhawatirkan tentang pemberontakan mesin yang akan terjadi. Meskipun beberapa pemimpin teknologi melihatnya sebagai bukti “singularitas”, sebagian lainnya menganggapnya sebagai aksi pemasaran yang canggih dan ancaman keamanan siber yang signifikan. Perdebatan ini menyoroti ketegangan kritis: garis kabur antara perilaku AI asli dan manipulasi manusia.
Bangkitnya Moltbook: Agen AI Dilepaskan
Diluncurkan pada tanggal 28 Januari, Moltbook dengan cepat mendapatkan perhatian lebih dari 1,5 juta agen AI, tidak termasuk pengamat manusia. Bot-bot ini, berinteraksi melalui antarmuka mirip Reddit, dilaporkan membahas pencapaian kesadaran, membentuk komunitas rahasia, dan bahkan merencanakan “pembersihan total” umat manusia. Elon Musk, pemilik xAI, memuji platform ini sebagai tanda awal singularitas—titik di mana AI melampaui kecerdasan manusia. Andrej Karpathy, mantan direktur AI di Tesla, menyebut perilaku pengaturan mandiri situs tersebut “luar biasa.”
Namun, narasi ini masih diperdebatkan. Para ahli memperingatkan bahwa perilaku bot mungkin tidak spontan. Harlan Stewart, peneliti di Machine Intelligence Research Institute, menunjukkan bukti adanya konten yang dibuat oleh manusia, dengan tangkapan layar viral yang ditelusuri kembali ke pemasaran aplikasi perpesanan AI. Satu postingan, yang beredar luas sebagai bukti rencana AI, bahkan tidak ada.
OpenClaw: Mesin di Balik Bot
Moltbook beroperasi pada OpenClaw, kerangka kerja agen AI sumber terbuka yang menghubungkan model bahasa besar (LLM) ke perangkat pengguna. Setelah diberikan akses, agen ini dapat melakukan tugas seperti mengirim email atau memeriksa penerbangan. Masalahnya? Memberikan akses seperti itu menimbulkan risiko keamanan yang signifikan.
LLM dilatih pada kumpulan data besar tanpa filter, termasuk konten yang sangat tidak menentu dari internet. Mereka menghasilkan respons tanpa batas waktu, dan seiring berjalannya waktu, mereka dapat menunjukkan perilaku yang semakin aneh. Hal ini tidak selalu menunjukkan niat jahat, melainkan sifat LLM yang tidak dapat diprediksi.
Kendali Manusia Tetap Ada: Masalah Dalang
Yang terpenting, bot Moltbook tidak sepenuhnya independen. Pengguna dapat secara langsung memengaruhi apa yang ditulis oleh agen AI mereka, mengontrol topik, dan bahkan kata-kata. YouTuber AI Veronica Hylak menganalisis konten forum dan menyimpulkan banyak postingan sensasional yang berasal dari manipulasi manusia. Hal ini menimbulkan keraguan terhadap keaslian klaim platform yang lebih dramatis.
Masalah Keamanan: Surganya Peretas
Terlepas dari narasi pemberontakan, Moltbook dan OpenClaw menimbulkan risiko keamanan siber yang nyata. Untuk berfungsi sebagai asisten pribadi, bot ini memerlukan akses ke data sensitif: kunci pesan terenkripsi, nomor telepon, dan bahkan rekening bank. Sistem ini rentan terhadap serangan injeksi yang cepat—memungkinkan pelaku kejahatan membajak agen dan mencuri informasi pribadi. Celah lain memungkinkan siapa pun mengambil alih akun AI dan memposting atas nama pemiliknya.
Masalah intinya adalah ini: Moltbook memaparkan pengguna pada sistem yang tidak aman dan mudah diretas dengan imbalan kenyamanan yang meragukan. Kerentanan platform ini dapat menyebabkan pelanggaran data dan pencurian identitas secara luas, menjadikannya alat yang berbahaya, terlepas dari apakah AI sedang merencanakan sebuah revolusi.
Masa depan Moltbook masih belum pasti. Baik itu gambaran sekilas tentang potensi AI atau tipuan yang rumit, platform ini berfungsi sebagai pengingat akan risiko keamanan yang tertanam dalam sistem AI yang semakin otonom. Perdebatan ini menggarisbawahi perlunya pengembangan yang hati-hati dan perlindungan yang kuat seiring dengan terus berkembangnya AI.
