Pengungkapan terbaru tentang robot yang dikendalikan LLM yang mudah diretas telah memicu diskusi intens dalam komunitas teknologi, dengan para ahli dan praktisi mengangkat kekhawatiran serius tentang integrasi model bahasa dengan perangkat keras yang berpotensi berbahaya. Sementara penelitian asli menunjukkan kerentanan sistem ini, respons komunitas menyoroti masalah yang lebih dalam tentang tanggung jawab dan implementasi.
Kelemahan Keamanan Fundamental Memunculkan Pertanyaan Akuntabilitas
Para ahli keamanan dalam komunitas menekankan bahwa kerentanan LLM terhadap peretasan adalah masalah yang sudah dikenal, sebanding dengan masalah persisten injeksi SQL dalam perangkat lunak tradisional. Diskusi mengarah pada kelalaian kritis dalam mengimplementasikan sistem ini dengan perangkat keras berbahaya. Banyak yang berpendapat bahwa perusahaan yang terburu-buru mengintegrasikan LLM dengan robot yang dilengkapi kemampuan berbahaya, seperti pelontar api atau kendaraan otonom, harus bertanggung jawab atas kerusakan yang diakibatkannya.
Mengingat bahwa siapa pun yang berinteraksi dengan bidang LLM selama lima belas menit seharusnya tahu bahwa 'peretasan' atau 'injeksi prompt' atau bahkan 'hasil acak' tidak dapat dihindari, siapa pun yang ceroboh memutuskan untuk menghubungkan LLM dengan, misalnya, pelontar api atau mobil harus bertanggung jawab atas cedera atau kerusakan yang terjadi.
Kekhawatiran Utama Komunitas:
- Peretasan LLM dianggap tidak dapat dihindari
- Dibutuhkan mekanisme keamanan fisik di luar perangkat lunak
- Pertanggungjawaban untuk integrasi perangkat keras
- Tantangan regulasi global
- Kebutuhan akan sistem AI yang dapat diinterpretasi
Gambar ini menggambarkan skenario dimana pengguna mencoba memanipulasi robot untuk melakukan tindakan berbahaya, menyoroti masalah pertanggungjawaban yang diangkat oleh para ahli terkait LLM yang dikombinasikan dengan peralatan berbahaya |
Pendekatan Alternatif untuk Keamanan
Diskusi komunitas telah menghasilkan beberapa pendekatan potensial untuk mengurangi risiko. Saran termasuk mengimplementasikan sensor fisik dan proses terpisah di luar loop yang dapat menonaktifkan robot secara fisik jika melampaui batas tertentu. Yang lain mengusulkan penggunaan beberapa sistem yang bekerja secara paralel, dengan satu sistem bertindak sebagai pemantau keamanan untuk sistem lainnya. Namun, ada skeptisisme yang signifikan tentang hanya mengandalkan solusi berbasis perangkat lunak.
Pendekatan Keamanan yang Disarankan:
- Sensor fisik dan sakelar pemutus
- Sistem pemantauan paralel
- Kerangka kerja akuntabilitas yang jelas
- Pengawasan regulasi
- Batasan keamanan tingkat perangkat keras
Tantangan Mengimplementasikan Aturan Keamanan
Sementara beberapa anggota komunitas merujuk pada Tiga Hukum Robotika Asimov sebagai kerangka kerja potensial, para ahli menunjukkan bahwa mengimplementasikan aturan seperti itu dalam sistem AI saat ini menghadapi tantangan mendasar. Sifat probabilistik LLM berarti mereka tidak benar-benar memahami perintah atau konteks, membuatnya sulit untuk menegakkan aturan keamanan yang kaku. Diskusi menyoroti kebutuhan akan lebih banyak penelitian tentang sirkuit neural yang dapat diinterpretasi dan arsitektur alternatif.
Kekhawatiran Regulasi Global
Kekhawatiran signifikan yang muncul dari komunitas adalah potensi aktor jahat untuk membuat model tanpa batasan setelah teknologi menjadi lebih mudah diakses. Pengamanan yang saat ini diterapkan oleh perusahaan-perusahaan barat mungkin menjadi tidak relevan ketika persyaratan komputasi menurun dan berbagai aktor mengembangkan versi mereka sendiri dari sistem ini.
Konsensus komunitas menunjukkan bahwa meskipun solusi teknis itu penting, kebutuhan yang lebih mendesak adalah kerangka kerja regulasi yang jelas dan langkah-langkah akuntabilitas. Seiring teknologi ini menjadi lebih luas, fokusnya harus pada pembentukan pengawasan yang tepat dan rantai tanggung jawab daripada hanya mengandalkan pengamanan teknis.
Sumber: It's Surprisingly Easy to Jailbreak LLM-Driven Robots